Datacenter GPUs: High-Performance Computing für alle

Jetzt Artikel teilen:

GPUs haben längst ihre Grafiknische verlassen und beschleunigen heute leistungshungrige Anwendungen im Datacenter.

Daten sind das neue Öl und die Verarbeitung und Auswertung großer Datenmengen in Echtzeit kann heute zum entscheidenden Marktvorteil für Unternehmen werden. Doch nicht nur im Bereich Big Data steigen die Anforderungen im Hinblick auf die Rechenleistung. Viele andere Workloads wie KI, Machine Learning oder Visualisierung profitieren von der Möglichkeit, High-Performance Computing zu nutzen. Mit Datacenter GPUs halten daher leistungsstarke Grafikprozessoren Einzug in Unternehmens- und Cloud-Rechenzentren. Sie liefern die nötige Rechenleistung für anspruchsvolle Berechnungen.

Sie suchen flexible GPU-Rechenleistung in der Cloud? Erfahren Sie mehr über GPUs in der europäischen pluscloud.

 

Aktuelle Softwareanwendungen haben in der Regel datenintensive Bereiche mit einem hohen Maß an inhärenter Parallelität. Oder einfach ausgedrückt: An bestimmten Stellen sind sehr viele Rechenschritte gleichzeitig notwendig. GPUs unterstützen diese parallelen Regionen, indem die Berechnung über Hunderte bis Tausende von Kernen verteilt wird. Dies kann bei vielen Anwendungen zu einer erheblichen Beschleunigung führen.

GPUs arbeiten Hand in Hand mit CPUs

Beim GPU Computing handelt es sich um eine Art heterogenes Computing, also paralleles Rechnen mit Mehrprozessor-Architekturen. Mehrkern-GPUs werden mit Mehrkern-CPUs kombiniert, um eine höhere Leistung zu erzielen. Heutige CPUs haben bis zu 18 Kerne, während GPUs heute meist Tausende Kerne auf einem einzigen Chip vereinen.

CPU- und GPU-Kerne im Vergleich

CPU- und GPU-Kerne im Vergleich. Quelle: NVIDIA

Der springende Punkt dabei ist, dass in einer hybriden Architektur, in der GPUs und CPUs zusammenarbeiten, die Entwickler nur die leistungskritischen Funktionen auf den GPUs im System beschleunigen müssen. Der Rest kann so wie er ist auf der CPU laufen. Es ist nicht erforderlich, eine gesamte Anwendung auf den Grafikprozessor zu portieren.

Das Ganze sieht dann so aus:

Verteilung des Anwendungscodes auf GPUs und CPUs

Benchmarks: Wie gut schneiden GPUs in der Praxis ab

Wie gut Anwendungen in der realen Welt auf den Grafikprozessoren laufen, veranschaulicht das folgende Diagramm. Es vergleicht je ein GPU- und CPU-Modell bei (wissenschaftlichen) Arbeitslasten, für die High-Performance Computing relevant ist. Die Geschwindigkeitssteigerung liegt hier zwischen dem 8- bis 18-fachen. Zwar ist diese Messung bereits etwas älter, aber dennoch gelten auch heute noch vergleichbare Werte.

Benchmarks: Performance von GPUs

Aber was besagt diese Geschwindigkeit wirklich? Wenn die Ausführung eines Jobs auf einer CPU bisher zwei Monate gedauert hätte, bedeutet eine 10-fache Beschleunigung, dass der Job innerhalb einer Woche abgeschlossen werden kann. Der Nutzer erhält die Ergebnisse früher, überprüft die Korrektheit und kann zum nächsten Prozessschritt übergehen. Daher kann eine zehnfache Geschwindigkeit im Gesamtprojekt eine Menge Zeit sparen.

Ein weiterer Punkt: Kosteneffizienz

Für denselben Output im High-Performance Computing benötigen CPUs nicht nur länger, sondern verbrauchen auch ein Vielfaches an Energie. Beispielsweise erfordert der Betrieb einer 2,3-PFlops-Maschine, die mit einer CPU ausgestattet ist, bis zu 7 Megawatt. Geht man davon aus, dass 1 Megawatt 1000 Haushalte ein Jahr lang mit Strom versorgen kann, entspricht dies dem Stromverbrauch von 7000 Haushalten für ein Jahr. Vor diesem Hintergrund wird schnell klar, dass die CPU-Technologie mit der rasant steigenden Nachfrage nach Rechenleistung einfach nicht mithalten kann. Sie ist zu teuer und energiehungrig.

CPUs sind außerdem für sequenzielle Verarbeitung optimiert, aber nicht sehr effizient für parallele Berechnungen. GPUs hingegen sind für parallele Berechnungen maßgeschneidert. Die Kombination eines Grafikprozessors mit einer CPU ist eine gewinnbringende Kombination, bei der jeder das tut, was er am besten kann. Das Ergebnis ist eine zehn Mal höhere Leistung pro Sockel und eine fünf Mal höhere Energieeffizienz.

GPUs für parallele Berechnungen und große Datensätze

GPUs zeigen ihre Stärke beim Massive Parallel Computing sowie bei großen Datensätzen (Big Data).

Dieser Effekt macht sich nicht nur bemerkbar, wenn Einrichtungen oder Firmen ihre eigenen Systeme mit GPUs ausstatten. Aus Kostengründen und um Ressourcen effizienter zu nutzen, wechseln ohnehin mehr und mehr Unternehmen mit ihren geschäftskritischen Anwendungen in die Cloud. Hier profitieren sie in derselben Weise von Einsparungen, wenn sie für bestimmte Anwendungen auf GPU-gestützte Cloud-Ressourcen setzen. Im Vergleich zum Betrieb mehrerer VMs, die ausschließlich mit CPUs ausgestattet sind, rechnet sich der Einsatz von GPUs für Massive-Parallel-Computing-Anforderungen.

Erfahren Sie im zweiten Teil des Artikels mehr über Cloud GPUs.

 

Titelbild von Gerd Altmann auf Pixabay

Jetzt Artikel teilen:

Das könnte Sie auch interessieren