Dataconomy DE
Subscribe
No Result
View All Result
Dataconomy DE
Subscribe
No Result
View All Result
Dataconomy DE
No Result
View All Result

NVIDIA treibt das KI-Supercomputing mit dem DGX SuperPOD im Billionen-Parameterbereich voran

byEmre Çıtak
März 19, 2024
in Allgemein

NVIDIA hat seinen KI-Supercomputer der nächsten Generation vorgestellt, den NVIDIA DGX SuperPODspeziell entwickelt, um die immensen Rechenanforderungen der generativen KI zu bewältigen.

Dieses leistungsstarke System nutzt die Verarbeitungsleistung der NVIDIA GB200 Grace Blackwell Superchips. Jedes DGX GB200-System verfügt über 36 dieser Superchips, die 36 NVIDIA Grace-CPUs und sage und schreibe 72 NVIDIA Blackwell-GPUs integrieren.

Dank der NVIDIA NVLink-Technologie der fünften Generation funktionieren diese Superchips zusammenhängend als ein einziger Hochleistungs-Supercomputer.

NVIDIA DGX SuperPOD
Der neue DGX SuperPOD von NVIDIA wurde speziell für die enormen Rechenanforderungen der generativen KI entwickelt (Bildnachweis)

Das Herzstück des DGX SuperPOD

Der von Grace Blackwell betriebene DGX SuperPOD bietet enorme Skalierbarkeit. Es beginnt mit mindestens acht DGX GB200-Systemen und lässt sich problemlos skalieren, um Zehntausende GB200-Superchips zu integrieren, die über NVIDIA Quantum InfiniBand miteinander verbunden sind.

Kunden, die KI-Modelle der nächsten Generation mit enormem Bedarf an gemeinsam genutztem Speicher betreiben möchten, können einen acht DGX GB200-Systemcluster konfigurieren, der 576 Blackwell-GPUs über NVLink verbindet.

  • Jedes DGX GB200-System verfügt über 36 NVIDIA GB200 Grace Blackwell Superchips
  • Diese Superchips sind zu einem einzigen Supercomputer verbunden
  • GB200-Superchips bieten eine beeindruckende 30-fache Leistungssteigerung im Vergleich zu NVIDIA H100 Tensor Core GPU

Lernen Sie GB200 kennen

Der GB200 Superchipmit eine leistungsstarke Kombination aus Grace-CPUs und Blackwell-GPUsist speziell darauf ausgelegt, die anspruchsvollen Rechenanforderungen großer generativer KI-Modelle zu erfüllen. Bei diesen komplexen Modellen ist die enge Integration von CPU- und GPU-Elementen entscheidend für eine optimale Leistung.

Generative KI-Modelle nehmen rasant an Größe zu. GB200 ist auf die Bewältigung der komplexen Trainings- und Inferenzarbeitslasten für Modelle zugeschnitten, die auf der Billionen-Parameter-Skala und darüber hinaus arbeiten.

GB200-Superchips bieten eine erstaunliche 30-fache Leistungssteigerung im Vergleich zur NVIDIA H100 Tensor Core-GPU bei der Modellinferenz in großen Sprachen. Ein solcher Leistungssprung ist unerlässlich, um mit der rasanten Entwicklung der generativen KI Schritt zu halten.

Die Rack-Scale-Architektur des Der DGX SuperPOD ist für maximale Leistung optimiert, indem er die Fähigkeiten des GB200-Superchips nutzt. Dadurch wird sichergestellt, dass generative KI-Workflows nahtlos und skalierbar abgewickelt werden.

NVIDIA DGX SuperPOD
Jedes DGX GB200-System integriert 36 NVIDIA Grace-CPUs und 72 NVIDIA Blackwell-GPUs (Bildnachweis)

Skalierung, um beispiellosen Anforderungen gerecht zu werden

NVIDIA hat eine neue, flüssigkeitsgekühlte Rack-Architektur eingeführt, die für die Anforderungen generativer KI optimiert ist. Zusammen mit NVIDIA BlueField-3 DPUs und NVIDIA Quantum-X800 InfiniBand-Netzwerken entsteht so eine einheitliche Rechenstruktur.

Die Plattform liefert eine atemberaubende Leistung 1.800 Gigabyte pro Sekunde Bandbreite für jede GPU. Darüber hinaus verfügt das NVIDIA Scalable Hierarchical Aggregation and Reduction Protocol (SHARP) der vierten Generation über Bietet 14,4 Teraflops netzwerkinternes Computing – eine vierfache Leistungssteigerung gegenüber der vorherigen Architektur.

Komplette KI-Supercomputing-Lösung

Der DGX SuperPOD bietet eine umfassende KI-Supercomputing-Lösung.

Um die Komplexität generativer KI-Workloads zu bewältigen, lässt es sich nahtlos in leistungsstarke Speicherlösungen von NVIDIA-zertifizierten Partnern integrieren. Um die Bereitstellung zu optimieren, wird jedes System im Werk zusammengebaut, verkabelt und getestet.

Intelligente vorausschauende Managementfunktionen überwachen kontinuierlich Tausende von Hardware- und Software-Datenpunkten und maximieren so die Betriebszeit und minimieren Ausfallzeiten.

Verfügbarkeit und darüber hinaus

NVIDIA kündigte außerdem das NVIDIA DGX B200-System an, eine grundlegende einheitliche KI-Supercomputing-Plattform, die weltweit branchenübergreifend eingesetzt wird.

NVIDIAs DGX SuperPOD mit GB200-Superchips verspricht, Fortschritte in der generativen KI zu beschleunigen. Von der Arzneimittelentwicklung bis hin zu wissenschaftlichen Simulationen und der Erstellung von Inhalten – die potenziellen Anwendungen dieser Technologie versprechen eine Umgestaltung der Industrie.

NVIDIA DGX SuperPOD
Der GB200 Superchip ist für die anspruchsvollen Arbeitslasten generativer KI-Modelle im Billionen-Parameter-Maßstab konzipiert (Bildnachweis)

NVIDIAs KI-Reise

NVIDIAs DGX SuperPOD mit GB200-Superchips stellt einen bedeutenden Meilenstein in der dar die kontinuierliche KI-Reise des Unternehmens.

NVIDIA hat die Grenzen dessen, was im Supercomputing möglich ist, kontinuierlich getestet. Förderung von Innovationen in einem breiten Spektrum von Branchen. Die durch dieses neueste System freigesetzten Fähigkeiten ebnen den Weg für noch mehr transformative Durchbrüche im spannenden Bereich der generativen KI.

NVIDIA DGX SuperPOD mit DGX GB200- und DGX B200-Systemen sind wird voraussichtlich noch in diesem Jahr bei NVIDIAs globalen Partnern erhältlich sein.


Hervorgehobener Bildnachweis: Kerem Gülen/DALL-E 3.

Related Posts

Databricks -Wetten auf serverlose Postgres mit seiner Akquisition von 1 Milliarde US -Dollar

Databricks -Wetten auf serverlose Postgres mit seiner Akquisition von 1 Milliarde US -Dollar

Mai 15, 2025
Alphaevolve: Wie Googles neue KI mit Selbstkorrektur auf die Wahrheit strebt

Alphaevolve: Wie Googles neue KI mit Selbstkorrektur auf die Wahrheit strebt

Mai 15, 2025
TIKTOK implementiert AI-generierte ALT-Texte, um eine bessere Akzierbarkeit zu erhalten

TIKTOK implementiert AI-generierte ALT-Texte, um eine bessere Akzierbarkeit zu erhalten

Mai 15, 2025
Trump zwingt Apple, seine indische iPhone -Strategie in Indien zu überdenken

Trump zwingt Apple, seine indische iPhone -Strategie in Indien zu überdenken

Mai 15, 2025
Die KI von YouTube weiß jetzt, wann Sie kurz vor dem Kauf sind

Die KI von YouTube weiß jetzt, wann Sie kurz vor dem Kauf sind

Mai 15, 2025
Der CEO von SoundCloud gibt zu, dass KI -Begriffe nicht klar genug waren, ein neues Versprechen herausgibt

Der CEO von SoundCloud gibt zu, dass KI -Begriffe nicht klar genug waren, ein neues Versprechen herausgibt

Mai 15, 2025

Recent Posts

  • Databricks -Wetten auf serverlose Postgres mit seiner Akquisition von 1 Milliarde US -Dollar
  • Alphaevolve: Wie Googles neue KI mit Selbstkorrektur auf die Wahrheit strebt
  • TIKTOK implementiert AI-generierte ALT-Texte, um eine bessere Akzierbarkeit zu erhalten
  • Trump zwingt Apple, seine indische iPhone -Strategie in Indien zu überdenken
  • Die KI von YouTube weiß jetzt, wann Sie kurz vor dem Kauf sind

Recent Comments

Es sind keine Kommentare vorhanden.
Dataconomy DE

COPYRIGHT © DATACONOMY MEDIA GMBH, ALL RIGHTS RESERVED.

  • Home
  • Sample Page

Follow Us

  • Home
  • Sample Page
No Result
View All Result
Subscribe

This website uses cookies. By continuing to use this website you are giving consent to cookies being used. Visit our Privacy Policy.