Bei AMDs Advancing AI-Event betrat CEO Lisa Su die Bühne, um eine Reihe von Innovationen anzukündigen, die sich an KI-Kunden richten. Von den neuesten EPYC-Prozessoren der 5. Generation bis hin zu Instinct-Beschleunigern der nächsten Generation setzt AMD verstärkt auf Hochleistungshardware für KI-Workloads. Diese neuen Technologien versprechen eine Steigerung der KI-Verarbeitungsleistung und eine Rationalisierung der Arbeitslasten für Unternehmen und Cloud Computing.
AMD Advancing AI 2024 auf einen Blick
Lassen Sie uns die wichtigsten Ankündigungen aus dem aufschlüsseln Fortschrittliche KI Ereignis.
EPYC-Prozessoren der 5. Generation: Entfesseln Sie die Leistung von Zen 5
Den Auftakt der Veranstaltung macht Lisa Su eingeführt AMDs EPYC-Portfolio der 5. Generation, das auf dem brandneuen Zen 5-Kern basiert. „Wir haben Zen 5 so konzipiert, dass er die besten Server-Workloads bietet“, erklärte Su und hob die 177-prozentige Steigerung des IPC gegenüber Zen 4 hervor. Der neue Prozessor verfügt über bis zu 192 Kerne und 384 Threads und verschiebt damit die Grenzen der Serverleistung.
Einer der herausragenden Punkte war die Flexibilität, die diese Chips bieten. Su bemerkte: „Wir haben vom architektonischen Standpunkt aus darüber nachgedacht: Wie bauen wir das branchenweit umfassendste CPU-Portfolio auf, das sowohl Cloud- als auch Unternehmens-Workloads abdeckt?“ Dieses Gleichgewicht aus Leistung und Vielseitigkeit zielt darauf ab, alles zu bewältigen, von KI-Hauptknoten bis hin zu anspruchsvoller Unternehmenssoftware.
AMD Turion-Chips: Skalierung für Cloud und Unternehmen
Auf der Veranstaltung wurden auch die neuen Turion-Chips von AMD vorgestellt, die speziell für verschiedene Arten von Arbeitslasten optimiert wurden. Su enthüllte zwei Schlüsselversionen: eine 128-Core-Version, die für Scale-up-Unternehmensanwendungen konzipiert ist, und eine 192-Core-Version, die für Scale-out-Cloud-Computing gedacht ist. Beide sind auf maximale Leistung pro Kern ausgelegt, was für Unternehmens-Workloads von entscheidender Bedeutung ist, bei denen Software häufig pro Kern lizenziert wird.
„Die 192-Core-Version ist wirklich für die Cloud optimiert“, erklärte Su und betonte, dass diese Chips Cloud-Anbietern die benötigte Rechendichte bieten werden. AMD verglich außerdem seine neuen EPYC-Chips mit der Konkurrenz und zeigte, dass EPYC der 5. Generation bis zu 2,7-mal mehr Leistung bietet als die führenden Alternativen.
AMD Instinct MI325X: Eine KI-fokussierte GPU
Was die KI-Beschleunigung betrifft, Su angekündigt der AMD Instinct MI325X, die neueste KI-fokussierte GPU des Unternehmens. „Mit 256 Gigabyte ultraschnellem HBM3E-Speicher und sechs Terabyte pro Sekunde Bandbreite sind wir Branchenführer“, sagte Su. Der MI325X ist für die Bewältigung anspruchsvoller KI-Aufgaben wie generative KI konzipiert und bietet eine um 20–40 % bessere Inferenzleistung und Latenzverbesserungen im Vergleich zu Vorgängermodellen.
Neben Speicher- und Leistungssteigerungen hat AMD beim MI325X auch auf eine einfache Bereitstellung geachtet. „Wir haben eine gemeinsame Infrastruktur beibehalten“, sagte Su, was eine nahtlose Integration in bestehende Systeme ermöglichte. Dadurch wird es für KI-Kunden einfacher, die Technologie zu übernehmen, ohne ihre Plattformen überarbeiten zu müssen.
AMD Instinct MI350-Serie
Die Veranstaltung auch bereitgestellt einen Blick in die Zukunft von AMD mit der MI350-Serie. Der MI350 soll in der zweiten Hälfte des Jahres 2025 auf den Markt kommen. Er führt die neue CDNA 4-Architektur ein und bietet atemberaubende 288 GB HBM3E-Speicher. Laut Su wird CDNA 4 eine „35-fache Generationssteigerung der KI-Leistung im Vergleich zu CDNA 3“ bringen.
Diese neue Architektur ist darauf ausgelegt, größere KI-Modelle mit größerer Effizienz zu verarbeiten, und ihre Abwärtskompatibilität mit früheren Instinct-Modellen gewährleistet einen reibungslosen Übergang für Kunden.
ROCm 6.2: Bessere Leistung für KI-Workloads
Das Engagement von AMD zur Optimierung der KI-Leistung geht über die Hardware hinaus, wie Su bekannt gibt ROCm 6.2das neueste Update des KI-Software-Stacks von AMD. Die neue Version bietet eine 2,4-mal höhere Leistung für wichtige KI-Inferenz-Workloads und eine 1,8-mal bessere Leistung für KI-Trainingsaufgaben. Diese Verbesserungen sind auf Fortschritte bei Algorithmen, Diagrammoptimierungen und verbesserte Rechenbibliotheken zurückzuführen.
„Unsere neueste Version konzentriert sich auf die Maximierung der Leistung sowohl bei proprietären als auch bei öffentlichen Modellen“, erklärte Su und signalisierte damit AMDs Bemühungen, auch im Bereich der KI-Software wettbewerbsfähig zu bleiben.
Bildnachweis: Kerem Gülen/Ideogramm