Dataconomy DE
Subscribe
No Result
View All Result
Dataconomy DE
Subscribe
No Result
View All Result
Dataconomy DE
No Result
View All Result

Lisa Su stellt AMDs KI-Hardware der nächsten Generation auf der Advancing AI 2024 vor

byKerem Gülen
Oktober 11, 2024
in Artificial Intelligence, News
Home Artificial Intelligence
Share on FacebookShare on Twitter

Bei AMDs Advancing AI-Event betrat CEO Lisa Su die Bühne, um eine Reihe von Innovationen anzukündigen, die sich an KI-Kunden richten. Von den neuesten EPYC-Prozessoren der 5. Generation bis hin zu Instinct-Beschleunigern der nächsten Generation setzt AMD verstärkt auf Hochleistungshardware für KI-Workloads. Diese neuen Technologien versprechen eine Steigerung der KI-Verarbeitungsleistung und eine Rationalisierung der Arbeitslasten für Unternehmen und Cloud Computing.

AMD Advancing AI 2024 auf einen Blick

Lassen Sie uns die wichtigsten Ankündigungen aus dem aufschlüsseln Fortschrittliche KI Ereignis.

EPYC-Prozessoren der 5. Generation: Entfesseln Sie die Leistung von Zen 5

Den Auftakt der Veranstaltung macht Lisa Su eingeführt AMDs EPYC-Portfolio der 5. Generation, das auf dem brandneuen Zen 5-Kern basiert. „Wir haben Zen 5 so konzipiert, dass er die besten Server-Workloads bietet“, erklärte Su und hob die 177-prozentige Steigerung des IPC gegenüber Zen 4 hervor. Der neue Prozessor verfügt über bis zu 192 Kerne und 384 Threads und verschiebt damit die Grenzen der Serverleistung.

Einer der herausragenden Punkte war die Flexibilität, die diese Chips bieten. Su bemerkte: „Wir haben vom architektonischen Standpunkt aus darüber nachgedacht: Wie bauen wir das branchenweit umfassendste CPU-Portfolio auf, das sowohl Cloud- als auch Unternehmens-Workloads abdeckt?“ Dieses Gleichgewicht aus Leistung und Vielseitigkeit zielt darauf ab, alles zu bewältigen, von KI-Hauptknoten bis hin zu anspruchsvoller Unternehmenssoftware.

AMD Turion-Chips: Skalierung für Cloud und Unternehmen

Auf der Veranstaltung wurden auch die neuen Turion-Chips von AMD vorgestellt, die speziell für verschiedene Arten von Arbeitslasten optimiert wurden. Su enthüllte zwei Schlüsselversionen: eine 128-Core-Version, die für Scale-up-Unternehmensanwendungen konzipiert ist, und eine 192-Core-Version, die für Scale-out-Cloud-Computing gedacht ist. Beide sind auf maximale Leistung pro Kern ausgelegt, was für Unternehmens-Workloads von entscheidender Bedeutung ist, bei denen Software häufig pro Kern lizenziert wird.

„Die 192-Core-Version ist wirklich für die Cloud optimiert“, erklärte Su und betonte, dass diese Chips Cloud-Anbietern die benötigte Rechendichte bieten werden. AMD verglich außerdem seine neuen EPYC-Chips mit der Konkurrenz und zeigte, dass EPYC der 5. Generation bis zu 2,7-mal mehr Leistung bietet als die führenden Alternativen.

AMD Instinct MI325X: Eine KI-fokussierte GPU

Was die KI-Beschleunigung betrifft, Su angekündigt der AMD Instinct MI325X, die neueste KI-fokussierte GPU des Unternehmens. „Mit 256 Gigabyte ultraschnellem HBM3E-Speicher und sechs Terabyte pro Sekunde Bandbreite sind wir Branchenführer“, sagte Su. Der MI325X ist für die Bewältigung anspruchsvoller KI-Aufgaben wie generative KI konzipiert und bietet eine um 20–40 % bessere Inferenzleistung und Latenzverbesserungen im Vergleich zu Vorgängermodellen.

Neben Speicher- und Leistungssteigerungen hat AMD beim MI325X auch auf eine einfache Bereitstellung geachtet. „Wir haben eine gemeinsame Infrastruktur beibehalten“, sagte Su, was eine nahtlose Integration in bestehende Systeme ermöglichte. Dadurch wird es für KI-Kunden einfacher, die Technologie zu übernehmen, ohne ihre Plattformen überarbeiten zu müssen.

Lisa Su stellt auf der Advancing AI 2024 KI-Hardware der nächsten Generation von AMD vor
AMDs Engagement für die Optimierung der KI-Leistung geht über die Hardware hinaus

AMD Instinct MI350-Serie

Die Veranstaltung auch bereitgestellt einen Blick in die Zukunft von AMD mit der MI350-Serie. Der MI350 soll in der zweiten Hälfte des Jahres 2025 auf den Markt kommen. Er führt die neue CDNA 4-Architektur ein und bietet atemberaubende 288 GB HBM3E-Speicher. Laut Su wird CDNA 4 eine „35-fache Generationssteigerung der KI-Leistung im Vergleich zu CDNA 3“ bringen.

Diese neue Architektur ist darauf ausgelegt, größere KI-Modelle mit größerer Effizienz zu verarbeiten, und ihre Abwärtskompatibilität mit früheren Instinct-Modellen gewährleistet einen reibungslosen Übergang für Kunden.

ROCm 6.2: Bessere Leistung für KI-Workloads

Das Engagement von AMD zur Optimierung der KI-Leistung geht über die Hardware hinaus, wie Su bekannt gibt ROCm 6.2das neueste Update des KI-Software-Stacks von AMD. Die neue Version bietet eine 2,4-mal höhere Leistung für wichtige KI-Inferenz-Workloads und eine 1,8-mal bessere Leistung für KI-Trainingsaufgaben. Diese Verbesserungen sind auf Fortschritte bei Algorithmen, Diagrammoptimierungen und verbesserte Rechenbibliotheken zurückzuführen.

„Unsere neueste Version konzentriert sich auf die Maximierung der Leistung sowohl bei proprietären als auch bei öffentlichen Modellen“, erklärte Su und signalisierte damit AMDs Bemühungen, auch im Bereich der KI-Software wettbewerbsfähig zu bleiben.


Bildnachweis: Kerem Gülen/Ideogramm

Tags: AMDHervorgehobenKIkünstliche Intelligenz

Related Posts

Apple verkleinert Dynamic Island beim iPhone 18 Pro durch Ausblenden von Face-ID-Sensoren

Apple verkleinert Dynamic Island beim iPhone 18 Pro durch Ausblenden von Face-ID-Sensoren

Januar 21, 2026
Google führt mit Princeton Review kostenlose SAT-Übungsprüfungen in Gemini ein

Google führt mit Princeton Review kostenlose SAT-Übungsprüfungen in Gemini ein

Januar 21, 2026
Lehane bestätigt, dass OpenAI Ende 2026 die erste Consumer-Hardware vorstellen wird

Lehane bestätigt, dass OpenAI Ende 2026 die erste Consumer-Hardware vorstellen wird

Januar 21, 2026
Adobe führt KI-gestützte Objektmaske für Premiere Pro ein

Adobe führt KI-gestützte Objektmaske für Premiere Pro ein

Januar 20, 2026
Mitbegründer von Signal startet den datenschutzorientierten KI-Dienst Confer

Mitbegründer von Signal startet den datenschutzorientierten KI-Dienst Confer

Januar 20, 2026
Anthropic arbeitet mit Teach For All zusammen, um weltweit 100.000 Pädagogen auszubilden

Anthropic arbeitet mit Teach For All zusammen, um weltweit 100.000 Pädagogen auszubilden

Januar 20, 2026

Recent Posts

  • Apple verkleinert Dynamic Island beim iPhone 18 Pro durch Ausblenden von Face-ID-Sensoren
  • Google führt mit Princeton Review kostenlose SAT-Übungsprüfungen in Gemini ein
  • Lehane bestätigt, dass OpenAI Ende 2026 die erste Consumer-Hardware vorstellen wird
  • Forrester-Analyst: KI hat es nicht geschafft, die globale Produktivität zu steigern
  • Sequoia Capital schließt sich der 350-Milliarden-Dollar-Finanzierungsrunde von Anthropic an

Recent Comments

Es sind keine Kommentare vorhanden.
Dataconomy DE

COPYRIGHT © DATACONOMY MEDIA GMBH, ALL RIGHTS RESERVED.

  • Home
  • Sample Page

Follow Us

  • Home
  • Sample Page
No Result
View All Result
Subscribe

This website uses cookies. By continuing to use this website you are giving consent to cookies being used. Visit our Privacy Policy.