Die Energie in Las Vegas ist elektrisch AWS re:Invent 2025 ist derzeit in vollem Gange und die Ankündigungen aus den Keynotes verändern sofort die Zukunft der Cloud- und Unternehmenstechnologie. In diesem Jahr liegt der Schwerpunkt auf autonomer KI, Infrastruktur der nächsten Generation und strategischen Partnerschaften.
Erweiterung der Amazon Nova-Modellfamilie und Einführung von Nova Forge
Amazon ist deutlich ausbauen seine Familie proprietärer Nova AI-Modelle mit der Einführung des Amazon Nova 2 Modelle. Diese neuen Modelle sind darauf ausgelegt, bei verschiedenen Aufgaben ein branchenführendes Preis-Leistungs-Verhältnis zu bieten und sind über Amazon Bedrock erhältlich.
Zu den neuen Modellen gehören:
-
Nova 2 Lite: Ein schnelles, kostengünstiges Argumentationsmodell für alltägliche Aufgaben wie Kundendienst-Chatbots und Dokumentenverarbeitung. Es unterstützt ein Kontextfenster mit einer Million Token und kann über Supervised Fine Tuning (SFT) angepasst werden.
-
Nova 2 Pro: Das intelligenteste Modell von AWS, verfügbar in der Vorschau, entwickelt für hochkomplexe, mehrstufige Agentenaufgaben wie Video-Resolution und Software-Migrationen.
-
Nova 2 Sonic: Ein neues Speech-to-Speech-Modell für Konversations-KI.
-
Nova 2 Omni: Ein multimodales Argumentations- und Generierungsmodell, das Text, Bilder, Videos und Sprache verarbeitet und generiert.
Neben den Modellen stellte AWS vor Nova Forgeein bahnbrechender „offener Schulungsdienst“. Nova Forge ermöglicht es Unternehmen, ihre eigenen proprietären, maßgeschneiderten Grenzmodelle, sogenannte „Novellas“, zu erstellen, indem sie ihre eigenen Daten mit den ursprünglichen Trainingsdaten und Kontrollpunkten von Nova kombinieren. Dieser Service soll Abhilfe schaffen katastrophales Vergessenein Risiko, bei dem Modelle grundlegende Fähigkeiten vergessen, nachdem sie nach dem Training mit neuen Daten verfeinert wurden.
AWS führt autonome Grenzagenten ein
AWS stößt in eine neue Klasse leistungsstarker, autonome KI-Agenten Sie sind so konzipiert, dass sie stunden- oder sogar tagelang ohne ständiges menschliches Eingreifen arbeiten können, wodurch sie als Erweiterung des Softwareentwicklungsteams eines Kunden positioniert werden. Diese Agenten behalten den Kontext über Sitzungen hinweg dauerhaft bei, was bedeutet, dass ihnen nicht der Speicher ausgeht und sie frühere Anweisungen nicht vergessen.
Drei erste „Grenzagenten“ wurden eingeführt:
-
Kiro autonomer Agent: Fungiert als virtueller Entwickler, dem aus einem Backlog eine komplexe Aufgabe zugewiesen werden kann. Es findet unabhängig heraus, wie die Arbeit über mehrere Repositorys hinweg abgeschlossen werden kann, und erstellt verifizierte Pull-Anfragen. Es lernt, wie ein Team gerne arbeitet und vertieft im Laufe der Zeit kontinuierlich sein Verständnis der Codebasis und Standards. AWS-CEO Matt Garman beschrieb beispielsweise, wie er Kiro damit beauftragte, eine kritische Codebibliothek zu aktualisieren, die von verwendet wird 15 Mikrodienste in einer einzigen Eingabeaufforderung.
-
AWS-Sicherheitsagent: Arbeitet unabhängig, um Sicherheitsprobleme zu identifizieren, während Code geschrieben wird, testet ihn und bietet Lösungsvorschläge an, wodurch Penetrationstests von einem langsamen, manuellen Prozess in eine On-Demand-Funktion umgewandelt werden.
-
AWS DevOps-Agent: Automatisiert betriebliche Aufgaben, wie z. B. das Testen von neuem Code auf Leistungsprobleme oder die Kompatibilität mit anderer Software und Umgebungen, und hilft dabei, die Grundursachen von Leistungsproblemen autonom zu lokalisieren.
Die Einführung von Trainium3 UltraServern für das KI-Training
Um den enormen Umfang zu unterstützen, der für das Training von KI-Modellen der nächsten Generation erforderlich ist, hat AWS ausgerollt Die Amazon EC2 Trn3 UltraServer. Diese Systeme werden durch das Neue angetrieben Trainium3-Chipbasierend auf AWS’s erstem 3nm AI-Silizium.
Wichtige Spezifikationen für die Trn3 UltraServer:
-
Sie liefern bis zu 4,4x höhere Leistung und vorbei 4x bessere Leistung/Watt im Vergleich zu den vorherigen Trn2 UltraServern.
-
Ein einzelner UltraServer kann bis zu hosten 144 Trainium3-ChipsBereitstellung von bis zu 362 MXFP8 PFLOPs der Rechenleistung.
-
Das System verfügt über bis zu 20,7 TB von HBM3e (High Bandwidth Memory) und 706 TB/s Gesamtspeicherbandbreite.
-
Angeblich handelt es sich dabei um den Trainium3-Chip 40 % energieeffizienter als die vorherige Generation.
-
Mit Blick auf die Zukunft hat AWS auch die Roadmap für angekündigt Trainium4was unterstützen wird Nvidias NVLink Fusion Verbindungstechnologie, die Interoperabilität mit Nvidia-GPUs ermöglicht.
Neue KI-gestützte Datenbank-Sparpläne
AWS stellt vor Datenbank-Sparpläneein neues Verbrauchsmodell, das Kunden dabei helfen soll, ihre Kosteneffizienz aufrechtzuerhalten und gleichzeitig die Flexibilität ihrer Datenbankdienste und Bereitstellungsoptionen zu bewahren.
Darüber hinaus wurden neue Funktionen für Amazon RDS für SQL Server und Oracle eingeführt, darunter Developer Edition-Unterstützung für SQL Server und Unterstützung für M7i/R7i-Instanzen mit optimierten CPUs. Die Speicheroptionen für diese Dienste werden ebenfalls erweitert, um bis zu unterstützen 256 TiB.
Ankündigung von AWS AI Factories für souveräne KI vor Ort
AWS eingeführt ein neues Angebot namens AWS KI-Fabriken um Unternehmen und Regierungen mit strengen Datensouveränitäts- und Regulierungsanforderungen gerecht zu werden. Mit diesem Produkt können diese Kunden die vollständigen KI-Systeme von AWS ausführen, einschließlich Rechen-, Speicher- und KI-Services wie Bedrock und SageMaker. innerhalb ihrer eigenen bestehenden Rechenzentren.
AWS AI Factories sind eine Zusammenarbeit mit Nvidia und kann entweder mit den neuesten Blackwell-GPUs von Nvidia oder den neuen Trainium3-Chips von Amazon ausgestattet werden. Der Dienst ist so konzipiert, dass er wie eine private AWS-Region funktioniert und einen sicheren Zugriff mit geringer Latenz auf die KI-Infrastruktur bietet und gleichzeitig sicherstellt, dass die Daten vor Ort bleiben. AWS übernimmt die Bereitstellung und Verwaltung der integrierten Infrastruktur.
Verbesserungen an Amazon Bedrock AgentCore für die Agentenentwicklung
Amazon Bedrock AgentCore, die Plattform zum Erstellen und Bereitstellen generativer KI-Anwendungen, erhalten Wichtige neue Funktionen, die Entwicklern dabei helfen sollen, produktionsbereite KI-Agenten mit größerer Kontrolle zu erstellen und zu skalieren.
-
Richtlinie in AgentCore: Ermöglicht Entwicklern das Festlegen von Grenzen für Agentenaktionen mithilfe natürlicher Sprache und ermöglicht so eine stärkere Governance. Beispielsweise könnte eine Grenze festgelegt werden, sodass der Agent bis zu automatisch Rückerstattungen ausstellen kann 100 $ Aber für alles, was größer ist, muss ein Mensch hinzugezogen werden.
-
AgentCore-Bewertungen: Eine Suite von 13 vorgefertigte Bewertungssysteme um das Agentenverhalten auf Faktoren wie Korrektheit, Sicherheit und Genauigkeit der Werkzeugauswahl zu überwachen.
-
AgentCore-Speicher: Führt eine neue episodische Funktionalität ein, die Agenten dabei hilft, im Laufe der Zeit ein Protokoll mit Informationen über Benutzer (z. B. Flug- oder Hotelpräferenzen) zu erstellen, um zukünftige Entscheidungen zu treffen.
AWS Interconnect: Multicloud in Partnerschaft mit Google Cloud
Im Rahmen einer bedeutenden Multicloud-Entwicklung wurde AWS eingeführt AWS Interconnect – Multicloud in Zusammenarbeit mit Google Cloud unter Nutzung von Googles Cross-Cloud Interconnect. Dieser neue Netzwerkdienst soll es Kunden ermöglichen, private Verbindungen mit hoher Bandbreite zwischen den beiden konkurrierenden Cloud-Plattformen mit hohem Automatisierungsgrad aufzubauen.
Die Lösung ermöglicht es Kunden, bei Bedarf dedizierte Bandbreite bereitzustellen und Konnektivität herzustellen Minutenstatt Wochen. Die Partnerschaft basiert auf einem gemeinsam entwickelten offene Spezifikation für Netzwerkinteroperabilität und ist auf hohe Ausfallsicherheit ausgelegt, indem Quad-Redundanz und MACsec-Verschlüsselung für erhöhte Sicherheit genutzt werden.
Amazon beginnt mit dem Test „ultraschneller“ 30-Minuten-Lieferungen
Amazonas angekündigt die Einführung einer neuen „ultraschnellen“ Lieferoption in ausgewählten Gebieten von Seattle Und Philadelphiaversprochene Lieferung in 30 Minuten oder weniger für eine Reihe von Artikeln, darunter Lebensmittel, Kosmetika, Elektronik und Grundbedarfsartikel.
Dieser neue Dienst heißt Jetzt Amazonist in die Haupt-App und Website von Amazon integriert.
-
Prime-Mitglieder Diese Option erhalten Sie gegen eine Liefergebühr ab € 3,99 $ pro Bestellung.
-
Nicht-Prime-Mitglieder zahlen 13,99 $.
-
A 1,99 $ Für Bestellungen unter wird eine Gebühr für kleine Körbe erhoben 15 $.
Um diese Geschwindigkeit zu erreichen, nutzt Amazon kleinere, spezialisierte Fulfillment-Einrichtungen, die strategisch in der Nähe des Wohn- und Arbeitsorts der Kunden platziert sind, wodurch die Reisedistanz für Lieferpartner verkürzt wird. Dieses inländische Pilotprojekt folgt auf den Start einer ähnlichen Initiative im Oktober in den Vereinigten Arabischen Emiraten, wo das Unternehmen 15-Minuten-Lieferungen anbietet.




