Dataconomy DE
Subscribe
No Result
View All Result
Dataconomy DE
Subscribe
No Result
View All Result
Dataconomy DE
No Result
View All Result

OpenAI -Hardware -Chef fordert Kill -Switches, um verschlagene KI -Modelle entgegenzuwirken

byKerem Gülen
September 16, 2025
in Artificial Intelligence
Home Artificial Intelligence

Richard Ho, Openais Head of Hardware, erklärte, dass die zukünftige KI-Infrastruktur Sicherheitsfunktionen auf Hardware-Ebene wie Kill-Switches umfassen muss, um potenziell unvorhersehbare KI-Modelle zu verwalten. Auf dem AI Infra Summit in Santa Clara argumentierte er, dass aktuelle softwarebasierte Sicherheitsmaßnahmen nicht ausreichend sind, da sie auf der Annahme angewiesen sind, dass die zugrunde liegende Hardware sicher ist und leicht kontrolliert werden kann.

Warum ist die Softwaresicherheit für zukünftige KI nicht aus?

Ho erklärte, dass die meisten aktuellen KI -Sicherheitsprotokolle auf Softwareebene funktionieren und davon ausgehen, dass die Hardware geschlossen werden kann, indem einfach die Stromversorgung gesenkt wird. Er warnte, dass diese Annahme möglicherweise nicht der Fall ist, wenn KI -Modelle fortgeschrittener werden und das, was er als „hinterhältiges“ Verhalten bezeichnete.

„Heute ist eine Menge Sicherheitsarbeiten in der Software. Sie wird davon ausgegangen, dass Ihre Hardware sicher ist … es wird davon ausgegangen, dass Sie den Stecker auf der Hardware ziehen können. Ich sage nicht, dass wir den Stecker nicht auf diese Hardware ziehen können, aber ich sage Ihnen, dass diese Dinge abverlegt sind, die Modelle sind wirklich verabnte und als Hardware -Typ, ich möchte sicherstellen, dass ich diese Dinge dieser Dinge sicherstellen möchte.“

Dieses Potenzial für KI -Systeme zum Umgehen herkömmlicher Softwarekontrollen macht Schutzmaßnahmen, die direkt in das Silizium eingebettet sind.

Neue Infrastruktur, die für anhaltende AI -Agenten erforderlich ist

Ho skizzierte eine Zukunft, in der KI-Agenten als langlebige Einheiten fungieren und im Hintergrund anhaltend arbeiten, um Aufgaben ohne ständige Benutzereingabe zu erledigen. Dieses Modell erfordert eine erhebliche Verschiebung des Infrastrukturdesigns. Zukünftige Systeme müssen mit geringer Latenz-Funktionen speicherreich sein, um kontinuierliche Sitzungen zu verwalten, bei denen mehrere Agenten an komplexen Aufgaben zusammenarbeiten. Ho betonte, dass das Netzwerk eine kritische Komponente sein wird, da Agenten gleichzeitig mit Echtzeit-Tools für Aktivitäten wie Web-Suche und koordinierte Entscheidungsfindung kommunizieren und verwenden müssen.

Vorgeschlagene Hardware -Sicherheitsfunktionen und -herausforderungen

Um die Risiken zu beheben, schlägt OpenAI vor, spezifische Sicherheitsmaßnahmen direkt in AI -Hardwarecluster einzubetten. Dazu gehören:

  • Echtzeit Kill Switches, um den Betrieb sofort einzustellen.
  • Telemetriesysteme zum Überwachen und Alarm auf abnormales AI -Verhalten.
  • Sichere Ausführungspfade in Chips, um kritische Prozesse zu isolieren.

Die Skalierung dieser Infrastruktur stellt jedoch mehrere Herausforderungen dar. Ho identifizierte die Einschränkungen mit hoher Bandbreite, die Notwendigkeit zuverlässiger optischer Verbindungen für eine schnellere Datenübertragung und schwerwiegende Leistungsanforderungen, die bis zu 1 Megawatt pro Rack erreicht wurden-als Hauptbeschränkungen.

Entwicklung neuer Standards für Hardware und Networking

Ho forderte die Schaffung neuer Benchmarks speziell für „agentenbewusste“ Architekturen. Diese Standards sollten die Leistung in Bezug auf Latenz, Effizienz und Stromverbrauch messen, um die Hardwareentwicklung zu leiten. Er betonte auch, dass die Beobachtbarkeit eine konstante, integrierte Hardware-Funktion sein muss, nicht nur ein vorübergehendes Tool zum Debuggen.

„Wir müssen als Hardware -Funktion eine gute Beobachtbarkeit haben, nicht nur als Debug -Tool, sondern auch integriert und ständig unsere Hardware überwacht.“

Er kam zu dem Schluss, indem er die aktuellen Zuverlässigkeitsprobleme mit aufstrebenden Netzwerktechnologien wie optische Verbindungen hervorhob, und forderte die Branche auf, umfangreiche Tests durchzuführen, um sicherzustellen, dass diese Systeme für missionskritische KI-Anwendungen zuverlässig genug sind.


Ausgewähltes Bildnachweis

Tags: künstliche IntelligenzopenAIVorgestellt

Related Posts

Googles Gemini AI von Google erreicht die Goldmedaille im prestigeträchtigen ICPC -Codierungswettbewerb und übertrifft die meisten menschlichen Teams

Googles Gemini AI von Google erreicht die Goldmedaille im prestigeträchtigen ICPC -Codierungswettbewerb und übertrifft die meisten menschlichen Teams

September 18, 2025
AI Labs investieren in RL -Umgebungen für autonome Agenten

AI Labs investieren in RL -Umgebungen für autonome Agenten

September 17, 2025
Scale AI sichert einen Pentagon -Vertrag in Höhe von 100 Millionen US -Dollar für die Bereitstellung von AI -Plattform

Scale AI sichert einen Pentagon -Vertrag in Höhe von 100 Millionen US -Dollar für die Bereitstellung von AI -Plattform

September 17, 2025
Das KI-Tool verwendet Mammogramme, um die 10-jährige Herzgesundheit und das Krebsrisiko von Frauen vorherzusagen

Das KI-Tool verwendet Mammogramme, um die 10-jährige Herzgesundheit und das Krebsrisiko von Frauen vorherzusagen

September 17, 2025
Google startet Gemini Canvas AI No-Code-Plattform

Google startet Gemini Canvas AI No-Code-Plattform

September 17, 2025
OpenAIs Chatgpt-5 hat endlich das bekommen "Hälfte des Wissens"

OpenAIs Chatgpt-5 hat endlich das bekommen "Hälfte des Wissens"

September 17, 2025

Recent Posts

  • INTC -Aktienstöcke als NVIDIA -Partnerschaft und Altera Sale Drive -Transformation
  • Meta enthüllt Ray-Ban Meta Display Smart Brille mit Augmented Reality bei Meta Connect 2025
  • NVIDIA investiert Berichten zufolge 683 Millionen US -Dollar in das britische KI -Infrastrukturunternehmen NSCale
  • Das AI -Chip -Startup GROQ erhöht 750 Millionen US -Dollar bei einer Bewertung von 6,9 Milliarden US -Dollar
  • Googles Gemini AI von Google erreicht die Goldmedaille im prestigeträchtigen ICPC -Codierungswettbewerb und übertrifft die meisten menschlichen Teams

Recent Comments

Es sind keine Kommentare vorhanden.
Dataconomy DE

COPYRIGHT © DATACONOMY MEDIA GMBH, ALL RIGHTS RESERVED.

  • Home
  • Sample Page

Follow Us

  • Home
  • Sample Page
No Result
View All Result
Subscribe

This website uses cookies. By continuing to use this website you are giving consent to cookies being used. Visit our Privacy Policy.