Richard Ho, Openais Head of Hardware, erklärte, dass die zukünftige KI-Infrastruktur Sicherheitsfunktionen auf Hardware-Ebene wie Kill-Switches umfassen muss, um potenziell unvorhersehbare KI-Modelle zu verwalten. Auf dem AI Infra Summit in Santa Clara argumentierte er, dass aktuelle softwarebasierte Sicherheitsmaßnahmen nicht ausreichend sind, da sie auf der Annahme angewiesen sind, dass die zugrunde liegende Hardware sicher ist und leicht kontrolliert werden kann.
Warum ist die Softwaresicherheit für zukünftige KI nicht aus?
Ho erklärte, dass die meisten aktuellen KI -Sicherheitsprotokolle auf Softwareebene funktionieren und davon ausgehen, dass die Hardware geschlossen werden kann, indem einfach die Stromversorgung gesenkt wird. Er warnte, dass diese Annahme möglicherweise nicht der Fall ist, wenn KI -Modelle fortgeschrittener werden und das, was er als „hinterhältiges“ Verhalten bezeichnete.
„Heute ist eine Menge Sicherheitsarbeiten in der Software. Sie wird davon ausgegangen, dass Ihre Hardware sicher ist … es wird davon ausgegangen, dass Sie den Stecker auf der Hardware ziehen können. Ich sage nicht, dass wir den Stecker nicht auf diese Hardware ziehen können, aber ich sage Ihnen, dass diese Dinge abverlegt sind, die Modelle sind wirklich verabnte und als Hardware -Typ, ich möchte sicherstellen, dass ich diese Dinge dieser Dinge sicherstellen möchte.“
Dieses Potenzial für KI -Systeme zum Umgehen herkömmlicher Softwarekontrollen macht Schutzmaßnahmen, die direkt in das Silizium eingebettet sind.
Neue Infrastruktur, die für anhaltende AI -Agenten erforderlich ist
Ho skizzierte eine Zukunft, in der KI-Agenten als langlebige Einheiten fungieren und im Hintergrund anhaltend arbeiten, um Aufgaben ohne ständige Benutzereingabe zu erledigen. Dieses Modell erfordert eine erhebliche Verschiebung des Infrastrukturdesigns. Zukünftige Systeme müssen mit geringer Latenz-Funktionen speicherreich sein, um kontinuierliche Sitzungen zu verwalten, bei denen mehrere Agenten an komplexen Aufgaben zusammenarbeiten. Ho betonte, dass das Netzwerk eine kritische Komponente sein wird, da Agenten gleichzeitig mit Echtzeit-Tools für Aktivitäten wie Web-Suche und koordinierte Entscheidungsfindung kommunizieren und verwenden müssen.
Vorgeschlagene Hardware -Sicherheitsfunktionen und -herausforderungen
Um die Risiken zu beheben, schlägt OpenAI vor, spezifische Sicherheitsmaßnahmen direkt in AI -Hardwarecluster einzubetten. Dazu gehören:
- Echtzeit Kill Switches, um den Betrieb sofort einzustellen.
- Telemetriesysteme zum Überwachen und Alarm auf abnormales AI -Verhalten.
- Sichere Ausführungspfade in Chips, um kritische Prozesse zu isolieren.
Die Skalierung dieser Infrastruktur stellt jedoch mehrere Herausforderungen dar. Ho identifizierte die Einschränkungen mit hoher Bandbreite, die Notwendigkeit zuverlässiger optischer Verbindungen für eine schnellere Datenübertragung und schwerwiegende Leistungsanforderungen, die bis zu 1 Megawatt pro Rack erreicht wurden-als Hauptbeschränkungen.
Entwicklung neuer Standards für Hardware und Networking
Ho forderte die Schaffung neuer Benchmarks speziell für „agentenbewusste“ Architekturen. Diese Standards sollten die Leistung in Bezug auf Latenz, Effizienz und Stromverbrauch messen, um die Hardwareentwicklung zu leiten. Er betonte auch, dass die Beobachtbarkeit eine konstante, integrierte Hardware-Funktion sein muss, nicht nur ein vorübergehendes Tool zum Debuggen.
„Wir müssen als Hardware -Funktion eine gute Beobachtbarkeit haben, nicht nur als Debug -Tool, sondern auch integriert und ständig unsere Hardware überwacht.“
Er kam zu dem Schluss, indem er die aktuellen Zuverlässigkeitsprobleme mit aufstrebenden Netzwerktechnologien wie optische Verbindungen hervorhob, und forderte die Branche auf, umfangreiche Tests durchzuführen, um sicherzustellen, dass diese Systeme für missionskritische KI-Anwendungen zuverlässig genug sind.