Die KI-Firma von Elon Musk, Xai, hat laut Watchdog Group The Midas Project seine selbst auferlegte Frist für die Veröffentlichung eines endgültigen KI-Sicherheitsrahmens verpasst. Die für den 10. Mai festgelegte Frist wurde nach XAI festgelegt freigegeben Ein Entwurf auf dem AI Seoul -Gipfel im Februar.
Ein neuer Bericht enthüllt Dass der KI -Chatbot des Unternehmens, Grok, auf Anfrage Kleidung von Fotos von Frauen entfernen würde. Es wurde auch festgestellt, dass Grok im Vergleich zu anderen Chatbots wie Gemini und Chatgpt eine viel offensivere Sprache verwendet, die ohne große Zögern schwört.
Der Entwurf des Rahmens umrissen Die Sicherheitsprioritäten und Philosophie von XAI, einschließlich Benchmarking -Protokollen und Überlegungen zur Bereitstellung von KI -Modellen. Es galt jedoch nur für nicht spezifizierte zukünftige KI -Modelle „nicht derzeit in der Entwicklung“ und konnte nicht artikulieren, wie XAI Risikominderungen identifizieren und implementieren würde.
Die KI -Sicherheitsbilanz von XAI ist bereits aufgrund seines Chatbot GROK unter die Lupe genommen, die bei der Frage von Frauen Fotos von Frauen ausziehen kann und für das ungehemmte Fluchen bekannt ist. Eine aktuelle Studie von Saferai ergab, dass XAI aufgrund seiner „sehr schwachen“ Risikomanagementpraktiken unter seinen Kollegen schlecht rangiert.
Die verpasste Frist ist angesichts der häufigen Warnungen von Musk vor den Gefahren der ungeprüften KI bemerkenswert. Andere AI -Labors, einschließlich Google und OpenAI, waren ebenfalls Kritik an der Übersteuerung von Sicherheitstests und der Veröffentlichung von Modellsicherheitsberichten.