Google veröffentlicht Ein technischer Bericht über sein jüngstes KI -Modell, Gemini 2.5 Pro, Wochen nach seiner Einführung, aber Experten sagen, dass dem Bericht keine wichtigen Sicherheitsdetails vorliegen, was es schwierig macht, die Risiken des Modells zu bewerten.
Der Bericht ist Teil der Bemühungen von Google, seine KI -Modelle Transparenz zu ermöglichen, unterscheidet sich jedoch von seinen Konkurrenten, da er nur technische Berichte für Modelle veröffentlicht, die er über die experimentelle Phase hinausgeht. Google behält sich auch einige Sicherheitsbewertungsergebnisse für eine separate Prüfung vor.
Experten, darunter Peter Wildeford, Mitbegründer des Instituts für KI-Politik und -Strategie, und Thomas Woodside, Mitbegründer des Secure AI-Projekts, ausgedrückt Enttäuschung über die Sparsität des Berichts und bemerkt, dass Googles Frontier -Sicherheitsrahmen nicht erwähnt wird (Frontier Safety Framework (FSF), eingeführt im letzten Jahr, um potenzielle KI -Risiken zu identifizieren.
Wildford sagte, die minimalen Informationen des Berichts, die Wochen nach dem öffentlichen Start des Modells veröffentlicht wurde, macht es unmöglich, die öffentlichen Verpflichtungen von Google für Sicherheit und Sicherheit zu überprüfen. Woodside stellte auch das Engagement von Google für rechtzeitige Sicherheitsbewertungen in Frage und wies darauf hin, dass der letzte Bericht des Unternehmens über gefährliche Fähigkeitstests im Juni 2024 für ein im Februar 2024 angekündigter Modell stattfand.
Darüber hinaus hat Google keinen Bericht für Gemini 2.5 Flash veröffentlicht, ein kleineres Modell, das letzte Woche angekündigt wurde, obwohl ein Sprecher sagte, einer sei „bald“. Thomas Woodside hofft, dass dies angibt, dass Google häufigere Updates veröffentlichen wird, einschließlich Bewertungen für noch nicht öffentlich bereitgestellte Modelle.
Richterregeln Google hält illegales Werbemonopol
Andere KI -Labors wie Meta und OpenAI waren ebenfalls kritisiert, weil sie keine Transparenz in ihren Sicherheitsbewertungen haben. Kevin Bankston, ein leitender Berater für KI -Governance im Zentrum für Demokratie und Technologie, beschrieb den Trend der sporadischen und vagen Berichte als „Rennen nach unten“ zur KI -Sicherheit.
Google hat erklärt, dass es vor der Veröffentlichung Sicherheitstests und „kontroverses rotes Teaming“ für seine Modelle durchführt, auch wenn sie in seinen technischen Berichten nicht detailliert detailliert sind.