Openai plant es zu einführen Eine verifizierte ID -Anforderung an Organisationen, über seine API auf bestimmte zukünftige KI -Modelle zuzugreifen, laut einer Support -Seite, die letzte Woche auf der Website des Unternehmens veröffentlicht wurde. Der neue Verifizierungsprozess, das als verifizierte Organisation bezeichnet wird, zielt darauf ab, die sichere Verwendung seiner fortschrittlichen KI -Modelle sicherzustellen.
Der Überprüfungsprozess erfordert eine von der Regierung ausgestellte ID aus einem der von der Openai-API unterstützten Länder. Eine ID kann nur eine Organisation alle 90 Tage überprüfen, und nicht alle Organisationen können überprüft werden. OpenAI erklärte, dass es seine Verantwortung ernst nimmt, um sicherzustellen, dass KI sowohl im Allgemeinen zugänglich als auch sicher verwendet wird.
„Bei OpenAI übernehmen wir unsere Verantwortung ernst, um sicherzustellen, dass KI sowohl im Allgemeinen zugänglich als auch sicher verwendet wird“, heißt es in der Seite. „Leider nutzt eine kleine Minderheit von Entwicklern die OpenAI -APIs absichtlich unter Verstoß gegen unsere Nutzungsrichtlinien. Wir fügen den Überprüfungsprozess hinzu, um die unsichere Verwendung von KI zu mindern und gleichzeitig fortgeschrittene Modelle für die breitere Entwicklergemeinschaft zur Verfügung zu stellen.“
Der Umzug soll wahrscheinlich die Sicherheit in Bezug auf OpenAIs Produkte verbessern, wenn sie anspruchsvoller werden. Das Unternehmen hat Berichte über seine Bemühungen zur Erkennung und Minderung der böswilligen Verwendung seiner Modelle veröffentlicht, unter anderem von Gruppen, die angeblich in Nordkorea ansässig sind. Es kann auch darauf abzielen, IP -Diebstahl zu verhindern, nachdem eine potenzielle Daten zum Exfiltrationsvorfall untersucht wurden, an dem eine mit Chinas verbundene Gruppe beteiligt ist Deepseek AI Lab.
Openai hat vorher genommen Maßnahmen Einschränkung des Zugangs zu seinen Diensten, einschließlich der Blockierung des Zugangs in China im letzten Sommer. Der verifizierte Organisationsstatus wird voraussichtlich für die nächste Modellveröffentlichung des Unternehmens bereit sein.
Wie OpenAI erklärte: „Leider verstößt eine kleine Minderheit von Entwicklern absichtlich die OpenAI -APIs unter Verstoß gegen unsere Nutzungsrichtlinien. Wir fügen den Überprüfungsprozess hinzu, um die unsichere Verwendung von KI zu mindern und gleichzeitig fortschrittliche Modelle für die breitere Entwicklergemeinschaft zur Verfügung zu stellen.“