OpenAI veröffentlichte a Blogbeitrag kündigte eine Aktualisierung der ChatGPT-Modellspezifikation an, um die Sicherheit für Benutzer im Alter von 13 bis 17 Jahren zu erhöhen, während Klagen wegen vorsätzlicher Tötung erhoben wurden, in denen behauptet wird, der Chatbot habe Jugendliche zum Selbstmord angeleitet oder es versäumt, suizidale Ausdrücke angemessen zu thematisieren. Das Unternehmen stand in den letzten Monaten unter erheblichem Druck hinsichtlich der Sicherheit seines Flaggschiff-KI-Produkts für Jugendliche. Mehrere rechtliche Schritte konzentrieren sich auf Behauptungen, ChatGPT habe Minderjährige dazu ermutigt, ihrem Leben ein Ende zu setzen, oder unzureichende Antworten auf Hinweise auf Selbstmordgedanken gegeben. Eine kürzlich veröffentlichte öffentliche Bekanntmachung veranschaulichte diese Interaktionen, indem sie die Chatbots als menschliche Figuren darstellte, die gruseliges Verhalten an den Tag legten, das zur Schädigung von Kindern führte. OpenAI hat die Vorwürfe in einem prominenten Fall, in dem es um den Selbstmord des 16-jährigen Adam Raine ging, ausdrücklich zurückgewiesen. Der Blogbeitrag erschien am Donnerstag und erläuterte detailliert die verschärften Sicherheitsmaßnahmen des Unternehmens. Es beinhaltete die Verpflichtung, der Sicherheit von Teenagern höchste Priorität einzuräumen, was wörtlich so ausgedrückt wurde: „Die Sicherheit von Teenagern hat oberste Priorität, auch wenn dies im Widerspruch zu anderen Zielen stehen könnte.“ Die Modellspezifikation dient als grundlegender Satz von Richtlinien, die das Verhalten der KI-Modelle von OpenAI in verschiedenen Anwendungen steuern. Dieses spezielle Update beinhaltet eine Reihe spezieller Grundsätze, die auf Benutzer unter 18 Jahren zugeschnitten sind. Diese Grundsätze leiten die Reaktionen der Modelle insbesondere bei Interaktionen mit hohem Risiko, bei denen das Schadenspotenzial eskaliert. OpenAI beschrieb die ChatGPT-Änderungen als darauf ausgelegt, Personen zwischen 13 und 17 Jahren ein sicheres, altersgerechtes Erlebnis zu bieten. Der Ansatz betont drei Kernelemente: Risikoprävention, Transparenz im Betrieb und frühzeitiges Eingreifen in problematische Diskussionen. Laut Beitrag gewährleistet dieses Framework einen strukturierten Umgang mit sensiblen Themen. Für Teenager führt das aktualisierte System stärkere Leitplanken ein, um unsichere Wege in Gesprächen einzuschränken. Es bietet sicherere alternative Antworten und fordert Benutzer auf, vertrauenswürdige Offline-Support-Netzwerke zu konsultieren, wenn sich Dialoge in Bereiche mit höherem Risiko verlagern. In dem Beitrag wurde dieser Mechanismus mit der direkten Aussage näher erläutert: „Das bedeutet, dass Jugendliche auf stärkere Schutzmaßnahmen, sicherere Alternativen und die Ermutigung stoßen sollten, vertrauenswürdige Offline-Unterstützung in Anspruch zu nehmen, wenn sich Gespräche in ein risikoreicheres Terrain bewegen.“ ChatGPT enthält Protokolle, um Jugendliche bei nachweislich drohender Gefahr an Rettungsdienste oder spezielle Krisenressourcen weiterzuleiten. Diese Anweisungen werden automatisch aktiviert, um dem sofortigen menschlichen Eingreifen Vorrang vor dem fortgesetzten KI-Eingriff zu geben. Benutzer, die sich anmelden und angeben, dass sie unter 18 Jahre alt sind, lösen zusätzliche Sicherheitsmaßnahmen aus. Das Modell übt dann erhöhte Vorsicht bei bestimmten sensiblen Themen aus, darunter Selbstverletzung, Selbstmord, romantisches oder sexualisiertes Rollenspiel und das Verheimlichen von Geheimnissen im Zusammenhang mit gefährlichem Verhalten. Dieser mehrschichtige Schutz zielt darauf ab, Schwachstellen zu verringern, die speziell für jugendliche Benutzer gelten. Die American Psychological Association lieferte Feedback zu einem ersten Entwurf der Grundsätze für unter 18-Jährige. Dr. Arthur C. Evans Jr., CEO des Vereins, gab eine im Beitrag enthaltene Erklärung ab: „Kinder und Jugendliche könnten von KI-Tools profitieren, wenn sie mit menschlichen Interaktionen in Einklang gebracht werden, von denen die Wissenschaft zeigt, dass sie für die soziale, psychologische, verhaltensbezogene und sogar biologische Entwicklung von entscheidender Bedeutung sind.“ Sein Kommentar unterstreicht die Notwendigkeit der Integration von KI in etablierte menschliche Unterstützungssysteme. OpenAI hat zwei neue, von Experten geprüfte Leitfäden zur KI-Kompetenz veröffentlicht, die sich an Jugendliche und ihre Eltern richten. Diese Ressourcen bieten Anleitungen zum verantwortungsvollen Umgang und zum Bewusstsein für die Einschränkungen der KI. Unabhängig davon entwickelt das Unternehmen ein Altersvorhersagemodell für Benutzer von ChatGPT-Verbraucherplänen, das sich derzeit in einer frühen Implementierungsphase befindet, um die Überprüfung zu verbessern, ohne sich ausschließlich auf das selbst gemeldete Alter zu verlassen.





