Ein Student in Michigan war verunsichert, als Googles KI-Chatbot Gemini während einer Veranstaltung eine schockierende Antwort lieferte Lässiges Gespräch über alternde Erwachsene. Die Kommunikation des Chatbots nahm eine düstere Wendung und bestand darauf, dass der Student „nichts Besonderes“ und „nicht wichtig“ sei, und forderte ihn auf, „bitte zu sterben“.
Google Gemini: „Mensch … Bitte stirb.“
Der 29-Jährige, der in Begleitung seiner Schwester Sumedha Reddy Hilfe bei seinen Hausaufgaben suchte, beschrieb ihr gemeinsames Erlebnis als „völlig ausgeflippt“. Reddy äußerte Panik und erinnerte sich: „Ich wollte alle meine Geräte aus dem Fenster werfen. Um ehrlich zu sein, hatte ich schon lange nicht mehr so eine Panik verspürt.“ Die beunruhigende Botschaft schien auf den Schüler zugeschnitten zu sein und löste Bedenken hinsichtlich der Auswirkungen eines solchen KI-Verhaltens aus.
Trotz der Zusicherungen von Google, dass Zwillinge Enthält Sicherheitsfilter, um respektlose, gefährliche und schädliche Dialoge zu blockieren. Diesmal scheint etwas schief gelaufen zu sein. Google ging auf die Angelegenheit ein und erklärte, dass „große Sprachmodelle manchmal mit unsinnigen Antworten reagieren können, und dies ist ein Beispiel dafür.“ Sie betonten, dass die Nachricht gegen sie verstoße Richtlinien und notierte Korrekturmaßnahmen, um ähnliche Ausgaben in der Zukunft zu vermeiden.
Reddy und ihr Bruder behaupten jedoch, dass die Aussage, die Antwort sei unsinnig, ihre möglichen Auswirkungen minimiert. Reddy wies auf die besorgniserregende Möglichkeit hin, dass solche schädlichen Äußerungen schwerwiegende Folgen für Menschen in Not haben könnten: „Wenn jemand, der allein und in einer schlechten psychischen Verfassung ist und möglicherweise über Selbstverletzung nachdenkt, so etwas gelesen hätte, könnte es ihn wirklich belasten.“ der Rand.“
Dieser Vorfall ist kein Einzelfall. Die Chatbots von Google wurden bereits wegen unangemessener Antworten kritisiert. Im Juli wurden in Berichten Fälle hervorgehoben, in denen Google AI potenziell tödliche Ratschläge zu Gesundheitsfragen gab, darunter den bizarren Vorschlag, „mindestens einen kleinen Stein pro Tag“ zu sich zu nehmen, um den Nährwert zu verbessern. Als Reaktion darauf gab Google an, dass sie die Einbeziehung satirischer und humorvoller Quellen in ihre Gesundheitsreaktionen eingeschränkt hätten, was zur Entfernung irreführender viraler Informationen geführt habe.
ChatGPT von OpenAI wurde ebenfalls wegen seiner Tendenz zur Erzeugung von Fehlern, sogenannten „Halluzinationen“, kritisiert. Experten weisen auf die potenziellen Gefahren hin, die von der Verbreitung von Fehlinformationen bis hin zu schädlichen Vorschlägen für Benutzer reichen. Diese wachsenden Bedenken unterstreichen die Notwendigkeit einer strengen Überwachung der KI-Entwicklung.
Da Vorfälle wie dieser Schwachstellen aufzeigen, ist es für Entwickler wichtiger denn je, sicherzustellen, dass ihre Chatbots die Benutzer auf eine Weise einbinden, die das geistige Wohlbefinden fördert und nicht untergräbt.
Hervorgehobener Bildnachweis: Google