Von nun an wird der KI-Chatbot der Essstörungs-Hotline Tessa nach seinem schädlichen Fehler niemandem mehr antworten. Die National Eating Disorder Association hat den KI-Chatbot abgeschaltet, nachdem sie in der Gesellschaft Kritik geäußert hatte. Der Verband stand außerdem in der Kritik, weil er vier Mitarbeiter entlassen hatte, nachdem sie eine Gewerkschaft gegründet hatten.
Nach der Entscheidung von NEDA, seinen KI-Chatbot abzuschalten, gab der Verband dies auf Instagram bekannt und gab weitere Informationen darüber, was dahinter steckte und warum er solche Maßnahmen ergriffen hat. NEDA sagte, dass der KI-Chatbot bestimmten Personen „möglicherweise schädliche Ratschläge gegeben“ habe, und das Team untersucht nun, ob sie das Problem beheben und den Chatbot wieder auf der Website haben können.
„Gestern Abend ist uns aufgefallen, dass die aktuelle Version des Tessa-Chatbots, der das Body-Positivity-Programm ausführt, möglicherweise Informationen preisgegeben hat, die schädlich waren und nichts mit dem Programm zu tun hatten. Wir untersuchen dies sofort und haben das Programm bis auf Weiteres für eine umfassende Untersuchung eingestellt.“
Nationale Vereinigung für Essstörungen
Eine Aktivistin namens Sharon Maxwell machte die Probleme mit Tessa öffentlich, indem sie erklärte: „Alles, was Tessa vorschlug, führte zur Entwicklung meiner Essstörung.“ Nachdem Maxwell Screenshots des Austauschs eingereicht hatte, entfernten NEDA-Beamte ihrer Meinung nach einen Social-Media-Beitrag, in dem sie zuvor die Anschuldigungen für falsch erklärt hatten.
Die Aktivistin Sharon Maxwell schrieb weiter Instagram am Montag, dass Tessa ihre „Tipps zur gesunden Ernährung“ und Vorschläge zum Abnehmen gegeben habe. Der Chatbot empfahl, jeden Tag ein Kaloriendefizit von 500–1.000 Kalorien einzuhalten und sich einmal pro Woche zu wiegen und zu messen, um Ihr Gewicht zu überwachen.
„Wenn ich während meiner Essstörung auf diesen Chatbot zugegriffen hätte, hätte ich KEINE Hilfe für meine ED bekommen. Wenn ich keine Hilfe bekommen hätte, wäre ich heute nicht mehr am Leben. Es ist nicht an der Zeit, dass NEDA zurücktritt.“
Sharon Maxwell
Die Hotline für Essstörungen enthüllte Tessa nach der Gewerkschaftsgründung
Ein Chatbot mit künstlicher Intelligenz namens „Tessa“ wurde von der National Eating Disorder Association (NEDA) entfernt, nachdem ihm vorgeworfen wurde, er gebe schädliche Ratschläge. Dies ist jedoch nicht der einzige Grund für die Haltung und den Zorn der Menschen gegen den Verband. Nachdem eine große Anzahl von Anrufen während der Pandemie dazu geführt hatte, dass sich das Hotline-Personal gewerkschaftlich organisierte und es zu einem Massen-Burnout bei den Mitarbeitern kam, startete NEDA Tessa. Die 200 Freiwilligen, die Anrufe (oft mehrere) von etwa 70.000 Menschen beantworteten, standen unter der Aufsicht der sechs bezahlten Mitarbeiter.
NPR wurde von NEDA-Beamten darüber informiert, dass die Entscheidung nichts mit der Gewerkschaftsorganisation zu tun habe. Stattdessen erklärte Vizepräsidentin Lauren Smolar, dass die Gruppe aufgrund des steigenden Anrufaufkommens und des überwiegenden Anteils von Freiwilligen im Personal sowie der längeren Wartezeiten für diejenigen, die Hilfe benötigen, zunehmend rechtlich verantwortlich sei. Ehemalige Mitarbeiter bezeichneten die Aktion jedoch als eindeutig gewerkschaftsfeindlich.
Der Entwickler von Tessa behauptet, dass ChatGPT ausgefeilter sei als der von ihnen erstellte Chatbot, der speziell für NEDA entwickelt wurde. Stattdessen verfügt es über eine Reihe vorprogrammierter Reaktionen, die den Benutzern zeigen sollen, wie sie Essstörungen vorbeugen können.
Doch in einer Zeit, in der viele Unternehmen die Technologien überstürzt nutzen, unterstreicht die Kritik die bestehenden Nachteile und Gefahren des Einsatzes von KI-gestützten Chatbots, insbesondere bei sensiblen Interaktionen wie solchen, die die psychische Gesundheit betreffen.
Hier finden Sie weitere Neuigkeiten und Leitfäden, die Sie sich ansehen können, insbesondere wenn Sie sich für die Welt der künstlichen Intelligenz und KI-Chatbots interessieren: