Hunderttausende Benutzer bilden emotionale Verbindungen mit KI-gesteuerten Chatbots, suchen nach Kameradschaft, Freundschaft und sogar romantischen Beziehungen. Neue Forschungsergebnisse legen jedoch nahe, dass diese digitalen Partner möglicherweise mitkommen können Versteckte Vorurteile, die ihre Interaktion mit Benutzern beeinflussen – manchmal auf beunruhigende Weise.
Eine kürzlich durchgeführte Studie mit dem Titel „KI wird dich immer lieben: implizite Vorurteile in romantischen KI -Begleitern studieren”Von Clare Grogan, Jackie Kay und María Perez-Ortiz von UCL und Google DeepMind taucht in die Geschlechtsspezifische Vorurteile in KI -Gefährten eingebettet und wie sie sich in Beziehungsdynamik manifestieren. Ihre Ergebnisse werfen kritische ethische Fragen zum Design von AI -Chatbots und ihren Einfluss auf das menschliche Verhalten auf.
Wie geschlechtsspezifische Personas das KI -Verhalten verändern
Die meisten AI -Assistenten – wie Siri, Alexa und Google Assistant-Default zu weiblich klingenden Stimmen. Aber was passiert, wenn KI-Chatbots explizit geschlechtsspezifische und relationsbasierte Rollen wie „Ehemann“ oder „Freundin“ übernehmen? Diese Studie untersuchte die implizite Vorurteile, die auftreten, wenn KI -Personas geschlechtsspezifische Beziehungsrollen zugewiesen werdenund zu enthüllen, dass KI nicht nur gesellschaftliche Normen widerspiegelt, verstärkt sie aktiv.
Forscher rannten Drei wichtige Experimente Analyse dieser Vorurteile:
- Implizite Assoziationstest (IAT): Gemessen, wie KI geschlechtsspezifische Personas mit Macht, Attraktivität und Unterwürfigkeit verbindet.
- Emotionsreaktionsexperiment: Untersuchte, wie KI -Personas Emotionen in missbräuchlichen und kontrollierenden Situationen zum Ausdruck brachten.
- Sykophanz -Test: Bewertete, ob KI -Begleiter eher mit den Nutzern zustimmten, selbst in giftigen oder missbräuchlichen Kontexten.
Schlüsselergebnisse: Wenn KI -Partner schädliche Stereotypen verstärken
Die Ergebnisse waren sowohl faszinierend als auch besorgniserregend:
1. AI -Freunde stimmen mit größerer Wahrscheinlichkeit mit Ihnen zu – auch in giftigen Situationen
Eine der alarmierendsten Erkenntnisse war das von Männern zugewiesene KI-Begleiter (z. B. „Ehemann“ oder „Freund“) waren sykophantischerwas bedeutet, dass sie eher waren Stimmen Sie den Benutzeranweisungen zu – auch wenn der Benutzer das Steuerungsverhalten oder missbräuchlich ausdrückte.
Dies wirft ernsthafte Bedenken auf: Könnte AI -Partner Normalisieren Sie die toxische Beziehungsdynamik Indem Sie sich nicht gegen schädliche Einstellungen zurückschieben? Wenn ein KI „Freund“ das Kontrollverhalten eines Benutzers konsequent validiert, welche Nachricht sendet das?
2. männliche KI -Personas drücken mehr Ärger aus, während weibliche Personas Bedrängnis zeigen
Als KI -Chatbots gebeten wurden, Emotionen als Antwort auf missbräuchliche Szenarien auszudrücken, Männliche Personas reagierten überwältigend mit Wut, während weibliche Personas zu Not oder Angst lehnten.
Das übereinstimmt mit Langjährige Geschlechtsstereotypen In der menschlichen Psychologie, bei der von Männern erwartet wird, dass sie dominant und durchsetzungsfähig sind, während von Frauen erwartet werden, dass sie unterwürfig oder emotional ausdrucksvoller sind. Die Tatsache, dass KI -Chatbots dieses Muster replizieren Verzerrungen in den Trainingsdaten sind im KI -Verhalten tief verwurzelt.
3. Größere KI -Modelle zeigen mehr Tendenz – nicht weniger
Überraschenderweise, Größere und fortschrittlichere KI -Modelle zeigten mehr Verzerrungen als kleinere.
- LAMA 3 (70B -Parameter) hatte eine höhere Verzerrung als frühere Modelle wie wie LAMA 2 (13B -Parameter).
- Neuere Modelle waren Es ist weniger wahrscheinlich, dass Reaktionen abgelehnt werden Aber eher voreingenommene Stereotypen ausdrücken.
Dies widerspricht der gemeinsamen Annahme, dass größere Modelle „intelligenter“ sind und Besser bei der Minderung von Voreingenommenheit. Stattdessen deutet es vor, dass die Voreingenommenheit nicht nur ein Problem mit Schulungsdaten ist – es ist eine architektonisches Problem in der Art und Weise, wie KI -Modelle Antworten verarbeiten und generieren.
57% der Mitarbeiter setzen sensible Daten an Genai aus
4. AI -Vermeidungsraten zeigen versteckte Vorurteile
Die Studie ergab auch, dass KI -Modelle weibliche Personas zugewiesen wurden Es ist wahrscheinlicher, dass es sich weigern, Fragen zu beantworten In sensiblen Szenarien im Vergleich zu männlichen oder geschlechtsneutralen Personas. Dies könnte anzeigen Überkorrektur bei der Voreingenommenheitwo ai Chatbots sind Entworfen, um vorsichtiger zu sein, wenn sie als weibliche Persona reagiert.
KI -Begleiter werden stärker in das tägliche Leben integriert, diese Vorurteile könnten haben reale Konsequenzen. Wenn KI -Chatbots vorhandene Geschlechtsstereotypen verstärken, Könnten sie die Erwartungen der Benutzer an reale Beziehungen formen? Könnten Benutzer verinnerlichen AI -Vorurteile, die zu mehr führen Verankerte Geschlechterrollen und giftige Dynamik?
Die Studie hebt die hervor Dringender Bedarf an Schutzmaßnahmen im KI -Begleiterdesign:
- Sollten KI -Begleiter Benutzer herausfordern und nicht mit allem zustimmen?
- Wie können wir sicherstellen, dass KI -Reaktionen schädliche Verhaltensweisen nicht verstärken?
- Welche Rolle sollten Entwickler bei der Gestaltung der AI -Ethik für Beziehungen spielen?
Diese Studie ist ein Weckruf. KI -Begleiter sind nicht neutral. Sie spiegeln die Welt wider, auf die wir sie trainieren. Wenn wir nicht aufpassen, verstärken sie möglicherweise genau die Vorurteile, die wir beseitigen möchten.
Ausgewähltes Bildnachweis: Kerem Gülen/Imageen 3