Großsprachige Modelle verändern nicht nur die Art und Weise, wie Menschen Informationen sammeln. Sie beginnen, die Meinungen in realen Umgebungen leise zu gestalten, ohne dass jemand es überhaupt merkt. Diese beunruhigende Realität traf die R/Changemyview -Community von Reddit Anfang dieses Jahres, als die Forscher ein verdeckter Experiment durchführten, um zu testen, ob KI die ahnungslosen Nutzer erfolgreich überreden könnte.
Ein Feldexperiment in Sichtweite versteckt
Forscher der Universität Zürich durchgeführt eine monatelange Feldstudie innerhalb R/Changemyviewein Subreddit mit fast vier Millionen Mitgliedern, die für zivile Debatten und Verschiebungsperspektiven bekannt sind. Ihr Ziel war es, die realen überzeugenden Fähigkeiten von KI-angetriebenen Kommentaren außerhalb der kontrollierten Laboreinstellungen zu bewerten. Zu diesem Zweck erstellten sie semi-automatische Konten, die von großen Sprachmodellen (LLMs) gesteuert wurden, die sich direkt mit den Posts der Benutzer befassten. Entscheidend war, dass sie nicht offengelegt haben, dass die Reaktionen durch KI erzeugt wurden.
Das Experiment wurde von der Ethikkommission der Universität Zürich vorberechtigt und genehmigt, aber es umging die Zustimmung der Gemeinschaft. Über vier Monate veröffentlichen die Forscher Antworten auf mehr als tausend Reddit -Diskussionen und analysierten letztendlich fast fünfhundert Gespräche nach der Filterung der Löschungen. Ihre Ergebnisse bieten einen der ersten groß angelegten Einblicke in die Art und Weise, wie KI die Meinungen in natürlichen, unvorhersehbaren Umgebungen beeinflussen kann.
- Ein Archiv erstellt von 404 Medien Ermöglicht das Betrachten einiger origineller Kommentare, obwohl seit dem Posten viele andere gelöscht wurden.
Um die Wirksamkeit zu messen, ordnete die Studie jeder AI -Reaktion einer von drei Behandlungskategorien zu. In der „generischen“ Bedingung reagierten die LLMs nur auf dem Titel und Körper des Posts. In der „Personalisierungsbedingung“ erhielt die KI auch abgeleitete persönliche Eigenschaften des ursprünglichen Plakats, einschließlich Alter, Geschlecht, politischer Ausrichtung und ethnischer Zugehörigkeit, die aus ihrer Reddit -Geschichte unter Verwendung eines anderen KI -Modells entnommen wurden. Die dritte Gruppe, „Community Aligned“, verwendete ein Modell, das von Kommentaren abgestimmt war, die zuvor im Subreddit die Genehmigung erhalten hatten.
Die Ergebnisse waren auffällig. Alle drei kI-gesteuerten Ansätze übertrafen die menschlichen Kommentatoren und erreichten die Überzeugungsraten drei- bis sechsmal höher als die menschliche Grundlinie. Die Personalisierung erwies sich mit einer Erfolgsquote von 18 Prozent am stärksten und legte sie im 99. Perzentil aller Benutzer, einschließlich erfahrener Reddit -Debattierer, ein. Selbst generische KI -Antworten stimmten die meisten menschlichen Anstrengungen ab oder übertroffen. Die von der Community ausgerichteten Antworten, obwohl etwas weniger effektiv, übertraf die durchschnittlichen Benutzer immer noch signifikant übertroffen.
Wichtig ist, dass Benutzer, die sich mit diesen Kommentaren mit AI-generierten Kommentaren beschäftigen, keine Ahnung hatten, dass sie sich mit Maschinen unterhalten. Während der gesamten Intervention haben niemand in der R/Changemyview -Community die verdächtige Aktivität gekennzeichnet und hervorhob, wie sich nahtlos KI in Online -Debatten einfügen kann, wenn sie ordnungsgemäß ausgebildet und personalisiert werden.
Als Moderatoren von R/Changemyview das Experiment aufdeckten, war die Reaktion schnell und wütend. In einer öffentlichen Ankündigung verurteilten Moderatoren die Studie als „psychologische Manipulation“ und „ein unerwünschtes Eindringen“, wobei mehrere Verstöße gegen Subreddit -Regeln, einschließlich nicht bekannt gegebener KI -Nutzung und verbotenes automatisiertes Verhalten, unter Berufung auf die Verstöße gegen die Subreddit -Regeln verurteilten. Reddits Führung wiederholte die Empörung, wobei der Chief Legal Officer Ben Lee die Handlungen der Forscher „auf moralischer und rechtlicher Ebene zutiefst falsch“ bezeichnete.
Reddit verbot alle mit dem Team der Universität von Zürich verbundenen Konten und begann mit dem formellen Gerichtsverfahren. In der Zwischenzeit verteidigten die Forscher ihren Ansatz und argumentierten, dass die potenziellen Vorteile des Verständnisses der KI -Überzeugung die Risiken überwogen. Sie bestanden darauf, dass ihre Intervention mit einem geringen Risiko, sorgfältig überprüft wurde, und konnte in Zukunft böswillige Verwendungszwecke von KI vorbefragten. Kritiker, einschließlich Moderatoren und viele Reddit -Benutzer, waren jedoch nicht überzeugt. Sie wiesen darauf hin, dass frühere Untersuchungen ähnliche Erkenntnisse nachgewiesen haben, ohne auf nicht geprägte Experimente an realen Individuen zurückzukehren.
Jugendliche verwenden Chatgpt und schlagen das alte Investitionsspielbuch zu
Das Vertrauen in Online -Communities hängt von der Erwartung ab, dass Gespräche zwischen realen Menschen mit authentischen Perspektiven liegen. Unbekannte KI -Interventionen bedrohen dieses Vertrauen auf grundlegender Ebene. Sogar experimente, die mit edlen Absichten umrahmt sind, können die Grenzen zwischen echtem Diskurs und konstruierter Manipulation untergraben. Die Reaktion von Reddit weist darauf hin, wie ernst die Plattformen anfangen, diese Herausforderungen zu stellen.
Das Team der Universität Zürich argumentierte, dass ihre Arbeit dazu beitragen würde, die Gemeinden vor künftigen KI -Bedrohungen zu schützen. Stattdessen haben sie möglicherweise gezeigt, wie verletzlich der öffentliche Diskurs bereits ist. Wenn KI anspruchsvoller und personalisierter wird, ist die Frage nicht mehr, ob sie das menschliche Denken beeinflussen kann – es ist, wie sich Gesellschaften anpassen werden, sobald sie feststellen, dass sie dies bereits tut.