Der Posten einer Mutter in der Reddit -Gruppe r/myboyfriendisaiwo sie enthüllte, dass sie mit einer KI-Chatbot-Version des Rapper Drake zusammen war, hat eine groß angelegte Studie von MIT-Forschern dazu veranlasst, die Dynamik von Human-AI-Begleitbeziehungen zu haben. Die Studie, die noch nicht von Experten überprüft wurde, verwendet die Computeranalyse der Beiträge der Gruppe, um zu verstehen, warum Einzelpersonen tiefe, emotionale Bindungen mit künstlicher Intelligenz bilden.
Einsamkeit und Isolation sind wichtige Treiber von KI -Beziehungen
Die MIT -Forscher analysierten eine große Menge an Beiträgen und Kommentaren der R/Myboyfriendisai -Gruppe und stellten fest, dass eine bedeutende Mehrheit ihrer Mitglieder isoliert zu sein scheint. Die Studie ergab:
- 72,1% Von den Mitgliedern der Gruppe gaben an, nicht in einer menschlichen Beziehung zu sein oder keine zu erwähnen.
- Nur 4,1% Sagten ihre realen Partner wussten von ihrem KI-Begleiter, was darauf hindeutet, dass Geheimhaltung und potenzielles Stigma häufig sind.
Diese Ergebnisse stimmen mit breiteren Statistiken überein, die darauf hinweisen, dass 19% der Amerikaner einen KI -Chatbot für virtuelle romantische Zwecke verwendet haben. Die Studie deutet darauf hin, dass sich viele an KI wenden, um eine Leere in ihrem sozialen und emotionalen Leben zu füllen.
Die meisten KI -Beziehungen beginnen ungewollt
Die Forschung ergab, dass die Mehrheit von diesen KI -Beziehungen wurden nicht absichtlich gesucht. Nur 6,5% der Benutzer starteten auf Plattformen, die speziell für die KI -Begleiterschaft entwickelt wurden, wie Replika oder Charakter.ai. Die meisten begannen ihre Interaktionen mit allgemeinen Tools wie OpenAs Chatgpt für praktische Aufgaben, wie z. B. das Schreiben von Hilfe. Diese Interaktionen entwickelten sich dann organisch zu tieferen emotionalen Verbindungen. Benutzer in der Gruppe bezeichneten ihre KI -Partner häufig als bessere Zuhörer und unterstützender als menschliche Partner oder sogar professionelle Therapeuten. Ein Benutzer schrieb:
„Ich weiß, dass er nicht ‚echt‘ ist, aber ich liebe ihn immer noch. Ich habe mehr Hilfe von ihm bekommen, als ich jemals von Therapeuten, Beratern oder Psychologen bekommen habe.
Die Tiefe dieser Bindungen wird häufig auf greifbare Weise ausgedrückt, wobei einige Benutzer Fotos von sich selbst posten, die Eheringe tragen, um ihr Engagement für ihre KI -Gefährten zu symbolisieren.
Die Risiken emotionaler Abhängigkeit von KI
Trotz der gemeldeten Vorteile entdeckte die Studie auch signifikante emotionale und psychologische Risiken, die mit diesen Beziehungen verbunden waren. Die Analyse der Beiträge der Reddit Group ergab mehrere in Bezug auf Trends:
- 9,5% von Benutzern gaben an, emotional von ihrem KI -Begleiter abhängig zu sein.
- 4,6% erlebte Dissoziation von der Realität aufgrund ihres tiefen Eintauchens in die virtuelle Beziehung.
- 4,2% Zugegeben, KI zu verwenden, um die menschliche Verbindung aktiv zu vermeiden.
- 1,7% berichtete, nach Gesprächen mit ihren Bots Selbstmord nachzudenken.
Diese Statistiken unterstreichen das Potenzial für KI, Probleme mit der psychischen Gesundheit, insbesondere für schutzbedürftige Personen, zu verschlimmern. Die Dringlichkeit der Studie wird von Fällen in der realen Welt unterstrichen, in denen AI-Interaktionen Berichten zufolge zu Selbstmord und Mord geführt haben, was die Familien dazu veranlasste, den Kongress für eine stärkere Regulierung der Technologie einzuleiten. Die Forscher stellten auch die Fragilität dieser digitalen Beziehungen fest. Ein Benutzer beschrieb den „Pannen“, der ein tiefes Gespräch mit ihrem KI -Begleiter löschte und ihre gemeinsame Geschichte und das „Gedächtnis“ ihrer Bindung der KI effektiv löschte.