Das Zentrum des sozialen Lebens für viele junge Menschen ist nicht mehr Instagram oder Tiktok. Eine ruhige, aber bedeutende Migration hat authentische soziale Interaktion auf Spielplattformen wie Discord, Roblox und Steam verschoben. Während die öffentliche und politische Aufmerksamkeit auf Mainstream-Apps weiterhin festgelegt bleibt, sind die gamingorientierten Räume zu den Hauptdrehtern für gezeigte Konversation geworden. Diese Verschiebung hat auch ein gefährliches, weitgehend unüberwachtes Umfeld geschaffen, in dem Extremismus und Ausbeutung unentdeckt werden können.
Eine andere Art von sozialem Raum
Gaming-Plattformen unterscheiden sich grundlegend von den sozialen Medien mit öffentlichen Menschen. Apps wie Tiktok sind für Massenübertragungs- und Virusgehalt erstellt, aber Plattformen wie Discord sind in kleineren, geschlossenen Gemeinschaften strukturiert. Sie funktionieren eher wie digitale Clubhäuser als wie öffentliche Phasen. Dieses Design fördert eine andere Art von Interaktion, die die Gruppendiskussion für die Erstellung einer persönlichen Marke priorisiert. Anonymität ist zentral für diese Umgebung. Benutzer arbeiten unter Pseudo-Identitäten, die viele der realen Konsequenzen des Ausdrucks radikaler oder tabuer Ideen beseitigen. Dies hat diese Plattformen zu einem leistungsstarken Unentschieden für junge Menschen gemacht, die eine Verbindung ohne öffentliche Prüfung suchen.
Ein nicht überwachten Brutgebiet für Schaden
Die Privatsphäre, die Benutzer anzieht, bietet auch ein Zufluchtsort für Raubtiere und extremistische Gruppen, die von Mainstream -Standorten verboten wurden. Mariana Olaizola Rosenblat, eine politische Beraterin bei NYU Stern, gibt an, dass diese Gruppen speziell für Spielplattformen anstreben, um junge Menschen zu finden und zu beeinflussen.
„Extremisten und Raubtiere gehen in diese Spielräume, um hochentwickelte, anfällige junge Menschen zu finden, von denen viele sich nach Verbindung sehnen.“
Diese schädliche Aktivität ist äußerst schwer zu verfolgen. Die Gespräche ereignen sich in Tausenden kleiner, privater Chatrooms, die für Forscher unzugänglich sind. Benutzer maskieren gefährliche Ideologien häufig mit „Gamespeak“ oder In-Jokes, was Mäßigung herausfordernd macht. „Die meisten Forscher sind im Grunde genommen blind für all das“, sagt Rosenblat. „Sie können diese Räume nicht betreten.“
Ein dokumentiertes Muster realer Weltsexzierungen
Während die meisten Benutzeraktivitäten auf diesen Plattformen harmlos sind, hat ein Muster der Radikalisierung und Ausbeutung zu dokumentierten, realen Tragödien geführt. Die theoretischen Risiken sind jetzt nachgewiesene Fakten.
- Zwietracht wurde verwendet, um die Rallye „Unite the Right“ in Charlottesville 2017 zu organisieren, und war dort, wo der 2022 Buffalo -Shooter seine Pläne monatelang in einem privaten Chat dokumentierte. Der Verdächtige in der jüngsten Mord an Aktivistin Charlie Kirk schien auch in einem Zwietracht Chat zu gestehen.
- Roblox steht vor mehreren Klagen, weil sie keine Kinder vor Raubtieren schützen können. Eine Klage einer Familie Iowa behauptet, ihre 13-jährige Tochter sei von einem Mann entführt und gehandelt worden, den sie auf der Plattform getroffen habe. Roblox sagte zu Axios, „investieren[s] bedeutende Ressourcen in der fortschrittlichen Sicherheitstechnologie. „
- Zucken Und Dampf wurden auch als Plattformen identifiziert, auf denen Extremismus Fuß fasst. Die Buffalo-Schießereien wurden auf Twitch livestreamed und die Forscher haben dokumentiert, wie Steam zu einem Hub für rechtsextreme Gruppen geworden ist, um eine Verbindung herzustellen.
Wie Moderationskämpfe um Skalen kämpfen
Die Unternehmen hinter diesen Plattformen stehen vor einem strukturellen Problem. Ihre Systeme sind für eine schnelle Interaktion mit Peer-to-Peer-Interaktion und nicht für die Aufsicht von Top-Down entwickelt. Discord beherbergt Millionen von privaten Servern, viele haben in Tagen oder Wochen geschaffen und aufgegeben. Roblox generiert jede Stunde große Mengen an benutzerbezogenen Inhalten. Traditionelle Moderationsinstrumente – Keeword -Filter, reaktive Berichterstattung und kleine Sicherheitsteams – halten mit der Skala oder der Geschwindigkeit Schritt, mit der sich schädliche Gemeinschaften entwickeln. Mehrere Unternehmen haben KI-gesteuerte Erkennungswerkzeuge und Richtlinien für die Gemeinschaft eingeführt, diese Bemühungen sind jedoch fragmentiert und undurchsichtig. Sicherheitsforscher stellen fest, dass Unternehmen selten offenlegen, wie viele Moderatoren sie einsetzen, wie Algorithmen eingestellt werden oder wie die Durchsetzungsergebnisse aussehen. Dieser Mangel an Transparenz macht es den Gesetzgebern, Eltern oder Akademikern schwer zu beurteilen, ob Interventionen funktionieren.
Die Forschungslücke schließen
Im Gegensatz zu Facebook oder X (ehemals Twitter), bei dem öffentliche Beiträge abgekratzt und analysiert werden können, blockiert der private Charakter der Spielplattformen außerhalb der Audits. Unabhängige Forscher können häufig keine wirklichen Interaktionen untersuchen, wodurch Sicherheitsdebatten von Lecks, Klagen oder Whistleblower abhängen. Ohne mehr offene Zugang riskieren die politischen Entscheidungsträger, auf das wirken Anekdote und nicht Beweise. Einige Experten schlagen vor, Datensportale für Datenschutzbestimmungen zu erstellen, mit denen geprüfte Forscher schädliche Trends untersuchen können, ohne Benutzeridentitäten aufzudecken. Andere argumentieren für obligatorische Sicherheitsberichterstattung-ähnlich wie die Standards für Lebensmittelsicherheit oder Arbeitsplatzsicherheit-, bei denen Unternehmen Kennzahlen zu Missbrauchsberichten, Moderator-Personal- und Kinderschutz Ergebnissen veröffentlichen müssen.
Aufbau sichererer sozialer Commons
Es ist unwahrscheinlich, dass junge Menschen diese Räume aufgeben. Sie bieten Zugehörigkeit, kreativen Ausdruck und echte Freundschaften, die Mainstream -Netzwerke zunehmend nicht bieten. Die Herausforderung besteht nicht darin, sie zu schließen, sondern sie als die neuen sozialen Commons zu behandeln, die sie geworden sind – Raum, die Regeln, Verwaltung und Rechenschaftspflicht erfordern. Praktische Schritte könnten altersgerechte Designstandards, stärkere Elternkontrollen, klarere Wege für Strafverfolgungsanfragen und unabhängige Audits von Sicherheitsinstrumenten umfassen. Gaming-Plattformen können auch an gemeinsamen Bedrohungsdatenbanken oder Rapid-Response-Protokollen für extremistische Inhalte zusammenarbeiten, da Finanzinstitute Daten für die Bekämpfung von Betrug teilen.
Ein Wendepunkt für die Online -Sicherheit
Die Anhörungen am 8. Oktober werden testen, ob der Gesetzgeber den Umfang des Problems verstehen und über die symbolische Befragung von technischen Führungskräften hinausgehen können. Ohne stärkere Standards werden die gleichen Faktoren, die Gaming -Plattformen attraktiv machen – Gemeinschaft, Anonymität und kreative Freiheit – sie weiterhin für diejenigen attraktiv für diejenigen attraktiv machen, die Schaden zufügen möchten. Erkennen dieser Räume als die Echte soziale Hubs der heutigen Jugend ist der erste Schritt, um sie mit der Ernsthaftigkeit zu regieren, die sie fordern.
