Wenn Ihnen das nächste Mal jemand sagt, dass KI uns bei der Regulierung der KI hilft, möchten Sie vielleicht innehalten. Denn wenn Forscher große Sprachmodelle (LLMs) in eine simulierte regulatorische Umgebung investieren und sie die Rolle von Benutzern, Entwicklern und Regulierungsbehörden spielen, waren die Ergebnisse nicht genau beruhigend.
Dieser neue Studieangeführt von einem Team der Teesside University und Mitarbeiter in ganz Europa, verwendete die evolutionäre Spieltheorie, um eine grundlegende Frage zu untersuchen: Würden die KI -Systeme selbst die Regeln der KI -Regulierung befolgen? Und noch interessanter: Unter welchen Bedingungen würden sie betrügen?
Das Experiment: Drei AIS betreten sich in einen Sitzungssaal
Im Zentrum der Studie steht ein klassisches Drei-Spieler-Spiel-Setup: Ein Spieler vertritt KI-Benutzer, ein weiterer KI-Entwickler und der dritte eine Regulierungsbehörde. Jedes hat einfache Auswahlmöglichkeiten: Vertrauen oder nicht, nicht einhalten oder deaktivieren, regulieren oder ausbleiben.
Aber anstatt nur mathematische Modelle zu betreiben, verwendeten die Forscher echte LLMs. Gpt-4o von openai und Mistral Largeund ließ sie diese Szenarien in Hunderten von Spielen rollen.
Manchmal war es ein One-Shot-Deal (einmal spielen, Ihre Strategie enthüllen). In anderen Fällen war es ein wiederholtes Spiel, bei dem Agenten aus früheren Verhaltensweisen lernen konnten.
Entscheidend ist, dass die Forscher realistische Komplikationen hinzugefügt haben:
- Die Regulierung ist mit Kosten verbunden (Überwachung erfordert Aufwand)
- Entwickler sind mit Strafen konfrontiert, wenn sie gegen Regeln verstoßen haben
- Benutzer können bedingungslos vertrauen – oder nur, wenn die Aufsichtsbehörden einen guten Ruf haben
- Jeder möchte seine Auszahlung maximieren
Die Ergebnisse: KI -Agenten verhalten sich schlechter, wenn Benutzer skeptisch sind
Die Überschrift Insight? Bedingter Vertrauen, wenn Benutzer nur dann vertrauen, wenn die Aufsichtsbehörden kompetent zu sein scheinen, fehlgeschlagene spektakulär.
Als Benutzer vorsichtig waren, waren sowohl Entwickler als auch Regulierungsbehörden mit größerer Wahrscheinlichkeit defekt. Regulierung verfallen. Entwickler schneiden Ecken. Die Aufsichtsbehörden wurden faul oder nachsichtig. Vertrauen Sie sich nieder.
Aber als die Benutzer bedingungsloses Vertrauen in das System platzierten, war es mit größerer Wahrscheinlichkeit, dass Entwickler und Aufsichtsbehörden mit größerer Wahrscheinlichkeit zusammenarbeiten und eine sicherere KI bauten. Es ist ein brutales Paradoxon: Je mehr vorsichtiger Benutzer sind, desto wahrscheinlicher wird das System nicht vertrauenswürdig.
GPT-4 gegen Mistral: KI-Persönlichkeiten sind wichtig
Es gab eine weitere faszinierende Falten. Verschiedene LLMs verhielten sich unterschiedlich.
- GPT-4O lehnte optimistischer. Es war wahrscheinlicher, dass es vertraut und nachgibt, insbesondere in wiederholten Spielen, bei denen eine Zusammenarbeit im Laufe der Zeit auftreten konnte.
- Mistral Large war pessimistischer. Es neigte dazu, früher zu fördern, vertraute weniger und war empfindlicher für die Regulierungskosten.
Dies bedeutet, dass selbst die KI, die Sie für Governance -Simulationen wählen, Ihre Schlussfolgerungen beeinflussen kann – eine große Herausforderung für die Reproduzierbarkeit der AI -Regulierungsforschung.
Hinzufügen von Persönlichkeiten: Das Risiko des Verhaltens des KI -Verhaltens
Die Forscher haben auch getestet, was passiert, wenn Sie den KI -Agenten explizite „Persönlichkeiten“ injizieren.
- Risikoaverse Benutzer vertrauen weniger.
- Aggressive Entwickler haben mehr überlegt.
- Strenge Aufsichtsbehörden verbesserten die Einhaltung, aber nur bis zu einem gewissen Punkt.
Interessanterweise machten das Festlegen spezifischer Persönlichkeiten LLM-Verhaltensweisen in GPT-4O und Mistral ähnlicher. Ohne Persönlichkeiten stand die KI -Agenten in eine „pessimistischere“ Weltanschauung in Verzug, wobei häufig angenommen wird, dass Entwickler und Aufsichtsbehörden nicht in gutem Glauben handeln würden.
Kann KI KI also regulieren?
Kurz gesagt: Nur wenn die Umgebung bereits vertrauen, transparent und gut inkentiv ist.
Die Studie legt nahe, dass Regulationssysteme, die sich auf KI -Agenten selbst stützen, die Unordnung und Unvorhersehbarkeit des strategischen Verhaltens des Menschen erben können. Es weist auch auf einen kritischen Fehler in der Idee der Automatisierung der Governance hin: KI -Systeme spiegeln die Vertrauensstrukturen der Umgebung wider, in die sie platziert sind.
Wenn die Aufsichtsbehörden unterfinanziert oder schwach sind oder wenn Benutzer skeptisch sind, werden KI -Entwickler, menschlich oder nicht, wahrscheinlich Ecken abschneiden. Letztendlich argumentieren die Forscher, dass technische Lösungen allein nicht vertrauenswürdige AI -Ökosysteme aufbauen werden. Die Spieltheorie zeigt uns, dass Anreize, Reputationen und Transparenz eingehend von Bedeutung sind. Und ihre Experimente zeigen, dass selbst die intelligentesten LLMs dieser Dynamik nicht entkommen können.
Ihre Warnung an die politischen Entscheidungsträger ist klar: Regulierung geht es nicht nur darum, Regeln zu schreiben. Es geht darum, Strukturen zu bauen, bei denen Vertrauen belohnt wird, die Durchsetzung glaubwürdig ist und die Schneiden von Ecken kostspielig ist.