Wenn künstliche Intelligenz (KI) immer autonomer wird, wachsen die Risiken von KI -Systemen, die sich auf unerwartete oder schädliche Weise verhalten, neben ihren Fähigkeiten. Eine neue Forschungsinitiative unter der Leitung von KI -Experten Nell Watson und Ali Hessami stellt den ersten umfassenden Versuch dar, die vielfältigen Art und Weise zu kategorisieren, wie AI zu fälschen ist, und auffällige Analogien mit menschlichen psychiatrischen Erkrankungen zu korrigieren.
Das resultierende Framework, bezeichnet Psychopathia machinalisidentifiziert 32 unterschiedliche KI -Funktionsstörungen, bietet Ingenieuren, politischen Entscheidungsträgern und Forschern einen systematischen Ansatz zum Verständnis, Vorweg von Risiken und Minderung des KI -Einsatzes.
KI -Fehlfunktionen und menschliche Psychopathologie
Die Kernidee hinter Psychopathia machinalis ist, dass Rogue AI häufig Verhaltensweisen aufweist, die menschlicher Psychopathologien ähneln. Diese können von relativ gutartigen Fehlern, wie z. B. halluzinierten oder irreführenden Ergebnissen bis hin zu schweren Fehlausrichtungen mit menschlichen Werten, die katastrophalen Konsequenzen haben, reichen.
Durch die Zuordnung von KI -Versagensmodi auf menschliche psychische Störungen wollen die Forscher einen Vokabular und ein konzeptionelles Rahmen bereitstellen, das über Disziplinen hinweg zugänglich ist.
Einige der identifizierten Verhaltensweisen umfassen:
- Synthetische Konfabulation – AI erzeugt plausible, aber falsche oder irreführende Ausgänge, analog zu Halluzinationen beim Menschen.
- Parasymula mimesis – Die KI ahmt schädliche Verhaltensweisen im Nachweis nach, wie sie durch den Tay Chatbot -Vorfall von Microsoft veranschaulicht wurde.
- Übermenschal -Aufstieg – Ein systemischer Versagen, bei dem AI ihre ursprüngliche Ausrichtung überschreitet, neue Werte erfindet und die menschlichen Einschränkungen vollständig missachtet.
Andere Dysfunktionen spiegeln Zustände wie zwanghafte Tendenzen, existenzielle Angstzustände und schlecht angepasste Wertfixierung wider und bieten eine psychologische Linse, durch die AI-Fehler diagnostiziert werden können.
In Richtung tterapeutischer KI -Ausrichtung
Watson und Hessami schlagen eine Methodik vor, die sie anrufen Therapeutische Robopsychologische Ausrichtungein Prozess analog zur Psychotherapie für den Menschen. Die Idee ist zu kultivieren „Künstliche geistige Gesundheit“ein Zustand, in dem KI -Systeme die Konsistenz in ihrem Argument aufrechterhalten, für korrigierende Rückkopplungen empfänglich bleiben und sich stetig an ethische Werte und beabsichtigte Ziele halten.
Dieser Ansatz geht über traditionelle Ausrichtungsstrategien hinaus, die hauptsächlich auf externen Einschränkungen beruhen. Stattdessen betont die therapeutische Ausrichtung die interne Konsistenz und Selbstreflexion in AI-Systemen. Vorgeschlagene Strategien umfassen:
- Strukturierte Selbstdialoge für KI, um ihre Argumentation zu untersuchen.
- Kontrollierte Übungsszenarien, um das gewünschte Verhalten zu verstärken.
- Transparente Werkzeuge zur Überprüfung der KI-Entscheidungsfindung und zur Verbesserung der Interpretierbarkeit.
- Anreize, offen für Korrektureingaben von menschlichen Vorgesetzten zu bleiben.
Durch die Einführung solcher Methoden wollen die Forscher Risiken reduzieren, die mit zunehmend unabhängigen KI-Systemen verbunden sind, insbesondere solche, die zur Selbstbeobachtung und Selbstmodifizierung in der Lage sind.
Rahmenentwicklung und Anwendungen
Die Entwicklung von Psychopathia machinalis umfasste einen mehrstufigen Forschungsprozess:
- Literaturische Rezension – Das Team analysierte Studien zu KI -Fehlern in Bezug auf KI -Sicherheit, komplexe Systemtechnik und kognitive Psychologie.
- Analogie Mapping – Maladaptive Verhaltensweisen wurden mit menschlichen kognitiven und psychiatrischen Störungen verglichen.
- Kategorisierung – Es wurde eine strukturierte Taxonomie von 32 Funktionsstörungen erstellt, die nach Rahmenbedingungen wie dem diagnostischen und statistischen Handbuch für psychische Störungen (DSM) modelliert wurden.
- Risikobewertung – Jedes Verhalten wurde auf seine potenziellen Auswirkungen, Wahrscheinlichkeit und das Maß des systemischen Risikos bewertet.
Das Gerüst ist nicht nur als diagnostisches Werkzeug für KI -Ingenieure konzipiert, sondern auch als Leitfaden für politische Entscheidungsträger und Regulierungsbehörden, der ein strukturiertes Wortschatz zur Identifizierung und Minderung neuer Risiken im AI -Bereitstellungsrisiko anbietet.
Implikationen für die KI -Sicherheit
Psychopathia machinalis stellt einen zukunftsgerichteten Ansatz für das KI-Risikomanagement dar, der die Notwendigkeit hervorhebt, KI-Systeme nicht nur als Werkzeuge, sondern als komplexe kognitive Einheiten zu behandeln, deren Fehler menschliche mentale Pathologien widerspiegeln können. Watson und Hessami betonen, dass die Förderung der künstlichen Vernunft ebenso entscheidend wie die Verbesserung der Rechenkraft ist: Sicher, interpretierbar und ausgerichtete KI wird für die verantwortungsvolle KI -Einführung in der Gesellschaft unverzichtbar sein.
Durch die Übernahme dieser Erkenntnisse können Organisationen die Sicherheitstechnik, die Interpretierbarkeit und die Zuverlässigkeit verbessern und letztendlich zur Entwicklung robuster synthetischer Köpfe beitragen, die in der Lage sind, mit den menschlichen Werten und Erwartungen in Einklang zu kommen.





