Eine neue Studie aus New York University und Universität Tübingengeführt von Hanna M. Dettki, Brenden M. Lake, Charley M. Wu und Bob Rehderfragt, ob KI über Ursachen wie Menschen argumentieren kann oder ob sie stattdessen auf Mustern angewiesen ist. Ihre Zeitung „Vernutzen große Sprachmodelle kausal wie wir? Noch besser?”, Sonden vier beliebte Modelle-GPT-3,5, GPT-4O, Claude-3 und Gemini-Pro-, um zu sehen, ob sie komplexe Kausalstrukturen erfassen oder lediglich die menschliche Sprache nachahmen.
Wie die Studie das kausale Denken in der KI getestet hat
Die Forscher verglichen das menschliche Denken mit vier LLMs –GPT-3,5, GPT-4O, Claude-3 und Gemini-Pro– Verwendung Collider -Diagrammeein klassischer Test in kausaler Schlussfolgerung. Die Teilnehmer (sowohl Menschen als auch KI) wurden gebeten, die Wahrscheinlichkeit eines Ereignisses mit bestimmten kausalen Beziehungen zu bewerten. Die Kernfrage: Machen Sie LLMs kausal auf die gleiche Weise wie Menschen, oder folgen sie einer anderen Logik?
AI kümmert sich jetzt um molekulare Simulationen: Dank an MDCrow
Wichtige Erkenntnisse: KI kann argumentieren, aber nicht wie Menschen wie Menschen
Die Ergebnisse enthüllten ein Spektrum kausaler Begründung unter AI -Modellen.
- GPT-4O und Claude-3 zeigte am meisten Normative Argumentationwas bedeutet, dass sie die Wahrscheinlichkeitstheorie genauer verfolgten als menschliche Teilnehmer.
- Gemini-Pro und GPT-3.5Andererseits zeigte sich mehr assoziatives Denkenwas bedeutet, dass sie sich eher auf statistische Muster als auf strenge kausale Logik stützten.
- Alle Modelle zeigten VorurteileAbweichung von der erwarteten Unabhängigkeit von Ursachen. Jedoch, Claude-3 war am wenigsten voreingenommenwas bedeutet, dass es am engsten den mathematischen Kausalnormen haftete.
Interessant, Menschen wenden oft Heuristiken an Das abweicht von der strengen Wahrscheinlichkeitstheorie ab – wie der „Erklärungsabwehr“ -Effekt, bei dem die Beobachtung einer Ursache die Wahrscheinlichkeit eines anderen verringert. Während KI -Modelle diesen Effekt erkannten, variierten ihre Antworten je nach Trainingsdaten und Kontext erheblich.
AI gegen menschliches Denken: ein grundlegender Unterschied
Eine der faszinierendsten Erkenntnisse aus der Studie ist, dass LLMs Nicht nur menschliche Argumentation nachahmen– Sie nähern sich die Kausalität unterschiedlich. Im Gegensatz zu Menschen, deren Urteile über verschiedene Kontexte hinweg relativ stabil blieben, blieben sie relativ stabil. KI -Modelle haben ihre Argumentation je nach Domänenkenntnis angepasst (z. B. Wirtschaft vs. Soziologie).
- Insbesondere GPT-4O behandelten kausale Verbindungen als deterministischAngenommen, bestimmte Ursachen haben immer spezifische Effekte.
- Menschen dagegen faktor in der UnsicherheitAnerkennung, dass kausale Beziehungen nicht immer absolut sind.
Dies deutet darauf hin, dass KI zwar sein kann genauer In bestimmten strukturierten Aufgaben fehlt die Flexibilität des menschlichen Denkens im Umgang mit mehrdeutigen oder mehrköpfigen Situationen.
Warum ist dies für die KI bei der Entscheidungsfindung wichtig
Die Studie zeigt eine wichtige Einschränkung: LLMs können kausale Kenntnisse nicht über ihre Trainingsdaten ohne starke Anleitung verallgemeinern. Dies hat entscheidende Auswirkungen auf die Bereitstellung von KI in der Entscheidungsfindung in der realen Welt, von medizinischen Diagnosen bis hin zur wirtschaftlichen Prognose.
LLMs könnten Menschen in wahrscheinlichbasierter Schlussfolgerung übertreffen, aber ihre Argumentation bleibt grundsätzlich unterschiedlich-oft fehlt der intuitive, adaptive logische Menschen, der in der alltäglichen Problemlösung verwendet wird.
Mit anderen Worten, KI kann über die Kausalität argumentieren – aber nicht ganz wie wir.
Ausgewähltes Bildnachweis: Kerem Gülen/Ideogramm