Dataconomy DE
Subscribe
No Result
View All Result
Dataconomy DE
Subscribe
No Result
View All Result
Dataconomy DE
No Result
View All Result

Kann AI wirklich Grund über Ursache und Wirkung begründen? Eine neue Studie stellt LLMs auf die Prüfung

byKerem Gülen
Februar 17, 2025
in Research
Home Research

Eine neue Studie aus New York University und Universität Tübingengeführt von Hanna M. Dettki, Brenden M. Lake, Charley M. Wu und Bob Rehderfragt, ob KI über Ursachen wie Menschen argumentieren kann oder ob sie stattdessen auf Mustern angewiesen ist. Ihre Zeitung „Vernutzen große Sprachmodelle kausal wie wir? Noch besser?”, Sonden vier beliebte Modelle-GPT-3,5, GPT-4O, Claude-3 und Gemini-Pro-, um zu sehen, ob sie komplexe Kausalstrukturen erfassen oder lediglich die menschliche Sprache nachahmen.

Wie die Studie das kausale Denken in der KI getestet hat

Die Forscher verglichen das menschliche Denken mit vier LLMs –GPT-3,5, GPT-4O, Claude-3 und Gemini-Pro– Verwendung Collider -Diagrammeein klassischer Test in kausaler Schlussfolgerung. Die Teilnehmer (sowohl Menschen als auch KI) wurden gebeten, die Wahrscheinlichkeit eines Ereignisses mit bestimmten kausalen Beziehungen zu bewerten. Die Kernfrage: Machen Sie LLMs kausal auf die gleiche Weise wie Menschen, oder folgen sie einer anderen Logik?


AI kümmert sich jetzt um molekulare Simulationen: Dank an MDCrow


Wichtige Erkenntnisse: KI kann argumentieren, aber nicht wie Menschen wie Menschen

Die Ergebnisse enthüllten ein Spektrum kausaler Begründung unter AI -Modellen.

  • GPT-4O und Claude-3 zeigte am meisten Normative Argumentationwas bedeutet, dass sie die Wahrscheinlichkeitstheorie genauer verfolgten als menschliche Teilnehmer.
  • Gemini-Pro und GPT-3.5Andererseits zeigte sich mehr assoziatives Denkenwas bedeutet, dass sie sich eher auf statistische Muster als auf strenge kausale Logik stützten.
  • Alle Modelle zeigten VorurteileAbweichung von der erwarteten Unabhängigkeit von Ursachen. Jedoch, Claude-3 war am wenigsten voreingenommenwas bedeutet, dass es am engsten den mathematischen Kausalnormen haftete.

Interessant, Menschen wenden oft Heuristiken an Das abweicht von der strengen Wahrscheinlichkeitstheorie ab – wie der „Erklärungsabwehr“ -Effekt, bei dem die Beobachtung einer Ursache die Wahrscheinlichkeit eines anderen verringert. Während KI -Modelle diesen Effekt erkannten, variierten ihre Antworten je nach Trainingsdaten und Kontext erheblich.

AI gegen menschliches Denken: ein grundlegender Unterschied

Eine der faszinierendsten Erkenntnisse aus der Studie ist, dass LLMs Nicht nur menschliche Argumentation nachahmen– Sie nähern sich die Kausalität unterschiedlich. Im Gegensatz zu Menschen, deren Urteile über verschiedene Kontexte hinweg relativ stabil blieben, blieben sie relativ stabil. KI -Modelle haben ihre Argumentation je nach Domänenkenntnis angepasst (z. B. Wirtschaft vs. Soziologie).

  • Insbesondere GPT-4O behandelten kausale Verbindungen als deterministischAngenommen, bestimmte Ursachen haben immer spezifische Effekte.
  • Menschen dagegen faktor in der UnsicherheitAnerkennung, dass kausale Beziehungen nicht immer absolut sind.

Dies deutet darauf hin, dass KI zwar sein kann genauer In bestimmten strukturierten Aufgaben fehlt die Flexibilität des menschlichen Denkens im Umgang mit mehrdeutigen oder mehrköpfigen Situationen.

Warum ist dies für die KI bei der Entscheidungsfindung wichtig

Die Studie zeigt eine wichtige Einschränkung: LLMs können kausale Kenntnisse nicht über ihre Trainingsdaten ohne starke Anleitung verallgemeinern. Dies hat entscheidende Auswirkungen auf die Bereitstellung von KI in der Entscheidungsfindung in der realen Welt, von medizinischen Diagnosen bis hin zur wirtschaftlichen Prognose.

LLMs könnten Menschen in wahrscheinlichbasierter Schlussfolgerung übertreffen, aber ihre Argumentation bleibt grundsätzlich unterschiedlich-oft fehlt der intuitive, adaptive logische Menschen, der in der alltäglichen Problemlösung verwendet wird.

Mit anderen Worten, KI kann über die Kausalität argumentieren – aber nicht ganz wie wir.


Ausgewähltes Bildnachweis: Kerem Gülen/Ideogramm

Tags: AillmVorgestellt

Related Posts

KI -Forschungsinstrumente führen möglicherweise mehr Probleme als sie lösen

KI -Forschungsinstrumente führen möglicherweise mehr Probleme als sie lösen

Mai 14, 2025
Ist Ihr super hilfreicher generativer KI -Partner heimlich Ihre Arbeit langweilig?

Ist Ihr super hilfreicher generativer KI -Partner heimlich Ihre Arbeit langweilig?

Mai 14, 2025
Microsofts Adele möchte Ihrer KI ein kognitives Profil geben

Microsofts Adele möchte Ihrer KI ein kognitives Profil geben

Mai 14, 2025
Apple Research Paper enthüllt Matrix3d ​​für die Erzeugung von 3D -Inhalten

Apple Research Paper enthüllt Matrix3d ​​für die Erzeugung von 3D -Inhalten

Mai 14, 2025
Microsofts Adele möchte Ihrer KI ein kognitives Profil geben

Microsofts Adele möchte Ihrer KI ein C -kognitiver Profil geben

Mai 14, 2025
Forschung: Der Goldstandard für die Genai -Bewertung

Forschung: Der Goldstandard für die Genai -Bewertung

Mai 12, 2025

Recent Posts

  • Databricks -Wetten auf serverlose Postgres mit seiner Akquisition von 1 Milliarde US -Dollar
  • Alphaevolve: Wie Googles neue KI mit Selbstkorrektur auf die Wahrheit strebt
  • TIKTOK implementiert AI-generierte ALT-Texte, um eine bessere Akzierbarkeit zu erhalten
  • Trump zwingt Apple, seine indische iPhone -Strategie in Indien zu überdenken
  • Die KI von YouTube weiß jetzt, wann Sie kurz vor dem Kauf sind

Recent Comments

Es sind keine Kommentare vorhanden.
Dataconomy DE

COPYRIGHT © DATACONOMY MEDIA GMBH, ALL RIGHTS RESERVED.

  • Home
  • Sample Page

Follow Us

  • Home
  • Sample Page
No Result
View All Result
Subscribe

This website uses cookies. By continuing to use this website you are giving consent to cookies being used. Visit our Privacy Policy.