Drei neue Studien führender Institutionen, darunter die Hebrew University, Google Research und Caltech, haben ein neues Licht auf die Beziehung zwischen künstlicher Intelligenz und dem menschlichen Gehirn geworfen. Die Forschung legt nahe, dass KI-Modelle Sprache auf eine Weise verarbeiten, die der biologischen neuronalen Aktivität auffallend ähnelt und gleichzeitig die Art und Weise beeinflusst, wie Menschen in der realen Welt sprechen. Diese Untersuchungen nutzen Deep-Learning-Frameworks und linguistische Analysen, um zu untersuchen, wie KI mit der Gehirnfunktion zusammenhängt, wie sie unseren Wortschatz verändert und wie sie dabei helfen kann, biologische Neuronen zu simulieren.
Das Gehirn baut Bedeutung wie ein LLM auf
Ein Team unter der Leitung von Dr. Ariel Goldstein von der Hebräischen Universität nutzte in Zusammenarbeit mit Google Research und Princeton die Elektrokortikographie (ECoG), um die direkte elektrische Aktivität im Gehirn von Teilnehmern aufzuzeichnen, die einen 30-minütigen Podcast hörten. Sie verglichen diese Signale mit der Schichtarchitektur großer Sprachmodelle (LLMs) wie GPT-2 und Lama 2. Der Studie fand eine bemerkenswerte Ausrichtung:
- Frühe Schichten: Die anfänglichen neuronalen Reaktionen des Gehirns stimmten mit den flachen Schichten von KI-Modellen überein, die grundlegende sprachliche Elemente verarbeiten.
- Tiefe Schichten: Spätere neuronale Reaktionen, insbesondere im Broca-Bereich, stimmten mit tieferen KI-Schichten überein, die komplexe Zusammenhänge und Bedeutungen verarbeiten.
„Was uns am meisten überraschte, war, wie genau die zeitliche Bedeutungsentfaltung des Gehirns mit der Abfolge von Transformationen innerhalb großer Sprachmodelle übereinstimmt“, sagte Goldstein. Dies deutet darauf hin, dass sowohl das menschliche Gehirn als auch die KI-Modelle trotz ihrer unterschiedlichen Strukturen Bedeutung schrittweise und Schicht für Schicht konstruieren. Um weitere Entdeckungen zu unterstützen, hat das Team den vollständigen Datensatz neuronaler Aufzeichnungen der Öffentlichkeit zugänglich gemacht, sodass Wissenschaftler weltweit alternative Theorien der Sprachverarbeitung testen können.
„Lexical Seepage“: KI verändert unsere Art zu sprechen
In einer separaten Untersuchung analysierte der Linguist Tom Juzek von der Florida State University 22 Millionen Wörter aus nicht geschriebenen Podcasts, um den Einfluss von KI auf die menschliche Sprache zu messen. Durch den Vergleich von Daten vor und nach der Veröffentlichung von ChatGPT im Jahr 2022 identifizierte die Studie ein Phänomen, das Juzek als „lexikalisches Versickern“ bezeichnet. Die Untersuchung ergab einen plötzlichen Anstieg bei bestimmten Wörtern, die häufig von KI generiert werden, während bei ihren Synonymen kein ähnlicher Anstieg zu verzeichnen war. Zu diesen Wörtern gehören:
- „Eintauchen“ (um gründlich zu untersuchen)
- „Akribisch“ (mit viel Liebe zum Detail)
- „Garner“ (sammeln oder sammeln)
- „Prahlerei“ (bezieht sich auf den Besitz einer Eigenschaft)
„KI legt uns möglicherweise buchstäblich Worte in den Mund, da die wiederholte Exposition dazu führt, dass Menschen Schlagworte verinnerlichen und wiederverwenden, die sie vielleicht nicht von Natur aus gewählt hätten.“
Im Gegensatz zum Slang, der sich gesellschaftlich verbreitet, ist dieser Wandel auf algorithmische Ergebnisse zurückzuführen, die in Texten und Artikeln zu finden sind. Die Analyse wirft Fragen zur möglichen Standardisierung der menschlichen Sprache und zur Abflachung regionaler Dialekte unter dem Einfluss einheitlicher KI-Terminologie auf.
NOBLE: 4.200-mal schnellere Simulation von Neuronen
Am NeurIPS-KonferenzWissenschaftler von Caltech und Cedars-Sinai stellten NOBLE (Neural Operator with Biologically-informed Latent Embeddings) vor. Dieses neue Deep-Learning-Framework kann virtuelle Modelle von Gehirnneuronen 4.200-mal schneller erstellen als herkömmliche Methoden. Während herkömmliche Löser komplexe Differentialgleichungen verwenden, die viel Rechenleistung erfordern, verwendet NOBLE neuronale Operatoren, um das Verhalten tatsächlicher biologischer Neuronen zu reproduzieren, einschließlich ihrer Feuerfrequenzen und Reaktionen auf Reize. Diese Geschwindigkeit ermöglicht es Forschern, Simulationen auf größere Gehirnschaltkreise zu skalieren, an denen Millionen miteinander verbundener Zellen beteiligt sind. Das Rahmenwerk zielt darauf ab, die Erforschung von Hirnerkrankungen wie Epilepsie und Alzheimer zu beschleunigen, indem es Wissenschaftlern ermöglicht, Hypothesen schnell zu testen, ohne sich ausschließlich auf begrenzte Tier- oder Menschenversuche zu verlassen.





