Dataconomy DE
Subscribe
No Result
View All Result
Dataconomy DE
Subscribe
No Result
View All Result
Dataconomy DE
No Result
View All Result

KI spiegelt die Verarbeitung des Gehirns wider und verändert still und leise den menschlichen Wortschatz

byKerem Gülen
Dezember 11, 2025
in Research
Home Research
Share on FacebookShare on Twitter

Drei neue Studien führender Institutionen, darunter die Hebrew University, Google Research und Caltech, haben ein neues Licht auf die Beziehung zwischen künstlicher Intelligenz und dem menschlichen Gehirn geworfen. Die Forschung legt nahe, dass KI-Modelle Sprache auf eine Weise verarbeiten, die der biologischen neuronalen Aktivität auffallend ähnelt und gleichzeitig die Art und Weise beeinflusst, wie Menschen in der realen Welt sprechen. Diese Untersuchungen nutzen Deep-Learning-Frameworks und linguistische Analysen, um zu untersuchen, wie KI mit der Gehirnfunktion zusammenhängt, wie sie unseren Wortschatz verändert und wie sie dabei helfen kann, biologische Neuronen zu simulieren.

Das Gehirn baut Bedeutung wie ein LLM auf

Ein Team unter der Leitung von Dr. Ariel Goldstein von der Hebräischen Universität nutzte in Zusammenarbeit mit Google Research und Princeton die Elektrokortikographie (ECoG), um die direkte elektrische Aktivität im Gehirn von Teilnehmern aufzuzeichnen, die einen 30-minütigen Podcast hörten. Sie verglichen diese Signale mit der Schichtarchitektur großer Sprachmodelle (LLMs) wie GPT-2 und Lama 2. Der Studie fand eine bemerkenswerte Ausrichtung:

  • Frühe Schichten: Die anfänglichen neuronalen Reaktionen des Gehirns stimmten mit den flachen Schichten von KI-Modellen überein, die grundlegende sprachliche Elemente verarbeiten.
  • Tiefe Schichten: Spätere neuronale Reaktionen, insbesondere im Broca-Bereich, stimmten mit tieferen KI-Schichten überein, die komplexe Zusammenhänge und Bedeutungen verarbeiten.

„Was uns am meisten überraschte, war, wie genau die zeitliche Bedeutungsentfaltung des Gehirns mit der Abfolge von Transformationen innerhalb großer Sprachmodelle übereinstimmt“, sagte Goldstein. Dies deutet darauf hin, dass sowohl das menschliche Gehirn als auch die KI-Modelle trotz ihrer unterschiedlichen Strukturen Bedeutung schrittweise und Schicht für Schicht konstruieren. Um weitere Entdeckungen zu unterstützen, hat das Team den vollständigen Datensatz neuronaler Aufzeichnungen der Öffentlichkeit zugänglich gemacht, sodass Wissenschaftler weltweit alternative Theorien der Sprachverarbeitung testen können.

„Lexical Seepage“: KI verändert unsere Art zu sprechen

In einer separaten Untersuchung analysierte der Linguist Tom Juzek von der Florida State University 22 Millionen Wörter aus nicht geschriebenen Podcasts, um den Einfluss von KI auf die menschliche Sprache zu messen. Durch den Vergleich von Daten vor und nach der Veröffentlichung von ChatGPT im Jahr 2022 identifizierte die Studie ein Phänomen, das Juzek als „lexikalisches Versickern“ bezeichnet. Die Untersuchung ergab einen plötzlichen Anstieg bei bestimmten Wörtern, die häufig von KI generiert werden, während bei ihren Synonymen kein ähnlicher Anstieg zu verzeichnen war. Zu diesen Wörtern gehören:

  • „Eintauchen“ (um gründlich zu untersuchen)
  • „Akribisch“ (mit viel Liebe zum Detail)
  • „Garner“ (sammeln oder sammeln)
  • „Prahlerei“ (bezieht sich auf den Besitz einer Eigenschaft)

„KI legt uns möglicherweise buchstäblich Worte in den Mund, da die wiederholte Exposition dazu führt, dass Menschen Schlagworte verinnerlichen und wiederverwenden, die sie vielleicht nicht von Natur aus gewählt hätten.“

Im Gegensatz zum Slang, der sich gesellschaftlich verbreitet, ist dieser Wandel auf algorithmische Ergebnisse zurückzuführen, die in Texten und Artikeln zu finden sind. Die Analyse wirft Fragen zur möglichen Standardisierung der menschlichen Sprache und zur Abflachung regionaler Dialekte unter dem Einfluss einheitlicher KI-Terminologie auf.

NOBLE: 4.200-mal schnellere Simulation von Neuronen

Am NeurIPS-KonferenzWissenschaftler von Caltech und Cedars-Sinai stellten NOBLE (Neural Operator with Biologically-informed Latent Embeddings) vor. Dieses neue Deep-Learning-Framework kann virtuelle Modelle von Gehirnneuronen 4.200-mal schneller erstellen als herkömmliche Methoden. Während herkömmliche Löser komplexe Differentialgleichungen verwenden, die viel Rechenleistung erfordern, verwendet NOBLE neuronale Operatoren, um das Verhalten tatsächlicher biologischer Neuronen zu reproduzieren, einschließlich ihrer Feuerfrequenzen und Reaktionen auf Reize. Diese Geschwindigkeit ermöglicht es Forschern, Simulationen auf größere Gehirnschaltkreise zu skalieren, an denen Millionen miteinander verbundener Zellen beteiligt sind. Das Rahmenwerk zielt darauf ab, die Erforschung von Hirnerkrankungen wie Epilepsie und Alzheimer zu beschleunigen, indem es Wissenschaftlern ermöglicht, Hypothesen schnell zu testen, ohne sich ausschließlich auf begrenzte Tier- oder Menschenversuche zu verlassen.


Hervorgehobener Bildnachweis

Tags: ForschungGehirnaktivitätHervorgehoben

Related Posts

Wissenschaftler entdecken mehr als 17.000 neue Arten

Wissenschaftler entdecken mehr als 17.000 neue Arten

Dezember 26, 2025
GPT-5.2 übertrifft mit 92 % der wissenschaftlichen Bewertung die Baseline der Experten-Doktorarbeit

GPT-5.2 übertrifft mit 92 % der wissenschaftlichen Bewertung die Baseline der Experten-Doktorarbeit

Dezember 24, 2025
Warum DIG AI die gefährlichste bösartige KI des Jahres 2025 ist

Warum DIG AI die gefährlichste bösartige KI des Jahres 2025 ist

Dezember 23, 2025
Natrium-Ionen-Batterien nähern sich dem Schnellladen, da Forscher Ionenengpässe überwinden

Natrium-Ionen-Batterien nähern sich dem Schnellladen, da Forscher Ionenengpässe überwinden

Dezember 19, 2025
Den 2-Billionen-Dollar-Gespenst einfangen: KI schreibt die Regeln der Finanzkriminalität neu

Den 2-Billionen-Dollar-Gespenst einfangen: KI schreibt die Regeln der Finanzkriminalität neu

Dezember 15, 2025
LLMs zeigen deutliche kulturelle Vorurteile bei englischen und chinesischen Eingabeaufforderungen

LLMs zeigen deutliche kulturelle Vorurteile bei englischen und chinesischen Eingabeaufforderungen

Dezember 15, 2025

Recent Posts

  • Alibabas Qwen Code v0.5.0 verwandelt das Terminal in ein vollständiges Entwicklungsökosystem
  • Bethesda strebt für Fallout 5 ein Gameplay von 600 Stunden an
  • ASUS verteidigt den falsch ausgerichteten RTX 5090 HyperX-Stromanschluss als "absichtliches Design"
  • NVIDIA Open-Source-CUDA Tile IR auf GitHub
  • Der CEO von MicroStrategy sagt zu den Bitcoin-Grundlagen "könnte nicht besser sein"

Recent Comments

Es sind keine Kommentare vorhanden.
Dataconomy DE

COPYRIGHT © DATACONOMY MEDIA GMBH, ALL RIGHTS RESERVED.

  • Home
  • Sample Page

Follow Us

  • Home
  • Sample Page
No Result
View All Result
Subscribe

This website uses cookies. By continuing to use this website you are giving consent to cookies being used. Visit our Privacy Policy.