Laut einer aktuellen Studie mit über 10.000 Teilnehmern kann die Verwendung großer Sprachmodelle (LLMs) zur Zusammenfassung von Informationen den Wissenserwerb beeinträchtigen. Die Marketingprofessoren Jin Ho Yun und Shiri Melumad haben gemeinsam einen Artikel verfasst, in dem sie dieses Ergebnis in sieben Studien detailliert beschreiben. Die Teilnehmer wurden beauftragt, ein Thema, beispielsweise Gemüseanbau, entweder über ein LLM wie ChatGPT oder eine Standard-Google-Suche zu erlernen. Die Forscher legten den Teilnehmern keine Beschränkungen hinsichtlich der Dauer der Werkzeugnutzung oder der Interaktion vor. Anschließend schrieben die Teilnehmer auf der Grundlage ihrer erlernten Informationen Ratschläge für einen Freund. Die Daten zeigten durchweg, dass diejenigen, die LLMs zum Lernen nutzten, den Eindruck hatten, dass sie weniger lernten und weniger Aufwand in die Erstellung von Ratschlägen investierten. Ihre Ratschläge waren kürzer, weniger sachlich und allgemeiner. Eine unabhängige Stichprobe von Lesern empfand die LLM-Ratschläge als weniger informativ, weniger hilfreich und war weniger geneigt, sie zu übernehmen. Diese Unterschiede blieben in verschiedenen Kontexten bestehen. Ein Experiment kontrollierte potenzielle Unterschiede im Informationseklektizismus, indem die Teilnehmer identischen Fakten aus Google- und ChatGPT-Suchen ausgesetzt wurden. Bei einem anderen Experiment wurde die Suchplattform Google beibehalten und variiert, ob die Teilnehmer aus Standard-Google-Ergebnissen oder der KI-Übersichtsfunktion von Google lernten. Selbst wenn Fakten und Plattform standardisiert waren, führte das Lernen aus synthetisierten LLM-Antworten zu einem oberflächlicheren Wissen im Vergleich zum Sammeln, Interpretieren und Synthetisieren von Informationen über Standard-Weblinks. Die Studie führt dieses verminderte Lernen auf ein vermindertes aktives Engagement zurück. Google-Suchen sind mit mehr „Reibung“ verbunden und erfordern Navigation, Lesen, Interpretation und Synthese verschiedener Weblinks, was eine tiefere mentale Repräsentation fördert. LLMs übernehmen diesen Prozess für den Benutzer und verlagern das Lernen vom aktiven zum passiven Lernen. Forscher plädieren nicht dafür, LLMs zu meiden, da sie in anderen Kontexten Vorteile bieten. Stattdessen schlagen sie vor, dass Benutzer strategischer vorgehen, indem sie verstehen, wo LLMs für ihre Ziele vorteilhaft oder schädlich sind. Für schnelle, sachliche Antworten eignen sich LLMs. Für die Entwicklung tiefer, verallgemeinerbarer Kenntnisse ist es jedoch weniger effektiv, sich ausschließlich auf LLM-Synthesen zu verlassen. Weitere Experimente umfassten ein spezielles GPT-Modell, das neben synthetisierten Antworten auch Echtzeit-Weblinks bereitstellte. Teilnehmer, die eine LLM-Zusammenfassung erhielten, waren nicht motiviert, Originalquellen zu erkunden, was im Vergleich zu Teilnehmern, die Standard-Google nutzten, zu einem oberflächlicheren Wissen führte. Zukünftige Forschungen werden generative KI-Tools untersuchen, die „gesunde Reibungen“ einführen, um aktives Lernen über einfach zu synthetisierende Antworten hinaus zu fördern, insbesondere im Sekundarbereich. Dieser Artikel wurde erneut veröffentlicht von Das Gespräch.





