Eine neue Studie veröffentlicht in Natur menschliches Verhalten stellt die vorherrschende Annahme in Frage, dass sich generative künstliche Intelligenz in verschiedenen Sprachen konsistent verhält, und zeigt stattdessen, dass große Sprachmodelle (LLMs) unterschiedliche kulturelle Tendenzen aufweisen, je nachdem, ob sie auf Englisch oder Chinesisch aufgerufen werden. Die Forscher Jackson G. Lu und Lu Doris Zhang untersuchten zwei Hauptmodelle, GPT von OpenAI und ERNIE von Baidu, und fanden heraus, dass die Sprache der Eingabeaufforderung die „kulturelle Persönlichkeit“ der KI effektiv verändert und beeinflusst, wie sie Informationen interpretiert, Optionen bewertet und strategische Empfehlungen formuliert.
Die Forschung nutzte Rahmenwerke aus der Kulturpsychologie, um zwei Hauptkonstrukte zu messen: soziale Orientierung und kognitiver Stil. Bei Eingaben auf Englisch zeigten beide Modelle eine „unabhängige“ soziale Orientierung, die Autonomie und Selbstbestimmung schätzte, sowie einen „analytischen“ kognitiven Stil, der durch die Abhängigkeit von formaler Logik und regelbasiertem Denken gekennzeichnet war. Umgekehrt verlagerten sich die Modelle, wenn sie auf Chinesisch aufgefordert wurden, in Richtung einer „interdependenten“ Ausrichtung, die soziale Harmonie und Konformität betonte, neben einem „ganzheitlichen“ kognitiven Stil, der Kontext und Beziehungen Vorrang vor Fokusobjekten einräumt.
Diese Unterschiede manifestierten sich in praktischen Geschäftsszenarien. Wenn man beispielsweise darum bat, das Verhalten einer Person zu erklären, führten englische Eingabeaufforderungen dazu, dass die KI Handlungen der Persönlichkeit der Person zuordnete, wohingegen chinesische Eingabeaufforderungen zu Zuschreibungen führten, die auf dem sozialen Kontext basierten. Bei einer Marketingaufgabe bevorzugten die Modelle Slogans, die das individuelle Wohlbefinden hervorhoben, wenn sie auf Englisch abgefragt wurden, bevorzugten jedoch Slogans, die das kollektive Wohlbefinden betonten, wenn sie auf Chinesisch abgefragt wurden. Die Studie stellt fest, dass die bloße Übersetzung einer englischsprachigen Kampagne für einen chinesischen Markt zu einer kulturellen Diskrepanz führen könnte, die dazu führen könnte, dass die Botschaften versagen.
Allerdings stellten die Forscher fest, dass diese Vorurteile nicht unveränderlich sind. Durch die Verwendung „kultureller Eingabeaufforderungen“ – beispielsweise durch die explizite Anweisung der KI, die Perspektive einer durchschnittlichen in China lebenden Person einzunehmen – könnten Benutzer die englischen Antworten des Modells neu kalibrieren, um die voneinander abhängigen und ganzheitlichen Muster nachzuahmen, die normalerweise in chinesischen Antworten zu sehen sind. Um diese versteckten Vorurteile in den Griff zu bekommen, raten die Autoren Organisationsleitern, die Wahl der Sprache als strategische Entscheidung zu betrachten, die Sprache der Aufforderungen an den kulturellen Kontext der Zielgruppe anzupassen und kulturelle Persona-Eingabeaufforderungen zu nutzen, um die Argumentation der KI zu angemesseneren Erkenntnissen zu führen.





