Künstliche allgemeine Intelligenz (AGI), eine theoretische Form der KI, die menschliche Intelligenz nachahmen kann, könnte weitreichende Veränderungen in der Welt der Technologie bewirken. Im Gegensatz zur heutigen eingeschränkten KI, die für bestimmte Aufgaben wie die Identifizierung von Produktfehlern oder das Zusammenfassen von Nachrichtenartikeln programmiert ist, verspricht AGI Anpassungsfähigkeit an ein breites Spektrum gedankenbasierter Herausforderungen. Allerdings sind Branchenkenner wie Nvidia-CEO Jensen Huang verständlicherweise vorsichtig, wenn es darum geht, einen konkreten Zeitplan für sein Aufkommen vorherzusagen.
AGI könnte in fünf Jahren auf sich warten lassen
Die ethischen und gesellschaftlichen Auswirkungen von AGI sind von großer Bedeutung. Wenn diese Systeme ihre eigenen Ziele entwickeln, die nicht mit den menschlichen Zielen übereinstimmen, könnte dies schwerwiegende Folgen haben. Es besteht die Befürchtung, dass eine ausreichend fortgeschrittene AGI unkontrollierbar werden könnte, mit Ergebnissen, die sich weder vorhersehen noch rückgängig machen lassen.
Während er zögert, sich auf die von den Medien favorisierten apokalyptischen Szenarien einzulassen, Huang erkennt die Komplexität der Entwicklung von AGI. Ein Haupthindernis besteht darin, objektive Kriterien festzulegen, um zu definieren, was echte AGI ausmacht. Ist es rein leistungsbasiert? Könnte AGI an seiner Fähigkeit gemessen werden, unabhängig zu denken, zu planen oder zu lernen?

Huang nutzte die Gelegenheit, den Medien seine Ansichten zu diesem Thema mitzuteilen. Er geht davon aus, dass die Vorhersage der Ankunft eines realisierbaren AGI von der Definition des AGI selbst abhängt. Er zieht einen Vergleich und stellt fest, dass trotz der Komplexität, die Zeitzonen mit sich bringen, Klarheit darüber besteht, wann Neujahr ist und wann das Jahr 2025 beginnen wird.
„Wenn wir AGI als etwas ganz Spezifisches definieren würden, eine Reihe von Tests, bei denen ein Softwareprogramm sehr gut abschneiden kann – oder vielleicht 8 % besser als die meisten Leute – Ich glaube, dass wir innerhalb von fünf Jahren dorthin gelangen werden“, bemerkt Huang. Er schlägt hypothetische AGI-Meilensteine vor, wie zum Beispiel das Übertreffen von Experten bei juristischen, wirtschaftlichen oder medizinischen Untersuchungen. Doch solange das Konzept der AGI nicht konkreter definiert ist, bleiben genaue Vorhersagen schwierig.
Das Problem mit den Halluzinationen
Ein weiteres großes Anliegen betrifft das Thema KI.“Halluzinationen“ – diese scheinbar plausiblen, aber letztendlich unwahren Aussagen einiger KI-Modelle. Huang zeigt sich jedoch zuversichtlich, dass dieses Problem durch die Betonung strenger Verifizierungspraktiken gelöst werden kann.
Huang betont die Notwendigkeit, der Erstellung von KI-generierten Antworten eine Forschungsdimension hinzuzufügen, und bezeichnet dies als „abrufgestützte Generierung“. Er besteht darauf: „Fügen Sie eine Regel hinzu: Für jede einzelne Antwort müssen Sie die Antwort nachschlagen“ und definiert diese Methode als „Abruf-erweiterte Generation.„Diese Strategie, erläutert er, spiegelt die Grundprinzipien der Medienkompetenz wider, zu denen die Bewertung der Herkunft und des Kontexts von Informationen gehört.

Das Verfahren beinhaltet den Vergleich der Informationen aus der Quelle mit etablierten Wahrheiten. Sollten sich die Informationen auch nur geringfügig als falsch erweisen, sollte die Quelle beiseite gelassen und nach einer anderen gesucht werden. Huang betont, dass die Rolle der KI nicht nur darin besteht, Antworten zu liefern, sondern auch Voruntersuchungen durchzuführen, um die genauesten Antworten zu ermitteln.
Für Antworten, die von großer Bedeutung sind, wie zum Beispiel medizinische Beratung, schlägt der Nvidia-Chef vor, dass die Überprüfung der Informationen aus verschiedenen vertrauenswürdigen Quellen von entscheidender Bedeutung ist. Das bedeutet, dass die für die Generierung von Antworten verantwortliche KI in der Lage sein muss zu erkennen, wenn ihr ausreichende Informationen für eine Antwort fehlen, wenn kein klarer Konsens über die richtige Antwort besteht oder wenn bestimmte Informationen, wie der Ausgang zukünftiger Ereignisse, ist noch nicht verfügbar.
Hervorgehobener Bildnachweis: NVIDIA