Google hat im Rennen um die Verbesserung der Genauigkeit und Zuverlässigkeit von KI-Modellen einen weiteren bedeutenden Schritt nach vorne gemacht mit dem Einführung von DataGemma, einem innovativen Ansatz, der seine Gemma Large Language Models (LLMs) und das Data Commons-Projekt kombiniert. Im Mittelpunkt steht hier eine Technik namens Retrieval-Augmented Generation (RAG)eine Methode, die in Unternehmen immer mehr Anklang findet, die Google jetzt mit DataGemma aber in den KI-Mainstream bringen möchte.
Im Kern versucht RAG, eine der größten Herausforderungen für LLMs zu lösen: das Problem der Halluzinationen. In der Welt der generativen KI beziehen sich Halluzinationen auf Fälle, in denen das Modell Informationen generiert, die plausibel klingen, aber sachlich falsch sind. Dies ist ein häufiges Problem bei KI-Systemen, insbesondere wenn ihnen eine zuverlässige Grundlage in faktischen Daten fehlt. Googles Ziel mit DataGemma ist es, „das Wissen von Data Commons zu nutzen, um die Faktizität und Argumentation von LLMs zu verbessern“ und dieses Problem direkt anzugehen.
Was ist RAG?
Retrieval-Augmented Generation ist ein Game Changer, da es sich nicht ausschließlich auf vorab trainierte KI-Modelle verlässt, um Antworten zu generieren. Stattdessen ruft es relevante Daten aus einer externen Quelle ab, bevor es eine Antwort generiert. Dieser Ansatz ermöglicht es der KI, genauere und kontextbezogenere Antworten zu liefern, indem sie reale Daten aus Repositorien abruft. Im Fall von DataGemma ist die Quelle dieser Daten Googles Data Commons-Projekteine öffentlich zugängliche Ressource, die statistische Daten von angesehenen Institutionen wie den Vereinten Nationen zusammenfasst.
Dieser Schritt von Google, Data Commons in seine generativen KI-Modelle zu integrieren, stellt den erste groß angelegte Cloud-basierte Implementierung von RAG. Während viele Unternehmen RAG verwendet haben, um ihre KI-Modelle auf proprietären Daten zu gründen, bringt die Verwendung einer öffentlichen Datenressource wie Data Commons die Dinge auf eine ganz neue Ebene. Es signalisiert Googles Absicht, überprüfbare, qualitativ hochwertige Daten zu verwenden, um KI für eine breite Palette von Anwendungen zuverlässiger und nützlicher zu machen.
Googles zweigleisiger Ansatz
Laut Google DataGemma verfolgt „zwei unterschiedliche Ansätze“ um den Datenabruf mit der LLM-Ausgabe zu integrieren. Die erste Methode heißt Retrieval-Interleaved-Generation (RIG). Mit RIG ruft die KI spezifische statistische Daten ab, um die in der Abfrage gestellten Fragen auf ihren Wahrheitsgehalt zu überprüfen. Wenn ein Benutzer beispielsweise fragt: „Hat die Nutzung erneuerbarer Energien weltweit zugenommen?“, kann das System aktuelle Statistiken von Data Commons abrufen und diese direkt in seiner Antwort zitieren. Dies verbessert nicht nur die sachliche Genauigkeit der Antwort, sondern bietet den Benutzern auch konkrete Quellen für die Informationen.
Die zweite Methode entspricht eher dem traditionellen RAG-Ansatz. Hier ruft das Modell Daten ab, um umfassendere und detailliertere Antworten zu generieren, wobei die Datenquellen angegeben werden, um ein vollständigeres Bild zu erstellen. „DataGemma ruft relevante Kontextinformationen von Data Commons ab, bevor das Modell mit der Antwortgenerierung beginnt“, Google gibt an. Dadurch wird sichergestellt, dass die KI alle erforderlichen Fakten zur Hand hat, bevor sie mit der Generierung einer Antwort beginnt, wodurch die Wahrscheinlichkeit von Halluzinationen erheblich verringert wird.
Ein Hauptmerkmal von DataGemma ist die Verwendung von Googles Gemini 1.5-Modelldas über eine beeindruckende Kontextfenster von bis zu 128.000 Token. In der KI-Terminologie bezieht sich das Kontextfenster darauf, wie viele Informationen das Modell während der Verarbeitung einer Abfrage im Speicher halten kann. Je größer das Fenster, desto mehr Daten kann das Modell bei der Generierung einer Antwort berücksichtigen. Gemini 1.5 kann sogar auf eine erstaunliche 1 Million Tokenwodurch riesige Datenmengen aus Data Commons abgerufen und für die Erstellung detaillierter, differenzierter Antworten verwendet werden können.
Dieses erweiterte Kontextfenster ist von entscheidender Bedeutung, da es DataGemma ermöglicht, „Minimieren Sie das Risiko von Halluzinationen und verbessern Sie die Genauigkeit der Antworten“, laut Google. Indem das Modell mehr relevante Informationen im Speicher behält, kann es seine eigenen Ergebnisse mit realen Daten abgleichen und so sicherstellen, dass die Antworten, die es liefert, nicht nur relevant, sondern auch faktisch fundiert sind.
Über LLMs hinaus
Während die Integration von RAG-Techniken an sich schon spannend ist, DataGemma steht auch für einen breiteren Wandel in der KI-Landschaft. Es geht nicht mehr nur darum, dass große Sprachmodelle Text generieren oder Fragen auf der Grundlage dessen beantworten, was sie trainiert haben. Die Zukunft der KI liegt in ihrer Fähigkeit, Integration mit Echtzeit-Datenquellenund stellt sicher, dass die Ergebnisse so genau und aktuell wie möglich sind.
Google ist mit diesem Vorhaben nicht allein. Erst letzte Woche OpenAI vorgestellt es ist Projekt „Erdbeere“das einen anderen Ansatz zur Verbesserung des KI-Argumentation verfolgt. Strawberry verwendet eine Methode namens „Gedankenkette“bei dem die KI die Schritte oder Faktoren darlegt, die sie verwendet, um zu einer Vorhersage oder Schlussfolgerung zu gelangen. Das Ziel ist zwar anders als bei RAG, aber ähnlich: KI transparenter, zuverlässiger und nützlicher zu machen, indem Einblicke in die Überlegungen hinter ihren Antworten gewährt werden.
Was kommt als Nächstes für DataGemma?
Derzeit ist DataGemma noch in der Entwicklungsphase. Google erkennt an, dass mehr Tests und Entwicklung erforderlich sind bevor das System der breiten Öffentlichkeit zugänglich gemacht werden kann. Die ersten Ergebnisse sind jedoch vielversprechend. Google behauptet, dass sowohl der RIG- als auch der RAG-Ansatz zu Verbesserungen der Ausgabequalität geführt haben. „weniger Halluzinationen bei Anwendungsfällen in der Forschung, bei der Entscheidungsfindung oder einfach bei der Befriedigung der Neugier.“
Es ist klar, dass Google, wie auch andere führende KI-Unternehmen, über die grundlegenden Fähigkeiten großer Sprachmodelle hinausgeht. Die Zukunft der KI liegt in ihrer Fähigkeit, externe Datenquellen zu integrieren, seien es öffentliche Datenbanken wie Data Commons oder proprietäre Unternehmensdaten. Auf diese Weise kann die KI ihre Grenzen überwinden und zu einem leistungsfähigeren Werkzeug für Entscheidungsfindung, Forschung und Erkundung werden.
Bildnachweis: Google