Dataconomy DE
Subscribe
No Result
View All Result
Dataconomy DE
Subscribe
No Result
View All Result
Dataconomy DE
No Result
View All Result

Wie Googles DataGemma RAG nutzt, um KI-Halluzinationen zu bekämpfen

byKerem Gülen
September 17, 2024
in Artificial Intelligence
Home Artificial Intelligence

Google hat im Rennen um die Verbesserung der Genauigkeit und Zuverlässigkeit von KI-Modellen einen weiteren bedeutenden Schritt nach vorne gemacht mit dem Einführung von DataGemma, einem innovativen Ansatz, der seine Gemma Large Language Models (LLMs) und das Data Commons-Projekt kombiniert. Im Mittelpunkt steht hier eine Technik namens Retrieval-Augmented Generation (RAG)eine Methode, die in Unternehmen immer mehr Anklang findet, die Google jetzt mit DataGemma aber in den KI-Mainstream bringen möchte.

Im Kern versucht RAG, eine der größten Herausforderungen für LLMs zu lösen: das Problem der Halluzinationen. In der Welt der generativen KI beziehen sich Halluzinationen auf Fälle, in denen das Modell Informationen generiert, die plausibel klingen, aber sachlich falsch sind. Dies ist ein häufiges Problem bei KI-Systemen, insbesondere wenn ihnen eine zuverlässige Grundlage in faktischen Daten fehlt. Googles Ziel mit DataGemma ist es, „das Wissen von Data Commons zu nutzen, um die Faktizität und Argumentation von LLMs zu verbessern“ und dieses Problem direkt anzugehen.

Was ist RAG?

Retrieval-Augmented Generation ist ein Game Changer, da es sich nicht ausschließlich auf vorab trainierte KI-Modelle verlässt, um Antworten zu generieren. Stattdessen ruft es relevante Daten aus einer externen Quelle ab, bevor es eine Antwort generiert. Dieser Ansatz ermöglicht es der KI, genauere und kontextbezogenere Antworten zu liefern, indem sie reale Daten aus Repositorien abruft. Im Fall von DataGemma ist die Quelle dieser Daten Googles Data Commons-Projekteine öffentlich zugängliche Ressource, die statistische Daten von angesehenen Institutionen wie den Vereinten Nationen zusammenfasst.

Dieser Schritt von Google, Data Commons in seine generativen KI-Modelle zu integrieren, stellt den erste groß angelegte Cloud-basierte Implementierung von RAG. Während viele Unternehmen RAG verwendet haben, um ihre KI-Modelle auf proprietären Daten zu gründen, bringt die Verwendung einer öffentlichen Datenressource wie Data Commons die Dinge auf eine ganz neue Ebene. Es signalisiert Googles Absicht, überprüfbare, qualitativ hochwertige Daten zu verwenden, um KI für eine breite Palette von Anwendungen zuverlässiger und nützlicher zu machen.

Wie Googles DataGemma RAG nutzt, um KI-Halluzinationen zu bekämpfen
Laut Google verfolgt DataGemma „zwei unterschiedliche Ansätze“, um den Datenabruf mit der LLM-Ausgabe zu integrieren (Bildnachweis)

Googles zweigleisiger Ansatz

Laut Google DataGemma verfolgt „zwei unterschiedliche Ansätze“ um den Datenabruf mit der LLM-Ausgabe zu integrieren. Die erste Methode heißt Retrieval-Interleaved-Generation (RIG). Mit RIG ruft die KI spezifische statistische Daten ab, um die in der Abfrage gestellten Fragen auf ihren Wahrheitsgehalt zu überprüfen. Wenn ein Benutzer beispielsweise fragt: „Hat die Nutzung erneuerbarer Energien weltweit zugenommen?“, kann das System aktuelle Statistiken von Data Commons abrufen und diese direkt in seiner Antwort zitieren. Dies verbessert nicht nur die sachliche Genauigkeit der Antwort, sondern bietet den Benutzern auch konkrete Quellen für die Informationen.

Die zweite Methode entspricht eher dem traditionellen RAG-Ansatz. Hier ruft das Modell Daten ab, um umfassendere und detailliertere Antworten zu generieren, wobei die Datenquellen angegeben werden, um ein vollständigeres Bild zu erstellen. „DataGemma ruft relevante Kontextinformationen von Data Commons ab, bevor das Modell mit der Antwortgenerierung beginnt“, Google gibt an. Dadurch wird sichergestellt, dass die KI alle erforderlichen Fakten zur Hand hat, bevor sie mit der Generierung einer Antwort beginnt, wodurch die Wahrscheinlichkeit von Halluzinationen erheblich verringert wird.

Ein Hauptmerkmal von DataGemma ist die Verwendung von Googles Gemini 1.5-Modelldas über eine beeindruckende Kontextfenster von bis zu 128.000 Token. In der KI-Terminologie bezieht sich das Kontextfenster darauf, wie viele Informationen das Modell während der Verarbeitung einer Abfrage im Speicher halten kann. Je größer das Fenster, desto mehr Daten kann das Modell bei der Generierung einer Antwort berücksichtigen. Gemini 1.5 kann sogar auf eine erstaunliche 1 Million Tokenwodurch riesige Datenmengen aus Data Commons abgerufen und für die Erstellung detaillierter, differenzierter Antworten verwendet werden können.

Dieses erweiterte Kontextfenster ist von entscheidender Bedeutung, da es DataGemma ermöglicht, „Minimieren Sie das Risiko von Halluzinationen und verbessern Sie die Genauigkeit der Antworten“, laut Google. Indem das Modell mehr relevante Informationen im Speicher behält, kann es seine eigenen Ergebnisse mit realen Daten abgleichen und so sicherstellen, dass die Antworten, die es liefert, nicht nur relevant, sondern auch faktisch fundiert sind.

Wie Googles DataGemma RAG nutzt, um KI-Halluzinationen zu bekämpfen
Ein Hauptmerkmal von DataGemma ist die Verwendung des Gemini 1.5-Modells von Google (Bildnachweis)

Über LLMs hinaus

Während die Integration von RAG-Techniken an sich schon spannend ist, DataGemma steht auch für einen breiteren Wandel in der KI-Landschaft. Es geht nicht mehr nur darum, dass große Sprachmodelle Text generieren oder Fragen auf der Grundlage dessen beantworten, was sie trainiert haben. Die Zukunft der KI liegt in ihrer Fähigkeit, Integration mit Echtzeit-Datenquellenund stellt sicher, dass die Ergebnisse so genau und aktuell wie möglich sind.

Google ist mit diesem Vorhaben nicht allein. Erst letzte Woche OpenAI vorgestellt es ist Projekt „Erdbeere“das einen anderen Ansatz zur Verbesserung des KI-Argumentation verfolgt. Strawberry verwendet eine Methode namens „Gedankenkette“bei dem die KI die Schritte oder Faktoren darlegt, die sie verwendet, um zu einer Vorhersage oder Schlussfolgerung zu gelangen. Das Ziel ist zwar anders als bei RAG, aber ähnlich: KI transparenter, zuverlässiger und nützlicher zu machen, indem Einblicke in die Überlegungen hinter ihren Antworten gewährt werden.

Was kommt als Nächstes für DataGemma?

Derzeit ist DataGemma noch in der Entwicklungsphase. Google erkennt an, dass mehr Tests und Entwicklung erforderlich sind bevor das System der breiten Öffentlichkeit zugänglich gemacht werden kann. Die ersten Ergebnisse sind jedoch vielversprechend. Google behauptet, dass sowohl der RIG- als auch der RAG-Ansatz zu Verbesserungen der Ausgabequalität geführt haben. „weniger Halluzinationen bei Anwendungsfällen in der Forschung, bei der Entscheidungsfindung oder einfach bei der Befriedigung der Neugier.“

Es ist klar, dass Google, wie auch andere führende KI-Unternehmen, über die grundlegenden Fähigkeiten großer Sprachmodelle hinausgeht. Die Zukunft der KI liegt in ihrer Fähigkeit, externe Datenquellen zu integrieren, seien es öffentliche Datenbanken wie Data Commons oder proprietäre Unternehmensdaten. Auf diese Weise kann die KI ihre Grenzen überwinden und zu einem leistungsfähigeren Werkzeug für Entscheidungsfindung, Forschung und Erkundung werden.


Bildnachweis: Google

Tags: DatengemmaEmpfohlenGoogle

Related Posts

Alphaevolve: Wie Googles neue KI mit Selbstkorrektur auf die Wahrheit strebt

Alphaevolve: Wie Googles neue KI mit Selbstkorrektur auf die Wahrheit strebt

Mai 15, 2025
TIKTOK implementiert AI-generierte ALT-Texte, um eine bessere Akzierbarkeit zu erhalten

TIKTOK implementiert AI-generierte ALT-Texte, um eine bessere Akzierbarkeit zu erhalten

Mai 15, 2025
Die KI von YouTube weiß jetzt, wann Sie kurz vor dem Kauf sind

Die KI von YouTube weiß jetzt, wann Sie kurz vor dem Kauf sind

Mai 15, 2025
Der CEO von SoundCloud gibt zu, dass KI -Begriffe nicht klar genug waren, ein neues Versprechen herausgibt

Der CEO von SoundCloud gibt zu, dass KI -Begriffe nicht klar genug waren, ein neues Versprechen herausgibt

Mai 15, 2025
Lightricks enthüllt ein 13B LTX -Videomodell für die HQ -AI -Videogenerierung

Lightricks enthüllt ein 13B LTX -Videomodell für die HQ -AI -Videogenerierung

Mai 14, 2025
Xai vermisst seine eigene KI -Sicherheitsfrist, was jetzt jetzt ist

Xai vermisst seine eigene KI -Sicherheitsfrist, was jetzt jetzt ist

Mai 14, 2025

Recent Posts

  • Databricks -Wetten auf serverlose Postgres mit seiner Akquisition von 1 Milliarde US -Dollar
  • Alphaevolve: Wie Googles neue KI mit Selbstkorrektur auf die Wahrheit strebt
  • TIKTOK implementiert AI-generierte ALT-Texte, um eine bessere Akzierbarkeit zu erhalten
  • Trump zwingt Apple, seine indische iPhone -Strategie in Indien zu überdenken
  • Die KI von YouTube weiß jetzt, wann Sie kurz vor dem Kauf sind

Recent Comments

Es sind keine Kommentare vorhanden.
Dataconomy DE

COPYRIGHT © DATACONOMY MEDIA GMBH, ALL RIGHTS RESERVED.

  • Home
  • Sample Page

Follow Us

  • Home
  • Sample Page
No Result
View All Result
Subscribe

This website uses cookies. By continuing to use this website you are giving consent to cookies being used. Visit our Privacy Policy.