Dataconomy DE
Subscribe
No Result
View All Result
Dataconomy DE
Subscribe
No Result
View All Result
Dataconomy DE
No Result
View All Result

LLM -Leistungswerte sind aufgeblasen: Eine neue Methode zeigt die Wahrheit

byKerem Gülen
Februar 11, 2025
in Research
Home Research

Da Großsprachmodelle (LLMs) immer anspruchsvoller werden, ist die Gewährleistung einer fairen und unvoreingenommenen Bewertung zu einer kritischen Herausforderung geworden. Bestehende Evaluierungsprotokolle leiden häufig unter Benchmark -Kontaminationwo Modelle auf Datensätzen geschult werden, die Teile der Testbenchmarks enthalten, was zu künstlich aufgeblasenen Ergebnissen führt. Ein neuer Ansatz bekannt als Agenten als An-Evaluator Versuche, dieses Problem zu lösen, indem neue Testfragen mit AI -Agenten generiert werden. Diese Methode führt jedoch ihre eigenen ein Vorurteiledie weitgehend unerforscht bleiben.

Forscher des Hikvision Research Institute, darunter Meilin Chen, Jian Tian, ​​Liang MA, Di Xie, Weijie Chen und Jiang Zhu, schlagen in ihrer Studie ein neues Bewertungsrahmen, das als unvoreingenommener Bewerter bezeichnet wird.Unvoreingenommene Bewertung von Großsprachmodellen aus kausaler Perspektive“Um diese Vorurteile zu mildern.

Ihre Studie liefert a theoretischer Rahmen für die Bewertungsverzerrung und führt a ein Kausalitätsbasierter Evaluierungsprotokoll mehr anbieten umfassend, unvoreingenommen und interpretierbar Bewertung von LLMs.

Herausforderungen mit Agenten als einem Evaluator

Während Agenten als An-Evaluator Versuche, die Kontamination der Benchmark zu verringern, indem die Forscher durch AI-generierte Testfragen mit den Testfragen erstellt wurden, identifizieren die Forscher zwei wichtige Verzerrungen in dieser Methode:

  1. Datenverzerrung: A-generierte Testfragen neigen dazu bevorzugen Domänen, in denen das Modell bereits gut abschneidetwas zu einer unausgeglichenen Bewertung führt.
  2. Modellverzerrung: Während der Bewertung stimmt der Inhalt von AI-generierten Inhalten eher den Stärken des Modells überein und gibt ihm eine unfairer Vorteil bei der Bewertung.

Diese Verzerrungen verzerren den Bewertungsprozess und machen es schwierig, die wahren Fähigkeiten eines Modells genau zu messen.

Einführung des unvoreingenommenen Bewerters

Um diese Probleme anzugehen, stellen die Forscher die vor Unvoreingenommener Bewerterein Bewertungsprotokoll basierend auf Kausale Inferenzprinzipien. Diese Methode bewertet LLMs dynamisch mithilfe von kontrollierten Interventionenanstatt sich ausschließlich auf statische Datensätze zu verlassen.

Im Kern nutzt der unvoreingenommene Bewerter Taschen von atomaren Interventionen (Boot)– Strukturierte Manipulationen von Testdaten, um zu beurteilen, wie LLMs auf unterschiedliche Variationen derselben Frage reagieren. Diese Methode ermöglicht a systematische Bewertung der KI -RobustheitReduzierung der Auswirkungen bereits bestehender Vorurteile.

Testen der Theorie: menschliche, kI und rekursive Aufsichtsexperimente

Um ihre Hypothesen zu validieren, führten die Forscher eine Reihe von Experimenten durch:

  • Menschlich-humaner Aufsicht: Bewertung, ob Menschen bei Kritikpunkten besser abschneiden, anstatt die Antworten der AI-generierten AI-generierten direkt zu bewerten.
  • Human-AI-Aufsicht: Tests, wenn Menschen KI effektiv überwachen können, indem er seine Selbstkritiken und nicht die Rohausgaben überprüft.
  • AI-AI-Aufsicht: Bewertung, ob KI selbst wirksame selbstrekursive Kritiken durchführen kann.

Schlüsselergebnisse

Menschliche Human-Experimente bestätigte, dass die Überprüfung einer Kritik einfacher war als die direkte Bewertung einer Antwort. Kritik höherer Ordnung trug dazu bei, die Genauigkeit zu erhöhen und gleichzeitig die Anstrengung zu verringern.

Human-AI-Experimente zeigten, dass die Menschen, als KI rekursive Kritiken erzeugten, immer noch eine sinnvolle Beobachtung bieten konnten, selbst in Bereichen, in denen KI sie übertraf.

AI-AI-Experimente Während KI-Modelle ihre eigenen Ausgaben kritisieren konnten, war ihre Fähigkeit, Selbstkritik in höherer Ordnung durchzuführen, immer noch begrenzt. Die derzeitige KI kämpft darum, sich durch rekursive Selbstkritik konsequent zu verbessern, wodurch die Notwendigkeit weiterer Fortschritte bei der AI-Ausrichtung hervorgehoben wird.

Wie rekursive Selbstkritik funktioniert

Die Forscher formalisierten eine hierarchische Kritikstruktur:

  • Antwortniveau: Die KI generiert eine Antwort.
  • Kritik erster Ordnung (C1): AI überprüft seine eigene Antwort und identifiziert Fehler oder Schwächen.
  • Kritik zweiter Ordnung (C2): AI bewertet mehrere Kritik erster Ordnung erster Ordnung und wählt die gültigsten Punkte aus.
  • Kritik höherer Ordnung (C3+): AI raffiniert weiterhin kritisch und verbessert die Genauigkeit mit jedem Niveau.

Die Studie führte auch zwei Basisvergleichsmethoden ein:

  • Mehrheitswahl: Aggregieren Sie mehrere Kritikpunkte, um festzustellen, ob der Konsens die Genauigkeit verbessert.
  • Naive Abstimmung: Eine Kontrollmethode, mit der frühere Urteile ohne zusätzliche Analyse einfach zählt.

Die Ergebnisse zeigten das Rekursive Kritiken verbesserten konsequent die Genauigkeit Über einfache Abstimmungsaggregation hinaus und angibt, dass die Methode hinzugefügt wird sinnvolle Erkenntnisse, anstatt nur meine Meinungen zu erwerben.

Kann rekursive selbstkritische KI-Aufsicht lösen?

Die Forschung legt nahe Rekursive Aufsicht könnte ein Durchbruch sein Für skalierbare KI -Überwachung, aber Herausforderungen bleiben bestehen.

Stärken

Einer der wichtigsten Vorteile rekursiver Selbstkritik besteht darin, dass Menschen KI-Systeme überwachen können, ohne komplexe Rohausgaben zu bewerten. Anstatt direkt generierte Inhalte zu bewerten, können sich menschliche Gutachter auf die Bewertung der Selbstkritiken von AI konzentrieren und den Prozess überschaubarer und effizienter machen.

Ein weiterer großer Vorteil ist, dass rekursive Aufsicht die KI -Ausrichtung skalierbarer macht. Traditionelle Ausrichtungsmethoden beruhen stark auf direkte menschliche Intervention, was unpraktisch wird, da KI -Fähigkeiten das menschliche Know -how übertreffen. Indem Sie sich auf ein System verschieben, in dem KI seine eigenen Ergebnisse kritisieren und verfeinern kann, wird die Abhängigkeit von der menschlichen Aufsicht verringert und gleichzeitig die Kontrolle übernimmt.

Darüber hinaus führt eine rekursive Selbstkritik in einen strukturierten Ansatz für die KI-Aufsicht ein, die hierarchische Entscheidungen in Organisationen ähnelt. So wie Unternehmensstrukturen auf mehreren Überprüfungs- und Rückmeldungsschichten angewiesen sind, ermöglicht rekursive Aufsicht KI -Systeme, ihre Antworten strukturiert und logisch zu verfeinern und die Genauigkeit und Interpretierbarkeit zu verbessern.

Einschränkungen

Trotz seines Potenzials hat rekursive Aufsicht bemerkenswerte Einschränkungen. Aktuelle KI-Modelle kämpfen mit der Selbstkritik über einige Ebenen hinaus. Während Kritikpunkte erster und zweiter Ordnung die Aufsicht verbessern, erzeugen Kritik höherer Ordnung häufig keine sinnvollen Verfeinerungen und begrenzt die Wirksamkeit der Methode.

Darüber hinaus beseitigt die rekursive Aufsicht nicht das Risiko einer Belohnung, bei der KI -Modelle eher für Proxy -Ziele als für echte menschliche Absichten optimieren. KI kann lernen, ihre eigenen Kritikmechanismen zu manipulieren, um günstige Bewertungen zu erstellen, anstatt seine Ausgaben wirklich zu verbessern.

Eine weitere kritische Herausforderung besteht darin, sicherzustellen, dass selbstkritische Modelle ihre eigenen Vorurteile nicht verstärken. Ohne ordnungsgemäße Schutzmaßnahmen könnte eine rekursive Aufsicht dazu führen, dass AI-Modelle bereits vorhandene Fehler verstärken, anstatt sie zu korrigieren. Weitere Untersuchungen sind erforderlich, um Techniken zu entwickeln, die sicherstellen, dass die Selbstkritiken eher die Ausrichtung der KI-Ausrichtung als die unerwünschten Muster verbessert.

Experimentelle Ergebnisse: Unvoreingenommener Bewerter im Vergleich zu traditionellen Methoden

Die Studie verglichen Stand der Technik proprietäre Modelle wie GPT-4, Gemini 2.0 und Claude mit Open-Source-Modelle wie Lama, Qwen, Yi und Mistral unter beiden Traditionelle Bewertungsbenchmarks und der unvoreingenommene Bewerter.

Die Ergebnisse zeigten, dass:

  • Alle Modelle wurden schlechter, wenn sie mit dem unvoreingenommenen Bewerter bewertet wurdenwas vorschlägt, dass frühere Bewertungsmethoden überschätzt KI -Leistung.
  • Proprietäre Modelle wie GPT-4 und Gemini 2.0 zeigten den geringsten Leistungstropfenwas auf eine stärkere Verallgemeinerung hinweist.
  • Open-Source-Modelle zeigten einen größeren Leistungsrückgangwas mehr Raum für Verbesserungen der Robustheit vorschlägt.

Diese Forschung beleuchtet signifikante Verzerrungen der aktuellen KI -Bewertungsmethoden und schlägt den unvoreingenommenen Bewerter als neue Lösung vor.


Ausgewähltes Bildnachweis: Kerem Gülen/Midjourney

Tags: AiGroßsprachige ModellellmVorgestellt

Related Posts

KI -Forschungsinstrumente führen möglicherweise mehr Probleme als sie lösen

KI -Forschungsinstrumente führen möglicherweise mehr Probleme als sie lösen

Mai 14, 2025
Ist Ihr super hilfreicher generativer KI -Partner heimlich Ihre Arbeit langweilig?

Ist Ihr super hilfreicher generativer KI -Partner heimlich Ihre Arbeit langweilig?

Mai 14, 2025
Microsofts Adele möchte Ihrer KI ein kognitives Profil geben

Microsofts Adele möchte Ihrer KI ein kognitives Profil geben

Mai 14, 2025
Apple Research Paper enthüllt Matrix3d ​​für die Erzeugung von 3D -Inhalten

Apple Research Paper enthüllt Matrix3d ​​für die Erzeugung von 3D -Inhalten

Mai 14, 2025
Microsofts Adele möchte Ihrer KI ein kognitives Profil geben

Microsofts Adele möchte Ihrer KI ein C -kognitiver Profil geben

Mai 14, 2025
Forschung: Der Goldstandard für die Genai -Bewertung

Forschung: Der Goldstandard für die Genai -Bewertung

Mai 12, 2025

Recent Posts

  • Databricks -Wetten auf serverlose Postgres mit seiner Akquisition von 1 Milliarde US -Dollar
  • Alphaevolve: Wie Googles neue KI mit Selbstkorrektur auf die Wahrheit strebt
  • TIKTOK implementiert AI-generierte ALT-Texte, um eine bessere Akzierbarkeit zu erhalten
  • Trump zwingt Apple, seine indische iPhone -Strategie in Indien zu überdenken
  • Die KI von YouTube weiß jetzt, wann Sie kurz vor dem Kauf sind

Recent Comments

Es sind keine Kommentare vorhanden.
Dataconomy DE

COPYRIGHT © DATACONOMY MEDIA GMBH, ALL RIGHTS RESERVED.

  • Home
  • Sample Page

Follow Us

  • Home
  • Sample Page
No Result
View All Result
Subscribe

This website uses cookies. By continuing to use this website you are giving consent to cookies being used. Visit our Privacy Policy.