Dataconomy DE
Subscribe
No Result
View All Result
Dataconomy DE
Subscribe
No Result
View All Result
Dataconomy DE
No Result
View All Result

Denkmaschinenlabor Labors zeigt die Erforschung der Eliminierung von Zufälligkeit in AI -Modellantworten

byKerem Gülen
September 11, 2025
in Artificial Intelligence
Home Artificial Intelligence
Share on FacebookShare on Twitter

Das Denkmaschinenlabor, das von 2 Milliarden US -Dollar an Saatgutfinanzierungen unterstützt und mit ehemaligen OpenAI -Forschern teilgenommen hat, hat seine ersten detaillierten Forschungserkenntnisse geteilt. Das Labor veröffentlichte am Mittwoch einen Blog -Beitrag, in dem untersucht wurde, wie KI -Modelle erstellt werden, die konsistentere und reproduzierbarere Antworten erzeugen und eine grundlegende Herausforderung in der Entwicklung künstlicher Intelligenz angehen.

AI -Modellkonsistenzforschungsforschung zielt nicht determinismus in Großsprachenmodellen ab

Der Blog -Beitrag mit dem Titel „Nichtdeterminismus in LLM -Inferenz zu besiegen„Untersucht, warum KI -Modelle häufig unterschiedliche Antworten auf identische Fragen generieren. Diese Variabilität wurde zwar als inhärentes Merkmal großer Sprachmodelle angenommen, und das Denkmaschinenlabor betrachtet diesen Nichtdeterminismus eher als lösbares Problem als als unvermeidliche Einschränkung.

GPU -Kernel -Orchestrierung verursacht die Reaktion zufälligen

Forscher Horace er verfasste den Beitrag und argumentierte, dass Zufälligkeit in AI -Modellen darauf zurückzuführen ist, wie GPU -Kerne während der Inferenzverarbeitung orchestriert werden. Die Inferenzverarbeitung bezieht sich auf die Berechnungsschritte, die auftreten, nachdem Benutzer Abfragen eingereicht haben, z. B. das Drücken der Eingabetaste in ChatGPT. GPU -Kerne sind spezielle Programme, die auf NVIDIA -Computerchips ausgeführt werden. Er glaubt, dass eine sorgfältige Verwaltung dieser Orchestrierungsschicht AI -Modellen ermöglichen kann, vorhersehbare und konsistentere Ausgaben zu erzeugen.

Konsistente Reaktionen verbessern das Training des Verstärkungslernens

Neben der Verbesserung der Zuverlässigkeit für Unternehmens- und wissenschaftliche Anwendungen schlägt er vor, dass reproduzierbare Antworten die Schulung des Verstärkungslernens (RLL) rationalisieren können. KI -Modelle für Verstärkungslernen für korrekte Antworten, aber inkonsistente Antworten führen Rauschen in Trainingsdaten ein. Konsistentere Antworten könnten den RL -Prozess verbessern, der mit den früheren Berichten der Informationen übereinstimmt, dass Denkmaschinen Labor RL zur Anpassung von KI -Modellen auf bestimmte Geschäftsanforderungen verwenden.

Erste Produkteinführung für die kommenden Monate geplant

Der ehemalige OpenAI -Chief Technology Officer Mira Murati gab im Juli bekannt, dass Denke Machines Lab bald sein erstes Produkt veröffentlichen wird. Sie gab an, dass das Produkt „nützlich für Forscher und Startups, die benutzerdefinierte Modelle entwickeln“, obwohl spezifische Details, und ob es die Reproduzierbarkeitstechniken enthält, bleiben unbekannt.

Open Forschungsverpflichtung spiegelt den frühen OpenAI -Ansatz wider

Denkmaschinenlabor kündigte Pläne zur regelmäßigen Veröffentlichung von Blog -Posts, Code und Forschungsergebnissen an, um „der Öffentlichkeit zugute zu kommen, aber auch unsere eigene Forschungskultur zu verbessern“. Die jüngste Post startet eine neue Serie namens „Connectionism“, die diese Transparenzverpflichtung widerspiegelt. Dieser Ansatz spiegelt das frühe Open Research -Versprechen von Openai wider, obwohl Openai mit zunehmendem Wachstum weniger transparent wurde. Der Forschungsblog bietet seltene Einblicke in die Geschäftstätigkeit von Thinking Machines Lab und zeigt an, dass das Unternehmen erhebliche AI ​​-Forschungsherausforderungen angeht und auf Produkte hinarbeitet, die seine Bewertung von 12 Milliarden US -Dollar rechtfertigen.

Tags: Denkmaschinenlaborkünstliche IntelligenzVorgestellt

Related Posts

Alibabas Qwen Code v0.5.0 verwandelt das Terminal in ein vollständiges Entwicklungsökosystem

Alibabas Qwen Code v0.5.0 verwandelt das Terminal in ein vollständiges Entwicklungsökosystem

Dezember 26, 2025
ChatGPT entwickelt sich zu einer Office-Suite mit neuen Formatierungsblöcken

ChatGPT entwickelt sich zu einer Office-Suite mit neuen Formatierungsblöcken

Dezember 26, 2025
Google NotebookLM stellt vor "Vorlesungsmodus" für 30-minütiges KI-Lernen

Google NotebookLM stellt vor "Vorlesungsmodus" für 30-minütiges KI-Lernen

Dezember 26, 2025
Waymo-Robotaxis erhalten möglicherweise den Gemini AI-Assistenten im Auto

Waymo-Robotaxis erhalten möglicherweise den Gemini AI-Assistenten im Auto

Dezember 25, 2025
Warum NVIDIA bei seinen KI-Chips der nächsten Generation auf Intel 18A verzichtet

Warum NVIDIA bei seinen KI-Chips der nächsten Generation auf Intel 18A verzichtet

Dezember 25, 2025
ChatGPT, um Claude-like zu gewinnen "Fähigkeiten" Besonderheit

ChatGPT, um Claude-like zu gewinnen "Fähigkeiten" Besonderheit

Dezember 25, 2025

Recent Posts

  • Alibabas Qwen Code v0.5.0 verwandelt das Terminal in ein vollständiges Entwicklungsökosystem
  • Bethesda strebt für Fallout 5 ein Gameplay von 600 Stunden an
  • ASUS verteidigt den falsch ausgerichteten RTX 5090 HyperX-Stromanschluss als "absichtliches Design"
  • NVIDIA Open-Source-CUDA Tile IR auf GitHub
  • Der CEO von MicroStrategy sagt zu den Bitcoin-Grundlagen "könnte nicht besser sein"

Recent Comments

Es sind keine Kommentare vorhanden.
Dataconomy DE

COPYRIGHT © DATACONOMY MEDIA GMBH, ALL RIGHTS RESERVED.

  • Home
  • Sample Page

Follow Us

  • Home
  • Sample Page
No Result
View All Result
Subscribe

This website uses cookies. By continuing to use this website you are giving consent to cookies being used. Visit our Privacy Policy.