Dataconomy DE
Subscribe
No Result
View All Result
Dataconomy DE
Subscribe
No Result
View All Result
Dataconomy DE
No Result
View All Result

OpenAIs Chatgpt-5 hat endlich das bekommen "Hälfte des Wissens"

byEmre Çıtak
September 17, 2025
in Artificial Intelligence
Home Artificial Intelligence
Share on FacebookShare on Twitter

OpenAIs Chatgpt-5 hat begonnen, mit „Ich weiß nicht“ zu reagieren, wenn es nicht zuversichtlich eine Abfrage beantworten kann, eine wesentliche Änderung gegenüber dem typischen Chatbot-Verhalten, unabhängig von ihrer Zuverlässigkeit eine Antwort zu geben. Das neue Feature, das aufmerksam wurde, nachdem Benutzer Interaktionen in sozialen Medien geteilt hatten, ist Teil der Bemühungen, das langjährige Problem der Fehlinformation von AI-generierten AI-generierten zu lösen.

Angehen des Problems der AI -Halluzinationen

Eine anhaltende Herausforderung für Großsprachenmodelle ist das Problem der „Halluzinationen“, bei denen die KI in einem selbstbewussten Ton erfundene Informationen wie gefälschte Zitate oder nicht existierende Studien generiert. Dies ist besonders gefährlich in Bereichen wie Medizin oder Recht, in denen Benutzer möglicherweise auf falsche Informationen reagieren, ohne zu erkennen, dass dies unzuverlässig ist. Benutzer akzeptieren diese Ausgänge häufig zum Nennwert, da die maßgebliche Lieferung der KI die hergestellten Details maskiert. Der neue Ansatz von Chatgpt-5 entgegenwirkt direkt, indem sie sich für Ehrlichkeit über die Erfindung entscheiden. Wenn das Modell auf eine Abfrage stößt, die außerhalb seiner Trainingsdaten fällt oder nicht überprüfbare Behauptungen beinhaltet, wird nun seine Unsicherheit angegeben, anstatt eine spekulative oder falsche Antwort zu generieren.

Wie die Funktion „Ich nicht weiß“ funktioniert

Großsprachige Modelle wie ChatGPT rufen keine Fakten aus einer Datenbank ab. Stattdessen prognostizieren sie das nächste Wort in einer Sequenz, die auf statistischen Mustern basiert, die aus riesigen Textmengen gelernt werden. Diese Methode ermöglicht ein fließendes, menschliches Gespräch, kann aber auch zu plausiblen Ungenauigkeiten führen, wenn die Trainingsdaten auf ein bestimmtes Thema begrenzt sind. OpenAI hat eine Vertrauensschwelle in Chatgpt-5 umgesetzt. Wenn die Vorhersage des Modells für eine Antwort unter eine bestimmte Zuverlässigkeitsbewertung fällt, löst es die Antwort „Ich weiß nicht“ aus. Dieser Mechanismus verhindert, dass das Modell eine grammatikalisch korrekte, aber sachlich unbegründete Antwort liefert. Entwickler kalibrierten diese Schwellenwerte durch umfangreiche Tests, um hilfreiche Informationen mit der Aufrechterhaltung der Genauigkeit auszugleichen.

Aufbau des Benutzervertrauens durch Kommunikation von Einschränkungen

Die neue Funktion wurde entwickelt, um das Benutzervertrauen aufzubauen, indem die Einschränkungen der KI klargestellt werden. Indem Chatgpt-5 explizit markiert wird, wenn es ungewiss ist, ermutigt es Benutzer, eine externe Überprüfung zu suchen und das Tool kritischer zu verwenden. Dies fördert eine verantwortungsbewusstere Interaktion und positioniert die KI eher als hilfreiche Assistentin als als unfehlbare Informationsquelle. Dieser Schritt in Richtung größerer Transparenz entspricht einem breiteren Branchentrend, wie es andere Unternehmen mögen Googles Gemini Und Anthropics Claude Erforschen auch Möglichkeiten, ähnliche Schutzmaßnahmen in ihre KI -Modelle aufzubauen. Die Zulassung von Unsicherheit spiegelt wider, wie menschliche Experten arbeiten, die häufig die Grenzen ihres Wissens anerkennen und andere Quellen konsultieren. Das Merkmal stellt einen Schritt in Richtung nuancierterer und verantwortlicherer KI -Systeme dar, die ihre Grenzen effektiv kommunizieren können.


Ausgewähltes Bildnachweis

Tags: chatgptGPT-5openAIVorgestellt

Related Posts

JBL bringt KI-betriebene BandBox-Verstärker auf den Markt

JBL bringt KI-betriebene BandBox-Verstärker auf den Markt

Januar 23, 2026
Spotify führt KI-gestützte Prompted Playlists ein

Spotify führt KI-gestützte Prompted Playlists ein

Januar 22, 2026
Anthropic überarbeitet Einstellungstests dank Claude AI

Anthropic überarbeitet Einstellungstests dank Claude AI

Januar 22, 2026
Anthropic überarbeitet Claudes Verfassung mit neuen Grundsätzen der Sicherheitsethik

Anthropic überarbeitet Claudes Verfassung mit neuen Grundsätzen der Sicherheitsethik

Januar 22, 2026
YouTube führt KI-Tools zur Ähnlichkeitsverwaltung für YouTuber ein

YouTube führt KI-Tools zur Ähnlichkeitsverwaltung für YouTuber ein

Januar 22, 2026
Amazon integriert den Health AI-Assistenten in die mobile App One Medical

Amazon integriert den Health AI-Assistenten in die mobile App One Medical

Januar 22, 2026

Recent Posts

  • Barret Zoph wird den aggressiven kommerziellen Pivot von OpenAI leiten
  • Substack geht mit dem Start der Beta-TV-App ins Wohnzimmer
  • LiveKit wird als Motor hinter dem Sprachmodus von ChatGPT mit einer Bewertung von 1 Milliarde US-Dollar bewertet
  • Vimeo beginnt nach der Übernahme von Bending Spoons mit Personalentlassungen
  • AWS und Prime Video schlagen zu, während Amazon eine neue Entlassungswelle vorbereitet

Recent Comments

Es sind keine Kommentare vorhanden.
Dataconomy DE

COPYRIGHT © DATACONOMY MEDIA GMBH, ALL RIGHTS RESERVED.

  • Home
  • Sample Page

Follow Us

  • Home
  • Sample Page
No Result
View All Result
Subscribe

This website uses cookies. By continuing to use this website you are giving consent to cookies being used. Visit our Privacy Policy.