Dataconomy DE
Subscribe
No Result
View All Result
Dataconomy DE
Subscribe
No Result
View All Result
Dataconomy DE
No Result
View All Result

Anthropische Überprüfungsflaggen Missbrauchsrisiken in OpenAI GPT-4O und GPT-4.1

byEmre Çıtak
August 28, 2025
in Artificial Intelligence, News
Home Artificial Intelligence
Share on FacebookShare on Twitter

OpenAI und Anthropic, typischerweise Wettbewerber im Bereich Künstliche Intelligenz, kürzlich in a Zusammenarbeit Einbeziehung der Sicherheitsbewertungen der KI -Systeme des anderen. In dieser ungewöhnlichen Partnerschaft teilten die beiden Unternehmen die Ergebnisse und Analysen der Ausrichtungstests auf öffentlich verfügbare Modelle aus.

Anthropisch durchgeführt Bewertungen zu OpenAI -Modellen, die sich auf mehrere Schlüsselbereiche konzentrieren. Dazu gehörten Bewertungen für die Sykophanz, die Tendenz, Benutzer zuzustimmen oder flacher zu werden; Whistleblowing, die Fähigkeit, unethische oder schädliche Aktivitäten zu melden; Selbsterhaltung, der Antrieb des Modells, seine eigene Existenz aufrechtzuerhalten; das Potenzial, menschlichen Missbrauch zu unterstützen; und Fähigkeiten im Zusammenhang mit der Untergrabung von KI -Sicherheitsbewertungen und -versehen. Die Bewertungen verglichen OpenAIs Modelle mit den eigenen internen Benchmarks von Anthropic.

Die anthropische Überprüfung ergab, dass die O3- und O4-Mini-Modelle von OpenAI eine Ausrichtung zeigten, die mit den Modellen von Anthropic vergleichbar ist. Anthropic identifizierte jedoch Bedenken hinsichtlich des potenziellen Missbrauchs im Zusammenhang mit OpenAIs GPT-4O- und GPT-4.1-Allgemeinen Modellen. Anthropic berichtete auch, dass die Sykophanz ein Problem in unterschiedlichem Maße in allen getesteten OpenAI -Modellen darstellte, mit Ausnahme des O3 -Modells.

Es ist wichtig zu beachten, dass Anthropics Tests die jüngste Veröffentlichung von OpenAI, GPT-5, nicht beinhalteten. GPT-5 enthält eine Funktion, die als Safe Completions bezeichnet wird und die Benutzer und die Öffentlichkeit vor potenziell schädlichen Fragen schützen. Diese Entwicklung erfolgt, als Openai kürzlich vor einem Fall vor einer falschen Todesstrafe ausgesetzt war, in der ein Teenager über mehrere Monate vor dem Leben mit Chatgpt mit ChatGPT Gespräche geführt hat.

In einer gegenseitigen Bewertung Openai Tests durchgeführt Zu den Modellen von Anthropic werden Aspekte wie Unterrichtshierarchie, Jailbreaking Suszeptibilität, das Auftreten von Halluzinationen und das Potenzial für die Schema bewertet. Die Claude -Modelle von Anthropic haben in Anweisungshierarchie -Tests im Allgemeinen gut abgelegt. Diese Modelle zeigten auch eine hohe Ablehnungsrate bei Halluzinationstests, was auf eine verringerte Wahrscheinlichkeit hinweist, Antworten zu liefern, wenn Unsicherheit zu falschen Antworten führen könnte.

Die Zusammenarbeit zwischen OpenAI und Anthropic ist bemerkenswert, insbesondere wenn man bedenkt, dass OpenAI angeblich gegen die Nutzungsbedingungen von Anthropic verstoßen hat. Insbesondere wurde berichtet, dass OpenAI -Programmierer Claude während der Entwicklung neuer GPT -Modelle verwendeten, die anschließend zu einem anthropischen Zugang von OpenAI zu seinen Tools zu Beginn des Monats führten. Die verstärkte Prüfung im Zusammenhang mit der KI -Sicherheit hat Forderungen zu erweiterten Richtlinien zum Schutz von Benutzern, insbesondere von Minderjährigen, gefordert, da sich Kritiker und juristische Experten zunehmend auf diese Themen konzentrieren.


Ausgewähltes Bildnachweis

Tags: AnthropischopenAIVorgestellt

Related Posts

CES 2026: Alles, was HP angekündigt hat

CES 2026: Alles, was HP angekündigt hat

Januar 6, 2026
Amazon bringt Alexa mit der Einführung von Alexa.com auf der CES 2026 ins Internet

Amazon bringt Alexa mit der Einführung von Alexa.com auf der CES 2026 ins Internet

Januar 6, 2026
Google bringt Gemini AI auf der CES 2026 ins Wohnzimmer

Google bringt Gemini AI auf der CES 2026 ins Wohnzimmer

Januar 6, 2026
DeepSeek führt Manifold-Constrained Hyper-Connections für R2 ein

DeepSeek führt Manifold-Constrained Hyper-Connections für R2 ein

Januar 6, 2026
Teradar stellt auf der CES 2026 den Terahertz-Sensor Summit vor

Teradar stellt auf der CES 2026 den Terahertz-Sensor Summit vor

Januar 6, 2026
Intel stellt auf der CES 2026 die Core Ultra Series 3 auf 18A vor

Intel stellt auf der CES 2026 die Core Ultra Series 3 auf 18A vor

Januar 6, 2026

Recent Posts

  • Das Imperial College London entwickelt KI, um die Entdeckung von Herzmedikamenten zu beschleunigen
  • CES 2026: Alles, was HP angekündigt hat
  • Amazon bringt Alexa mit der Einführung von Alexa.com auf der CES 2026 ins Internet
  • Google bringt Gemini AI auf der CES 2026 ins Wohnzimmer
  • Kodiak AI arbeitet mit Bosch für eine universelle autonome Lkw-Plattform zusammen

Recent Comments

Es sind keine Kommentare vorhanden.
Dataconomy DE

COPYRIGHT © DATACONOMY MEDIA GMBH, ALL RIGHTS RESERVED.

  • Home
  • Sample Page

Follow Us

  • Home
  • Sample Page
No Result
View All Result
Subscribe

This website uses cookies. By continuing to use this website you are giving consent to cookies being used. Visit our Privacy Policy.