Das chinesische KI-Labor DeepSeek hat die Veröffentlichung seines DeepSeek-R1-Lite-Preview-Modells angekündigt, das seiner Meinung nach mit dem o1-Modell von OpenAI konkurriert. Das neue Modell bietet ein einzigartiges Merkmal: Transparenz im Argumentationsprozess, sodass Benutzer die schrittweisen Problemlösungsmethoden einsehen können. Diese Ankündigung erfolgt zwei Monate nach dem Start von OpenAI o1-Vorschau Modell, was einen wachsenden Wettbewerb im Bereich der KI-Argumentation hervorhebt.
DeepSeek führt ein Argumentationsmodell ein, das mit OpenAI konkurrieren kann
Auf DeepSeek-R1-Lite-Preview kann über einen Web-Chatbot zugegriffen werden. DeepSeek-Chatbei dem Benutzer mit dem Modell interagieren können, begrenzt auf 50 Nachrichten pro Tag. Obwohl detaillierte Benchmarks und eine Modellkarte noch nicht veröffentlicht wurden, deuten erste Bewertungen darauf hin, dass das Argumentationsmodell eine Leistung aufweist, die mit den Benchmarks von OpenAI für AIME- und MATH-Aufgaben vergleichbar ist. DeepSeek gibt an, beim MATH-Benchmark eine hochmoderne Genauigkeit von 91,6 % zu erreichen.
Die Einführung von DeepSeek-R1 erfolgt zu einem Zeitpunkt, an dem traditionelle Skalierungsgesetze in der KI, die darauf hindeuten, dass eine Erhöhung der Daten- und Rechenleistung die Leistung verbessert, beginnen, abnehmende Erträge zu zeigen. Als Reaktion darauf suchen Unternehmen nach neuen Ansätzen, beispielsweise nach zugrunde liegenden Argumentationsmodellen wie DeepSeek-R1. Im Gegensatz zu herkömmlichen Modellen erweitern Argumentationsmodelle ihre Rechenverarbeitung während der Inferenz, um die Entscheidungsfähigkeiten zu verbessern.
Trotz seiner vielversprechenden Funktionen hält sich das neue Modell auch an strenge Zensurprotokolle, die in der chinesischen KI-Technologie üblich sind. Beobachtungen bestätigten, dass DeepSeek-R1 sensible politische Themen wie Anfragen zu Xi Jinping oder Taiwan vermeidet. Benutzer haben von erfolgreichen Versuchen berichtet, diese Einschränkungen zu umgehen, sodass das Modell in bestimmten Szenarien ungefilterte Inhalte bereitstellen kann. Dieser Aspekt wirft anhaltende Fragen zum Gleichgewicht zwischen Funktionalität und Einhaltung gesetzlicher Vorschriften für KI-Modelle auf, die in Regionen mit strenger staatlicher Aufsicht entwickelt werden.
DeepSeek behauptet, dass sein DeepSeek-R1-Modell – oder genauer gesagt das DeepSeek-R1-Lite-Preview – bei zwei bekannten KI-Benchmarks, AIME und MATH, mit dem o1-Preview-Modell von OpenAI übereinstimmt. AIME bewertet die Leistung eines Modells mithilfe anderer KI-Modelle, während MATH die Problemlösung anhand einer Sammlung von Textaufgaben testet. Allerdings hat das Modell seine Mängel. Einige Benutzer auf X darauf hingewiesen dass DeepSeek-R1 wie o1 vor Herausforderungen mit Tic-Tac-Toe und anderen logikbasierten Aufgaben steht.
Mit Blick auf die Zukunft plant DeepSeek, Open-Source-Versionen seiner R1-Modelle zu veröffentlichen und den Zugriff über APIs zu erweitern, um sein Engagement für die Open-Source-KI-Community fortzusetzen. Das Unternehmen wird von High-Flyer Capital Management unterstützt, das die Strategie verfolgt, KI in Handelsentscheidungen zu integrieren. Der Betrieb von High-Flyer umfasst erhebliche Investitionen in die Hardware-Infrastruktur und verfügt über Cluster von Nvidia A100-GPUs für das Modelltraining.
Hervorgehobener Bildnachweis: DeepSeek