Im Januar 2025 startete Deepseek, ein chinesisches KI-Startup, R1, ein KI-Modell, das mit obersten LLMs von OpenAI und Anthropic konkurrierte. Deepseek wurde zu einem Bruchteil der Kosten mit weniger Nvidia-Chips erbaut und hat jetzt V3.1 veröffentlicht, ein Update für das Flaggschiff V3-Modell, das zum Preis von OpenAI unterbrochen und für chinesische Chips optimiert wurde.
Deepseeks V3.1 wurde stillschweigend über eine Nachricht auf Wechat, einer prominenten chinesischen Messaging und sozialen Anwendung sowie auf der umarmenden Gesichtsplattform gestartet. Diese Entwicklung unterstreicht mehrere wichtige Erzählungen in der aktuellen KI -Landschaft. Deepseeks Bemühungen sind von zentraler Bedeutung für Chinas Ehrgeiz, fortschrittliche KI -Systeme unabhängig von ausländischer Technologie zu entwickeln und zu kontrollieren.
Das neue Deepseek V3-Modell ist ausdrücklich optimiert, um effektiv auf chinesischen Chips abzugeben, was den strategischen Schritt Chinas in Richtung technologischer Selbstverantwortung widerspiegelt. Während US -Firmen die Zurückhaltung bei der Einführung von Deepseeks Modellen gezeigt haben, haben sie in China beträchtliche Traktion gewonnen und werden zunehmend weltweit in anderen Regionen eingesetzt. Einige amerikanische Unternehmen haben das R1 -Argumentationsmodell von Deepseek sogar in ihre Anwendungen integriert. Die Forscher warnen jedoch davor, dass die Ausgaben dieser Modelle oft eng mit Erzählungen übereinstimmen, die von der Kommunistischen Partei der chinesischen Partei genehmigt wurden, und Bedenken hinsichtlich ihrer Neutralität und Zuverlässigkeit hervorrufen.
Chinas KI -Ambitionen erstrecken sich über Deepseek hinaus und andere bemerkenswerte Modelle, darunter Alibabas Qwen, Moonshot Ai’s Kimi und Baidus Ernie. Deepseeks jüngste Veröffentlichung, genau danach danach OpenAIs GPT-5-Startbetont Chinas Engagement für die Aufrechterhaltung des Tempos mit oder übertroffen, die US -KI -Labors führt. Die Rollout von GPT-5 blieb hinter den Erwartungen der Branche zurück, was die Bedeutung der Fortschritte von Deepseek weiter hervorhebt.
Sam Altman, CEO von OpenAI, räumte ein, dass der Wettbewerb durch chinesische Open-Source-Modelle, einschließlich Deepseek, die Entscheidung von OpenAI beeinflusste, seine eigenen Open-Gewicht-Modelle zu veröffentlichen. Während einer kürzlich durchgeführten Diskussion mit Reportern erklärte Altman, dass die KI-Landschaft wahrscheinlich von chinesischen Open-Source-Modellen dominiert wird, wenn Openai diesen Schritt nicht unternommen hätte. Er betonte, dass diese Überlegung ein wesentlicher Faktor für ihren Entscheidungsprozess war.
Die US -Regierung erteilte NVIDIA- und AMD -Lizenzen, um bestimmte KI -Chips nach China zu exportieren, einschließlich der H20 von NVIDIA. Diese Lizenzen sind von den Unternehmen abhängig, die sich erklären, 15% der Einnahmen aus diesen Umsätzen an die US -Regierung zu überweisen. Als Reaktion darauf hat Peking bewegt, die Einkäufe von Nvidia -Chips einzuschränken. Dies folgte dem Handelsminister Howard Lutnicks Aussage über CNBC Dass die USA China nicht seine beste, zweitbeste oder sogar drittbeste Technologie verkaufen.
Die Optimierung von Deepseek für chinesisch gemachte Chips zeigt einen strategischen Schritt, um US-Exportkontrollen entgegenzuwirken und die Abhängigkeit von Nvidia zu verringern. Das Unternehmen gab in seiner WeChat-Ankündigung an, dass das neue Modellformat für „in Kürze veröffentlichte inländische Chips der nächsten Generation“ optimiert sei.
Altman hat Bedenken geäußert, dass die USA die Komplexität und Bedeutung der Fortschritte Chinas in der KI unterschätzen könnten. Er warnte, dass Exportkontrollen allein möglicherweise nicht ausreichen, um die Herausforderungen des schnellen Fortschritts Chinas zu bewältigen. Er äußerte seine Bedenken über Chinas wachsende Fähigkeiten im Bereich künstlicher Intelligenz.
Das Deepseek V3.1 -Modell enthält technische Fortschritte, die für Entwickler in erster Linie von Vorteil sind. Diese Innovationen zielen darauf ab, die Betriebskosten zu senken und die Vielseitigkeit im Vergleich zu vielen geschlossenen und teureren konkurrierenden Modellen zu verbessern. V3.1 hat 685 Milliarden Parameter und platziert es in die oberen „Frontier“ -Modelle. Das Design „Mischungsmischung“ aktiviert nur einen Bruchteil des Modells für jede Abfrage und senkt die Computerkosten für Entwickler. Im Gegensatz zu früheren Deek-Modellen, bei denen Aufgaben getrennt wurden, die sofortige Antworten von denen, die schrittweise Argumentation benötigen, integrieren, integriert V3.1 beide Funktionen in ein einzelnes System.
GPT-5 bietet zusammen mit den neuesten Modellen von Anthropic und Google auch diese integrierte Fähigkeit. Nur wenige Open-Gewicht-Modelle haben diese Integrationsniveau erreicht. Ben Dickson, Gründer des TechTalks -Blogs, beschreibt die Hybridarchitektur von V3.1 als „mit weitem größte Feature“.
William Falcon, Gründer und CEO von Lightning AI, stellte fest, dass Deepseeks fortgesetzte Verbesserungen bemerkenswert sind, auch wenn V3.1 kein so signifikanter Sprung ist wie das frühere R1 -Modell. Er erklärte, dass das Unternehmen weiterhin „nicht marginale Verbesserungen“ vornimmt, was beeindruckend ist. Falcon geht davon aus, dass Openai reagieren wird, wenn sein Open-Source-Modell erheblich zurückbleibt. Er wies auch darauf hin, dass das Deepseek -Modell für Entwickler im Vergleich zur OpenAI -Version, die relativ einfach zu bereitstellen ist, eine stärker schwierige Bereitstellung in die Produktion einsetzt.
Deepseeks Veröffentlichung zeigt die zunehmende Wahrnehmung von KI als Schlüsselkomponente eines technologischen Wettbewerbs zwischen den USA und China. Die Tatsache, dass chinesische Unternehmen behaupten, überlegene KI -Modelle zu reduzierten Kosten aufzubauen, bietet den US -Wettbewerbern den Grund, ihre Strategie zur Aufrechterhaltung der Führung vor Ort sorgfältig zu bewerten.