Deepseek wird Huawei AI -Chips anstelle von NVIDIAs für die Schulung kleiner KI -Modelle verwenden, da das Unternehmen seine Abhängigkeit von NVIDIA -Prozessoren verringern möchte. Die Verschiebung kommt, als Deepseek neue AI -GPU -Beschleuniger von verschiedenen Herstellern testet.
Laut Deepseek plant, Huawei Chips für seine kleineren KI -Modelle zu übernehmen. Diese Initiative zielt darauf ab, die Abhängigkeit des Unternehmens von NVIDIA zu verringern. Deepseek bewertet derzeit neue AI -GPU -Beschleuniger von Huawei, Baidu und Cambricon für Trainingsmodelle, die kleiner als die AI R2 -Version sind.
Deepseek beabsichtigt, weiterhin NVIDIA -Prozessoren für sein R2 AI großes Sprachmodell (LLM) zu verwenden, wobei sie eine zuverlässige Quelle für seine aktuellen Produkte betrachten. Das Unternehmen erwog zuvor den Ascend-Prozessor für sein KI-Argumentationsmodell der nächsten Generation, könnte diesen Plan jedoch verschieben.
Deepseek stieß mit dem kommenden R2 AI -Modell vor Herausforderungen. Trotz der technischen Unterstützung von Huawei führten Entwicklungsprobleme zur Verschiebung des Starts des R2 AI -Modells. Das Debüt des R2 AI -Modells wird nun später in diesem Jahr erwartet.
Deepseek stützt sich auf die Chipsätze von Nvidia, um das leistungsstärkere R2 AI -Argumentationsmodell zu konstruieren. Gleichzeitig wird es Huawei Ascend -Prozessoren verwenden, um kleinere Iterationen des R2 -Modells zu trainieren und zu verfeinern. Das Unternehmen hat kein Debütdatum für Verbraucherplattformen mithilfe der Huawei AI-Chip-LLM-Technologie angegeben.
Ein Nvidia-Sprecher erklärte: „Der Wettbewerb ist unbestreitbar eingetroffen. Die Welt wird den besten Tech-Stack für die Ausführung der beliebtesten Anwendungen und Open-Source-Modelle wählen. Um das KI-Rennen zu gewinnen, muss die US-Industrie die Unterstützung von Entwicklern überall erhalten, einschließlich China.“





