Anthropic Leads Enterprise Großsprachmodells Nutzung mit 32% Marktanteil Laut einer Umfrage von Menlo Ventures von 150 technischen Entscheidungsträgern, die im Sommer 2025 durchgeführt wurden, die durch überlegene Leistung in Anwendungen der Codegenerierung zurückzuführen sind.
Menlo Ventures, ein Risikokapitalunternehmen im Frühstadium und ein großer anthropischer Anleger, verfasste den Bericht, in dem die Einführung von Unternehmen AI analysiert wurde. Das Unternehmen hat erheblich in Anthropic investiert, seine Finanzierungsrunde der Serie D geleitet und an seiner Finanzierung der Serie E in Höhe von 3,5 Milliarden US -Dollar teilgenommen, die Anthropic mit 61,5 Milliarden US -Dollar schätzte. Die unabhängige Validierung der Wachstumsverletzung von Anthropic stammt aus dem AI-Magazin, das berichtete, dass das Unternehmen im Jahresvergleich von 1000% im Jahr gegen den Vorjahr einen jährlichen wiederkehrenden Umsatz von 3 Milliarden US-Dollar erreicht hat. Dies legt anthropisch als Premier Enterprise AI -Anbieter durch seine Claude -Modellfamilie fest.
Die Marktanteilsverteilung zeigt, dass OpenAI Anthropic mit 25% der Unternehmensnutzung folgt. Google erfasst 20%, während das Lama von Meta 9% entspricht. Deepseek Trails mit 1% Marktdurchdringung erheblich. Diese Abbildungen messen speziell die Produktions -KI -Implementierung, anstatt Zuweisungen auszugeben. Menlo Ventures führt die schnelle Markterweiterung von Anthropic auf die technischen Fähigkeiten seiner Claude -Sonett- und Claude -Opus -Modelle zurück, die erhebliche Leistungsvorteile in den Unternehmensumgebungen gezeigt haben.
Die Codegenerierung stellt dar, was die Forscher als die erste „Killer -App“ der KI identifiziert haben, wobei Claude das bevorzugte Tool von Programmierern wird. Claude befiehlt 42% Marktanteil bei Entwicklern und verdoppelt die 21% ige Adoptionsrate von OpenAI. Konkrete Hinweise auf die Programmierung von Claude umfassen die Umwandlung von Github Copilot in ein 1,9-Milliarden-Dollar-Ökosystem innerhalb eines Jahres. Die Veröffentlichung von Claude Sonnet 3.5 im Jahr 2024 ermöglichte vollständig neue Anwendungskategorien, darunter KI -integrierte Entwicklungsumgebungen wie Cursor und Windsurf, Anwendungsbauer wie Liebenswürdigkeit, Bolzen- und Reaktions- und Unternehmenskodierungsagenten, einschließlich Claude -Code und aller Hände.
Anthropic verwendet Verstärkungslernen mit überprüfbaren Belohnungen für das Modelltraining, eine Methodik unter Verwendung von binärem Feedback, bei dem Ausgänge 1 für korrekte Antworten und 0 für falsche Antworten erhalten. Dieser Ansatz erweist sich für Programmieranwendungen besonders effektiv, bei denen die Codefunktionalität eindeutige Pass-/Fail -Metriken bietet. Das Unternehmen war Pionier der Architekturen zur Problemlösung von Problemen, bei denen Sprachmodelle externe Tools verwenden, um Daten abzurufen und die Genauigkeit der Ausgabe zu verbessern. Dies positioniert anthropisch im Vordergrund der Entwicklung von AI-Agenten und ermöglicht eine iterative Reaktion durch Integration von Suchmaschinen, Taschenrechnern, Codierungsumgebungen und anderen Ressourcen über das Modellkontextprotokoll, ein Open-Source-Framework, das nahtlose Verbindungen zwischen LLMs und realen Datendiensten ermöglicht.
Anthropic verleiht seiner Claude -KI neue wöchentliche Grenzen
Die Marktanalyse zeigt die Leistungsfähigkeiten anstelle von Preisen für Unternehmensentscheidungen bei der Umstellung großer Sprachmodellanbieter. Ein Menlo weist es vor, Notizen zu finden: „Dies schafft eine unerwartete Marktdynamik: Selbst wenn einzelne Modelle 10-fach im Preis sinken, erfassen die Bauherren Einsparungen nicht mit älteren Modellen; sie bewegen sich einfach massenhaft auf die am besten leistungsstarke.“ Das Unternehmen beobachtet, dass dieses Verhaltensmuster bestehen bleibt, da neuere Modellgenerationen wesentlich verbesserte Fähigkeiten gegenüber den Vorgängern aufweisen. Unternehmen priorisieren operative Vorteile trotz der Kostensenkungen der Legacy -Systeme.
Die Implementierung der Unternehmen AI hat sich erheblich von der experimentellen Entwicklung bis zur Produktionsbereitstellung verschoben. Unter den Startups, die KI -Anwendungen aufbauen, berichten 74%, dass die meisten Workloads jetzt in Produktionsumgebungen betrieben werden. Große Unternehmen folgen genau hinter 49%, was die meisten oder fast alle Rechenressourcen angeben, die Produktions -KI -Systeme unterstützen. Dieser Übergang signalisiert die Reifung über die anfänglichen Modelltrainingsphasen über die praktische Geschäftsanwendung hinaus.
Die Einführung von Open-Source-Modellmodellen ist auf 13% der AI-Arbeitsbelastungen zurückgegangen, von 19% vor sechs Monaten zuvor. Trotz der am häufigsten genutzten Open-Source-Option steht Lama von Meta kritisiert, da seine Lizenzbegriffe laut dem Bericht „nicht wirklich Open Source“ sind. Zu den jüngsten Open-Source-Veröffentlichungen gehören:
- Deepseek: V3- und R1 -Modelle
- Bytedance -Samen: Doubao -Modell
- Minimax: Text 1 Modell
- Alibaba: QWEN 3 Modell
- Mondshot AI: Kimi K2 -Modell
- Z ai: GLM 4.5 Modell
Trotz der Anpassungsoptionen, potenziellen Kostenreduzierungen und der Flexibilität der Bereitstellung in privaten Cloud- oder lokalen Umgebungen zeigen Open-Source-Modelle im Vergleich zu proprietären „Frontier-Modellen“ gemeinsam eine minderwertige Leistung. Für Modelle, die von chinesischen Unternehmen wie Deepseek, Bytedance, Minimax, Alibaba, Moonshot AI und Z AI entwickelt wurden, gibt es zusätzliche Adoptionsbarrieren, die von westlichen Unternehmen Vorsicht bezüglich ihrer Implementierung entwickelt wurden. Diese Faktoren tragen dazu bei, Open-Source LLM Adoption Trajektorien zu stagnieren.





