Microsoft fügt einen automatischen KI-Modell-Selektor zum Visual Studio-Code hinzu, mit dem das Modell für die beste Leistung ausgewählt wird Github Copilot Service. Die neue Funktion wird Prioritäten setzen Anthropics Claude 4 Sonett über Openai’s GPT-5 Für die meisten Benutzer laut Unternehmensankündigungen und internen Richtlinien.
Wie der KI -Modellwahlwählte funktioniert
Der Selektor bewertet und wählen automatisch aus einer Reihe von Modellen, einschließlich Claude 4 Sonett, GPT-5 und GPT-5 Mini. Benutzer der kostenlosen Version von Github Copilot können manuell aus den verfügbaren Modellen auswählen. Für kostenpflichtige Abonnenten wird das System jedoch standardmäßig an Claude 4 Sonnet angeben, was die Präferenz von Microsoft für das Modell in seinen Entwickler -Tools anzeigt. Dieser Schritt steht im Einklang mit der internen Strategie von Microsoft. Laut Quellen, die mit den Plänen des Unternehmens vertraut sind, haben Microsoft seine eigenen Entwickler seit mehreren Monaten dazu veranlasst, Claude 4 Sonett zu verwenden. Die Leitlinien stammten aus einer E -Mail im Juni, die von Julia Liuson, Leiterin der Entwicklerabteilung von Microsoft, gesendet wurde.
„Basierend auf internen Benchmarks ist Claude 4 Sonett unser empfohlenes Modell für Github Copilot.“
Diese Empfehlung ist auch nach der Veröffentlichung der fortgeschritteneren GPT-5-Serie von OpenAI vorhanden, da die nachfolgenden Tests die überlegene Leistung von Claude 4 Sonnet bei Benchmarks, die für Github Copilot-Aufgaben spezifisch sind, bestätigten.
Die breitere KI-Strategie von Microsoft und die interne Entwicklung
Microsoft integriert auch Anthropics Modelle in seinen Microsoft 365 -Copilot für bestimmte Aufgaben in Excel und Powerpoint, wo sie Berichten zufolge OpenAIs Modelle während des Tests übertroffen haben. Neben diesen Partnerschaften baut Microsoft weiterhin eigene KI -Funktionen auf. In einem kürzlichen Rathause im Arbeitnehmer diskutierte Microsoft AI -Chef Mustafa Sulyman die Investition des Unternehmens in eine eigene Infrastruktur. Er erwähnte, dass eine Vorschau seines MAI-1-Modells auf einem relativ kleinen Cluster von 15.000 H100 GPUs ausgebildet wurde, was in Zukunft Pläne für viel größere Cluster signalisierte.
„Wir werden auch erhebliche Investitionen in unserem eigenen Cluster tätigen. Heute wurde Mai-1-Präview nur auf 15.000 H100 geschult, einem winzigen Cluster im großen Schema der Dinge.“
Die Nachricht kommt, als OpenAI und Microsoft letzte Woche eine neue Vereinbarung angekündigt haben, ein Deal, das dazu beitragen könnte, die operativen Details zu lösen und den potenziellen Schritt von OpenAI in Richtung eines ersten Börsengangs zu erleichtern.





