OpenAI hat sein neues o1-Argumentationsmodell in seine API eingeführt. es ausrollen an ausgewählte Entwickler ab dem 17. Dezember 2024. Die Einführung erfolgt als Teil eines umfassenderen Updates, das auch neue Funktionen enthält, die die Funktionalität und Anpassung für Entwickler verbessern. Um sich für die Nutzung zu qualifizieren, müssen Entwickler mindestens 1.000 US-Dollar ausgeben und Konten unterhalten, die älter als 30 Tage sind.
„Heute stellen wir leistungsfähigere Modelle, neue Tools zur Anpassung und Upgrades vor, die die Leistung, Flexibilität und Kosteneffizienz für Entwickler verbessern, die mit KI bauen.“
-OpenAI
OpenAI führt die o1-API für ausgewählte Entwickler ein
Das o1-Modell ersetzt das bisherige o1-preview und verfügt über Funktionen, die es ihm ermöglichen, seine eigenen Antworten auf Fakten zu überprüfen, ein Vorteil, der bei KI-Modellen normalerweise nicht zu finden ist. Der Nachteil besteht darin, dass das Argumentationsmodell tendenziell länger braucht, um Antworten zu generieren. Die Kosten für die Verarbeitung mit o1 sind erheblich; Es berechnet Entwicklern 15 US-Dollar pro 750.000 analysierten Wörter und 60 US-Dollar für generierte Inhalte, was einer Versechsfachung im Vergleich zum neuesten Non-Reareaning-Modell entspricht. GPT-4o.
Das neue o1 soll frühere Einschränkungen beseitigen, wobei OpenAI behauptet, dass es „umfassendere und genauere Antworten“ bietet, insbesondere bei technischen Fragen im Zusammenhang mit Programmierung und Geschäft. Es enthält Verbesserungen wie einen Reasoning-Effort-Parameter, der es Entwicklern ermöglicht, die Verarbeitungszeit für Abfragen zu steuern. Darüber hinaus ist das Modell anpassungsfähiger als sein Vorgänger und unterstützt Funktionen wie Entwicklernachrichten zur Anpassung des Chatbot-Verhaltens und ermöglicht strukturierte Ausgaben mithilfe eines JSON-Schemas.
Um dynamischere Interaktionen zu ermöglichen, hat OpenAI seine Funktionen zum Aufrufen von Funktionen verbessert, sodass das Modell beim Generieren von Antworten vorab geschriebene externe Funktionen nutzen kann. Berichten zufolge erfordert diese API-Iteration im Vergleich zu 60 % weniger Token für die Verarbeitung o1-Vorschauund erreicht gleichzeitig eine höhere Genauigkeitsrate – zwischen 25 und 35 Prozentpunkte mehr bei Benchmarks wie LiveBench und AIME.
OpenAI hat auch seine Fähigkeiten in Bezug auf Echtzeitinteraktionen durch seine Realtime API erweitert und unterstützt jetzt WebRTC für eine reibungslosere Audiokommunikation. Diese Ergänzung zielt darauf ab, die Integration für Entwickler zu vereinfachen und die Komplexität des Codes von etwa 250 Zeilen auf etwa ein Dutzend deutlich zu reduzieren. Darüber hinaus hat OpenAI die Kosten für o1-Audio-Tokens um 60 % und Mini-Tokens um 90 % gesenkt, um die Nutzung bei Entwicklern zu fördern.
„Unsere WebRTC-Integration ist darauf ausgelegt, reibungslose und reaktionsschnelle Interaktionen unter realen Bedingungen zu ermöglichen, selbst bei variabler Netzwerkqualität“, schrieb OpenAI im Blog. „Es übernimmt die Audiokodierung, das Streaming, die Rauschunterdrückung und die Überlastungskontrolle.“
Ein weiteres wichtiges Update umfasst eine neue Methode zur Feinabstimmung von KI-Modellen, die sogenannte direkte Präferenzoptimierung. Dadurch können Modelltrainer zwei Ausgaben bereitstellen und eine Präferenz angeben, ohne für jedes Szenario genaue Eingabe-/Ausgabebeispiele angeben zu müssen. OpenAI behauptet, dass diese Methode die Fähigkeit des Modells verbessert, sich an verschiedene Besonderheiten in Bezug auf Antwortstil, Formatierung und Hilfsbereitschaft anzupassen.
Entwickler in Programmiersprachen wie Go und Java können jetzt auf neue Software Development Kits (SDKs) zugreifen, die für eine einfachere API-Integration konzipiert sind. Während diese Updates voranschreiten, plant OpenAI, den Zugriff zu erweitern und die Ratenlimits für mehr Entwickler über die ursprüngliche Stufe 5 hinaus zu erhöhen.
Hervorgehobener Bildnachweis: OpenAI