OpenAI hat gestartet Echtzeit-Videofunktionen in ChatGPT, wodurch der erweiterte Sprachmodus um visuelles Verständnis erweitert wird. Diese Funktion, die am 12. Dezember eingeführt wurde, ermöglicht es Benutzern, über ihre Kamera mit der KI zu interagieren, um kontextbezogene Unterstützung zu erhalten. Die Integration stellt eine bemerkenswerte Weiterentwicklung der Konversationsfähigkeiten der KI dar, insbesondere für diejenigen, die ChatGPT Plus, Team oder Pro abonnieren.
OpenAI erweitert ChatGPT um Echtzeit-Videofunktionen
Der erweiterte Sprachmodus umfasst jetzt Echtzeit-Videoanalyse- und Bildschirmfreigabefunktionen. Benutzer können ihr Telefon auf Objekte richten, um sofort zu reagieren, oder ihren Bildschirm teilen, um detaillierte Erklärungen zu Einstellungen oder Problemen zu erhalten. Diese Ergänzung baut auf früheren Funktionen auf und ermöglicht ein interaktiveres Benutzererlebnis. OpenAI demonstrierte die Funktion während eines Livestreams und demonstrierte seine Fähigkeit, sich an lockeren Gesprächen zu beteiligen und Erkenntnisse auf der Grundlage visueller Eingaben zu liefern.
Was die Verfügbarkeit betrifft, so begann der Rollout am 12. Dezember und wird sich über die darauffolgende Woche erstrecken. Bei europäischen Nutzern sowie ChatGPT Enterprise- und Edu-Abonnenten kann es jedoch zu Verzögerungen kommen; Diese Benutzer erhalten Anfang nächsten Jahres Zugang. Diese Erweiterung zeigt, dass sich OpenAI auf die Verbesserung der Benutzerinteraktion mit KI konzentriert und damit im Einklang mit seinem übergeordneten Ziel steht, erweiterte Funktionen innerhalb seiner Produktsuite bereitzustellen.
Integrationen mit iOS 18.2
In einer parallelen Entwicklung hat Apple kürzlich eingeführt iOS 18.2, das mehrere ChatGPT-Funktionen für Siri, Schreibtools und visuelle Intelligenz enthält. Durch die Integration mit Siri kann der Sprachassistent Anfragen, die außerhalb seines Bereichs liegen, erkennen und an ChatGPT weiterleiten. Benutzer werden benachrichtigt und müssen diese Aktion genehmigen, bevor sie durchgeführt wird.
Benutzer mit iPhone 16-Geräten können dank Visual Intelligence ihre Kamera auf Objekte oder Situationen richten, um Informationen über ChatGPT oder Google abzurufen. Darüber hinaus umfasst die Funktion „Schreibwerkzeuge“ jetzt ein neues „Verfassen“-Tool, das die Erstellung von Inhalten von Grund auf mithilfe der ChatGPT-Funktionen ermöglicht. Diese Funktionen, bei denen der Nutzen und die Benutzerkontrolle im Vordergrund stehen, wurden so strukturiert, dass sie den Nutzungsbeschränkungen von ChatGPT entsprechen und ein organisiertes Erlebnis gewährleisten.
Updates von den „12 Tagen von OpenAI“
OpenAI hat eine Kampagne namens „12 Days of OpenAI“ organisiert, die am 5. Dezember beginnt und tägliche Livestream-Sitzungen umfasst, in denen neue Funktionen oder Produkte vorgestellt werden. CEO Sam Altman beschrieb die Kampagne als eine Mischung aus bedeutenden Aktualisierungen und kleineren Verbesserungen. Zu den bemerkenswerten Ankündigungen gehörte die Einführung einer neuen Weihnachtsmannstimme für den Advanced Voice Mode, die Benutzer über ein Schneeflockensymbol aktivieren können.
Darüber hinaus ist die Kampagne enthüllt Sora, das neue Videomodell von OpenAI, jetzt verfügbar für ChatGPT Pro und Plus-Benutzer. Dieses Modell kann Text-zu-Video- und Video-zu-Video-Inhalte generieren und so die kreativen Möglichkeiten der Benutzer erheblich erweitern. Weitere bemerkenswerte Updates waren die Bekanntmachung von Canvas für alle Webbenutzer, zuvor eine Beta-Funktion, die ein integrierteres Projektmanagement-Erlebnis ermöglicht.
Für die Zukunft plant OpenAI, sein Angebot zu erweitern, einschließlich einer Vollversion seines o1-Sprachmodells, um die Argumentationsfähigkeiten weiter zu verbessern. Ziel des Unternehmens ist es, Reinforcement Fine-Tuning breiter verfügbar zu machen, wobei derzeit bei Forschungsinstituten und Universitäten nach Anwendungen für die Feinabstimmung von KI-Modellen für bestimmte Aufgaben gesucht wird.
Hervorgehobener Bildnachweis: OpenAI