OpenAI hat in den letzten zwei Monaten Ingenieurs-, Produkt- und Forschungsteams zusammengeführt, um seine Audiomodelle zu überarbeiten und sich auf die Markteinführung eines Audio-First-Personal-Geräts vorzubereiten, das in etwa einem Jahr auf den Markt kommen soll, wie aus einem Bericht von hervorgeht Die Informationen. Die Überarbeitung zielt auf Verbesserungen der Audiofunktionen von OpenAI ab, die über die aktuellen Einschränkungen hinausgehen. Das neue Audiomodell des Unternehmens, dessen Veröffentlichung für Anfang 2026 geplant ist, wird eine natürlicher klingende Sprache erzeugen. Es bewältigt Unterbrechungen auf ähnliche Weise wie ein echter Gesprächspartner. Dieses Modell wird es der KI auch ermöglichen, gleichzeitig zu sprechen, während der Benutzer spricht, eine Funktion, die bestehende Modelle nicht ausführen können. OpenAI plant eine Gerätefamilie, die auf dieser fortschrittlichen Audiotechnologie basiert. Mögliche Ausführungen sind Brillen oder bildschirmlose Smart Speaker. Diese Geräte zielen darauf ab, als Begleiter und nicht als bloße Werkzeuge zu fungieren und sich nahtlos in die täglichen Interaktionen zu integrieren.
Der ehemalige Apple-Designchef Jony Ive trägt zu den Hardware-Initiativen von OpenAI bei. OpenAI erwarb seine Firma io im Mai für 6,5 Milliarden US-Dollar. Ive priorisiert Audio-First-Designprinzipien, um der Gerätesucht entgegenzuwirken. Wie The Information feststellt, sieht Ive diesen Ansatz als eine Gelegenheit, „die Fehler früherer Verbrauchergeräte zu korrigieren“. Der Vorstoß hin zu Audioschnittstellen steht im Einklang mit breiteren Branchenentwicklungen. Intelligente Lautsprecher mit Sprachassistenten gibt es in mehr als einem Drittel der US-Haushalte. Diese Geräte haben die Sprachinteraktion als Standardelement im Haushalt etabliert. Meta hat eine Funktion dafür eingeführt Ray-Ban-Datenbrille das ein Fünf-Mikrofon-Array verwendet. Dieses Setup unterstützt Benutzer dabei, Gespräche in lauten Umgebungen zu hören. Die Technologie verwandelt die Brille effektiv in ein gerichtetes Hörgerät, das im Gesicht positioniert wird. Google hat im Juni Experimente mit „Audioübersichten.“ Diese Funktion wandelt Suchergebnisse in Gesprächszusammenfassungen um, die per Audio übermittelt werden. Benutzer erhalten gesprochene Übersichten anstelle visueller Listen, was den freihändigen Zugriff auf Informationen erleichtert. Tesla integriert Grok und andere große Sprachmodelle in seine Fahrzeuge. Durch die Integration entstehen Konversations-Sprachassistenten, die einen natürlichen Dialog ermöglichen. Diese Assistenten verwalten Aufgaben wie Navigation und Klimatisierung durch gesprochene Befehle und Antworten. Startups verfolgen ähnliche audiozentrierte Hardware mit gemischten Ergebnissen. Die Anstecknadel für humane KIein bildschirmloses Wearable, verschlang Hunderte Millionen an Finanzmitteln, bevor es in der Branche zu einem warnenden Beispiel wurde. Der Friend AI-Anhänger fungiert als Halskette, die Aspekte des Lebens der Benutzer aufzeichnet und gleichzeitig Kameradschaft bietet. Dieses Gerät hat neben Berichten über existenzielle Ängste bei den Benutzern auch Datenschutzbedenken hervorgerufen. Weitere Start-ups entwickeln KI-Ringe, deren Debüt für 2026 geplant ist. Sandbar stellt einen Versuch dar. Bei einem anderen handelt es sich um Pebble-Gründer Eric Migicovsky. Diese Ringe ermöglichen es dem Träger, Gespräche direkt mit dem Gerät an der Hand zu führen. Die Formfaktoren variieren bei diesen Projekten – Wearables, Anhänger, Ringe –, aber alle legen Wert auf Audio als primäre Schnittstelle. Räume wie Häuser, Autos und sogar das Gesicht entwickeln sich zu interaktiven Audioumgebungen.





