Tech News Today liest sich wie eine Bilanz des KI-Zeitalters, in dem Videomodels schneller Geld verbrennen, als sie Einnahmen generieren, strategische Allianzen in Echtzeit neu geschrieben werden und jede Oberfläche, von Ihrem Fernseher bis zu Ihrem Fotoarchiv, mit einer ständig aktiven KI-Ebene ausgestattet wird, die stillschweigend die Art und Weise, wie Sie Technologie nutzen, neu gestaltet.
Tägliches Technologie-News-Update: 12. November 2025
In den heutigen Geschichten wiederholen sich immer wieder drei Belastungen:
- Erstens kollidieren die reinen Kosten für den Betrieb von Grenzmodellen in großem Maßstab mit der Erwartung, dass sich Verbraucher-KI billig oder kostenlos anfühlen sollte.
- Zweitens vertrauen die großen Plattformen nicht mehr allein auf Partnerschaften, um sich ihren Platz in einer möglichen AGI-Landschaft zu sichern, und bauen daher ihre eigenen parallelen Gleise auf, auch während sie zusammenarbeiten.
- Drittens verlagert sich die KI vom Demo-Gelände in die Infrastruktur und verwandelt Fernseher in Assistenten, Archive in generative Leinwände, Speicherreiniger in Minispiele und Videoplattformen in Echtzeit-Erklärer. Die Unternehmen, die diese Phase gewinnen, werden diejenigen sein, die dafür sorgen können, dass sich KI unumgänglich und unvermeidlich anfühlt, ohne dass die Wirtschaft oder die Unternehmensführung ihrer Kontrolle entgleitet.
OpenAI stützt sich auf nicht nachhaltige Sora-Ausgaben, um Zeit und Daten zu gewinnen
Schätzungen von Forbes deuten darauf hin OpenAI gibt etwa 15 Millionen Dollar pro Tag aus, um Sora zu betreibenwas etwa 5,4 Milliarden Dollar pro Jahr und mehr als einem Viertel des prognostizierten jährlichen wiederkehrenden Umsatzes des Unternehmens von 20 Milliarden Dollar entspricht. Das Modell ist geradlinig und brutal. Wenn 25 Prozent der 4,5 Millionen iOS-Benutzer von Sora jeweils etwa 10 Videos pro Tag erstellen und die Produktion eines 10-Sekunden-Clips etwa 1,30 Dollar kostet, kommen die Zahlen eher einer Energierechnung als einer Softwarekostenlinie gleich.
OpenAI, das Berichten zufolge im letzten Quartal mehr als 12 Milliarden Dollar verloren hat, lehnte es ab, sich zu der Analyse zu äußern, aber Sora-Chef Bill Peebles sagte bereits, die Wirtschaft sei „völlig unhaltbar“. Dies ist das alte Internet-Playbook im Videomaßstab. Sie subventionieren das Produkt stark, sammeln Eingabeaufforderungen und Nutzungsmuster als Trainingsdaten und vertrauen darauf, dass eine Kombination aus algorithmischen Verbesserungen und Hardwaregewinnen die Stromerzeugung bis 2026 um das Fünffache billiger machen wird. Das Risiko ist einfach. Wenn die Kosten nicht so schnell sinken wie versprochen, betreibt OpenAI nicht nur ein teures Produkt, sondern finanziert ein ganzes kulturelles Experiment mit kostenlosen KI-Videos, das sich später als weitaus schwieriger erweisen könnte.
Yann LeCuns Weltmodellvision ist dabei, Metas Mauern zu verlassen
Metas leitender KI-Wissenschaftler Yann LeCun bereitet sich Berichten zufolge darauf vor, das Unternehmen zu verlassen und ein Startup aufzubauen, das sich auf Weltmodelle konzentriertund das ist keine routinemäßige Umbesetzung der Führungsebene. LeCun ist eine der Gründungsfiguren auf diesem Gebiet, von seiner LeNet-Arbeit über frühe Faltungs-Neuronale Netze zur Handschrifterkennung in den späten 1980er und frühen 1990er Jahren bis zu seiner Rolle bei der Gründung von FAIR im Jahr 2013 als Metas Grundlagenforschungslabor. Bei Meta hat er selbstüberwachtes Lernen, langfristige Weltmodellforschung und Architekturen für autonome Systeme vorangetrieben, die unter Unsicherheit arbeiten können. Die Financial Times berichtet, dass er sich bereits in ersten Kapitalbeschaffungsgesprächen befindet, wobei sich das neue Unternehmen auf strukturierte Darstellungen der physischen und konzeptionellen Welt konzentriert, die Vorhersagen und Entscheidungen unterstützen können.
Der Zeitpunkt ist für Meta ungünstig. Das Unternehmen hat bis 2028 mehr als 600 Milliarden US-Dollar an US-Investitionen in KI-Infrastruktur- und Personalinitiativen zugesagt, einen 14,3-Milliarden-Dollar-Anteil an Scale AI übernommen und seine KI-Organisationen umstrukturiert, während Eliteeinheiten wie Meta Superintelligence Labs unangetastet blieben. Wenn LeCuns Vision von Weltmodellen eine sauberere Umsetzung und Steuerung außerhalb von Meta findet, könnte das Unternehmen feststellen, dass seine wichtigste langfristige Wette auf maschinelles Verständnis gerade dann aufgegeben wurde, als es sich auf „Superintelligenz“ konzentrierte, und dass es nun mit einem Gründer konkurrieren muss, den es einst in den Mittelpunkt seiner Forschungsgeschichte gestellt hatte.
Microsoft schreibt seinen OpenAI-Deal um, um ein eigenes AGI-Rennen zu veranstalten
Microsoft und OpenAI haben eine neue endgültige Vereinbarung unterzeichnet, die eine entscheidende Bremse für Redmonds Ambitionen beseitigt. Berichten zufolge war Microsoft gemäß den vorherigen Bedingungen bis 2030 daran gehindert, AGI unabhängig weiterzuverfolgen. Der aktualisierte Deal hebt diese Einschränkung auf und macht Microsoft den Weg frei, neben OpenAI seine eigene Grenzmodellagenda zu betreiben, anstatt das Labor als seine Standard-AGI-Pipeline zu behandeln. Mustafa Suleyman, KI-Chef von Microsoft, formulierte den Wandel deutlich und sagte, das Unternehmen müsse „in KI autark“ sein und „Grenzmodelle aller Größenordnungen“ auf seinen eigenen Rechnern und Daten trainieren. Ein neues MAI-Superintelligence-Team soll diese Aussage durch den Aufbau einer internen Forschungsgruppe mit den gleichen Ambitionen wie der externe Partner umsetzen.
Die Vereinbarung schützt immer noch Microsofts rund 13 Milliarden US-Dollar-Anteil und zementiert die IP-Rechte an OpenAI-Modellen und -Produkten, einschließlich Post-AGI-Systemen, bis 2032. Außerdem erzwingt sie, dass jeder OpenAI-Anspruch auf AGI durch ein unabhängiges Expertengremium und nicht durch eine einseitige Pressemitteilung erfolgt. Das Ergebnis ist eine explizitere Doppelspur. Microsoft wird weiterhin OpenAI-Modelle vertreiben und monetarisieren, ist aber strukturell nicht mehr darauf angewiesen, dass die Roadmap von OpenAI perfekt mit seinem eigenen strategischen Timing übereinstimmt.
Samsung macht den Fernseher zum primären KI-Assistenten
Samsungs Vision AI Companion verwandelt seine TV-Reihe 2025 in einen Allzweckassistenten das auf dem größten Bildschirm im Raum steht und nicht in einem intelligenten Lautsprecher auf einem Beistelltisch. Bei der Funktion handelt es sich um eine Konversationsebene, mit der Benutzer fragen können, wofür ein Schauspieler bekannt ist, wer ein Kunstwerk auf dem Bildschirm erstellt hat oder wie hoch die Punktzahl in einem Spiel war, auf das verwiesen wird, und die Antworten dann mit dem Video abgleichen, ohne die Wiedergabe zu unterbrechen.
Bild: Samsung
Bis zur Unkenntlichkeit bietet Vision AI Companion Empfehlungen für Shows und Filme, gibt Kochanleitungen, gibt Reisetipps basierend auf Reisezielen oder Themen und zeigt lokale Restaurants an. Im Wesentlichen wird versucht, den Reflex „Handel in die Hand nehmen und suchen“ in einer einzigen Interaktion zu komprimieren, die nie den Fernseher verlässt. Das System nutzt Modelle von Microsoft Copilot und Perplexity und koordiniert weitere Samsung AI-Funktionen wie automatische Bildoptimierung und Live-Übersetzung durch Konversationsansagen. Die Auslieferung an die TV-Reihe 2025 mit Unterstützung für 10 Sprachen und die Positionierung in einem Zuhause, in dem der Fernseher bereits der natürliche Mittelpunkt ist, ist Samsungs Versuch, das Wohnzimmer als KI-Oberfläche zu beanspruchen, bevor ein konkurrierendes Ökosystem dort das Standardverhalten definiert.
Der Leak zum Galaxy S26 konzentriert sich auf praktische Kamera-Upgrades und echte Akkugewinne
Durchgesickerte Firmware für Samsungs Galaxy S26 und S26 Plus schlägt ein Generationen-Update vor, das auf Benutzerbeschwerden hört, anstatt Marketing-Slogans hinterherzujagen. Es wird erwartet, dass beide Telefone vom langjährigen 50-Megapixel-Hauptsensor ISOCELL S5KGN3 auf den neueren 50-Megapixel-ISOCELL S5KGNG umsteigen und das 10-Megapixel-Telemodul S5K3K1 durch ein 12-Megapixel-Telemodul S5K3LD ersetzen. Auf dem Papier sind die Auflösungsunterschiede bescheiden. In der Praxis zielen die neuen Module auf schärfere Zoombilder und sauberere Hybridbereiche ab, eine direkte Antwort auf die Kritik, dass Nicht-Ultra-Modelle bei der Teleschärfe hinterherhinken. Der Sony IMX564 Ultrawide mit 12 Megapixeln scheint unverändert zu sein, was aufschlussreich ist. Samsung scheint zu glauben, dass seine Probleme in der Primär- und Zoomleistung liegen und nicht im Ultraweitwinkelbereich.
Auf der Videoseite weist die Firmware auf Advanced Professional Video mit bis zu 4K bei 60 Bildern pro Sekunde sowohl auf der Vorder- als auch auf der Rückkamera hin, was signalisiert, dass Entwickler jedes Objektiv als brauchbares Primärobjektiv betrachten sollten. Darunter bleibt die übliche Aufteilung bestehen, mit Exynos 2600 in den meisten Regionen und Snapdragon 8 Elite Gen 5 in Märkten wie den Vereinigten Staaten, während APV auf beiden weiterhin unterstützt wird. Der Batteriewechsel erfolgt asymmetrisch. Berichten zufolge wächst die Kapazität des S26 von 4.000 mAh auf 4.300 mAh, während das S26 Plus bei 4.900 mAh bleibt, wobei echte Zuwächse durch Effizienzverbesserungen und mögliches magnetisches Qi2-Laden erwartet werden. Wenn das Leck besteht, handelt es sich um einen Verfeinerungszyklus, der darauf abzielt, das Erlebnis dort zu verbessern, wo es im täglichen Gebrauch tatsächlich ausfällt, und nicht, um die Zahlen auf einer Folie aufzublähen.
Apples Adaptive Power-Funktion stellt die Erwartungen an den iPhone-Akku stillschweigend um
Adaptive Power in iOS 26 ist eine kleine Bezeichnung für einen bedeutenden Wandel in der Art und Weise, wie Apple KI zur Verwaltung der bereits ausgelieferten Hardware einsetzt. Im Gegensatz zum Energiesparmodus, der die Bildschirme dimmt und die Hintergrundaktivität in großen Schritten reduziert, nutzt Adaptive Power die Intelligenz des Geräts, um etwa eine Woche lang das Benutzerverhalten zu lernen, und drosselt dann die Leistung nur in Momenten, in denen der Akku am meisten profitieren würde, z. B. bei intensiver Videoaufnahme, Fotobearbeitung oder Spielen. Es ist standardmäßig auf der iPhone 17-Serie und dem iPhone Air aktiviert und ist als Opt-In für Apple Intelligence-fähige Geräte wie die iPhone 16-Reihe und die iPhone 15 Pro-Modelle verfügbar.
Wenn es aktiviert wird, sehen Benutzer eine Benachrichtigung, es gibt jedoch kein neues Interaktionsmodell, das sie erlernen müssen. Die Funktion befindet sich unter „Einstellungen“ im Abschnitt „Akku“ als neue Energiemodus-Option mit einem zusätzlichen Schalter für Benachrichtigungen. Der interessantere Punkt ist strategischer Natur. Apple verknüpft diese Art der feinkörnigen Energieverwaltung direkt mit seinem Apple Intelligence-Stack und hält sie von iPad und Mac fern, selbst auf Geräten, die Apple Intelligence unterstützen. Mit anderen Worten: Die Akkulaufzeit wird zu einem weiteren Bereich, in dem Apple neuere, KI-fähige iPhone-Hardware differenzieren kann, ohne auf der Bühne ein Spektakel daraus machen zu müssen.
Google One verwandelt die Speicherbereinigung in einen wischbaren Entscheidungsfeed
Der aktualisierte Storage Manager von Google One versucht, die kognitiv anspruchsvolle Aufgabe des Bereinigens von Dateien in etwas zu verwandeln, das eher einem geführten Feed ähnelt. Die neue Version, bereitgestellt in Google One 1.287.828055836, aktualisiert die Speichermanager-Seite und die „Aufräumen“-Abläufe für Google Fotos und Google Drive mit Material 3 Expressive-Designelementen und einer neuen Wischoberfläche. Im Bereinigungsbereich „Fotos“ werden Miniaturansichten kleiner, sodass mehr Elemente auf den Bildschirm passen. Das Häkchen „Alle auswählen“ passt sich der neuen Designsprache an und Filterchips belegen zum besseren Scannen eine einzige horizontale Reihe. Eine neue Karte oben regt Benutzer dazu an, überflüssige Fotos und Videos zu löschen.
Der Drive-Bereinigungsbereich spiegelt diese Struktur wider, mit einer Empfehlungskarte für große oder unnötige Dokumente und Downloads, behält aber größere Miniaturansichten bei, um die Lesbarkeit der Dateinamen zu gewährleisten. Sobald Benutzer Elemente zur Überprüfung auswählen, wechselt das Erlebnis in eine Tinder-ähnliche Ansicht, in der Sie jeden Vorschlag einzeln behalten oder löschen können, indem Sie wischen. Android Authority weist darauf hin, dass diese Mechanik bereits zuvor in Google Fotos getestet wurde, nun aber mit einer schrittweisen Einführung in Google One ausgeliefert wird. Der Schritt erkennt eine grundlegende Realität der Cloud-Speicherung an. Wenn Google möchte, dass Nutzer weiterhin für die Kapazität bezahlen, muss sich das Bereinigen weniger wie eine Kontopflege anfühlen, sondern eher wie eine leichte, fast beiläufige Entscheidungsschleife.
Durch das AI-Update von Google Fotos fühlt sich Ihr Archiv weniger statisch an
Google Fotos erweitert sein KI-Toolkit auf mehr als 100 Länder und über 17 Sprachenund der kumulative Effekt besteht darin, dass sich die App weniger wie ein passives Backup anfühlt, sondern eher wie eine manipulierbare visuelle Datenbank. Benutzer können jetzt bestimmte Objekte und Personen in Fotos bearbeiten, sich auf einen neu gestalteten Editor mit vereinfachten Steuerelementen verlassen und über eine „Fragen“-Schaltfläche Bearbeitungen oder Kontext in natürlicher Sprache anfordern. Die auf Eingabeaufforderungen basierende Bearbeitung, die mit der Pixel 10-Serie eingeführt wurde, wird auf iOS-Benutzer in den USA ausgeweitet, die über einen „Hilf mir beim Bearbeiten“-Einstiegspunkt, der Gesichtsgruppen versteht, Befehle wie „Nimm Rileys Sonnenbrille ab“ oder „Engel zum Lächeln bringen“ sprechen oder eingeben können.
Video: Google
Google integriert außerdem sein Nano Banana-Bildmodell, das Neugestaltungen in Formaten wie Renaissance-Porträts oder Cartoons ermöglicht und KI-Vorlagen unterstützt, die vorhandene Fotos in Retro-Porträts oder Bilder im Actionfiguren-Stil auf Android in den USA und Indien umwandeln. Darüber hinaus wird eine KI-gesteuerte Suchfunktion, die erstmals in den USA eingeführt wurde, in mehr als 100 Ländern eingeführt und unterstützt Sprachen wie Arabisch, Bengali, Französisch, Deutsch, Hindi, Indonesisch, Italienisch, Japanisch, Portugiesisch und Spanisch. Je mehr sich diese Tools verbreiten, desto mehr ist eine persönliche Fotobibliothek keine feste Aufzeichnung von Ereignissen mehr, sondern wird zum Rohmaterial für eine kontinuierliche Neuinterpretation, die gleichermaßen kraftvoll und leicht beunruhigend ist.
Googles Android-PC-Experimente zeigen, wie sehr es sich eine Laptop-Story wünscht
Googles Bestätigung, dass Chrome OS mit Android zusammengeführt wirdIn Verbindung mit Leaks, dass Qualcomm Android 16 auf PC-Chips der Snapdragon Die Chrome OS-Seite davon ist als mehrjähriger Übergang konzipiert, der darauf abzielt, doppelte Technik zu reduzieren und App-Kompatibilität, Sicherheit und Funktionen auf Telefonen, Tablets und größeren Bildschirmen zu zentralisieren.
Die Qualcomm-Seite ist technischer, aber genauso aufschlussreich. Berichten zufolge wird in internen Repositories die Android 16-Unterstützung für „Purwa“ aufgeführt, dem Codenamen für die Snapdragon Quellen weisen ausdrücklich darauf hin, dass dies keine Garantie dafür ist, dass Snapdragon-X-Laptops mit Android bald erhältlich sein werden. Abnehmbare 2-in-1-Tabletten gelten als wahrscheinlichere frühe Angriffsziele. Das blockierende Problem ist die Softwarereife.
Rumor: Android computers appear to be on the way.
Qualcomm is working on Android 16 support for the X Elite and X (series). The picture shows purwa (Snapdragon X)'s Android 16 private code list, and Qualcomm has already uploaded the Android code for X Elite and X (to the… pic.twitter.com/pQ1vnNOvgQ
— Jukan (@Jukanlosreve) November 11, 2025
Die verschiedenen „Desktop-Modi“ von Android haben nie ganz den Erwartungen eines Laptop-Benutzers entsprochen, der eine robuste Fensterverwaltung, Tastaturkürzel und ein externes Anzeigeverhalten wünscht, das sich nicht anfällig anfühlt. Google sagt nun, dass es die DeX-Erfahrung von Samsung nutzen wird, um eine glaubwürdigere Desktop-Oberfläche zu entwickeln. Bis dahin bleibt der Android-PC eher ein wiederkehrendes Pilotprojekt als eine definierte Produktlinie, egal wie viel technische Arbeit hinter den Kulissen stattfindet.
Der neue KI-Chat von YouTube verwischt die Grenze zwischen Ansehen und Suchen
Die von Gemini unterstützte „Ask“-Schaltfläche von YouTube verwandelt einen bedeutenden Teil seines Katalogs in etwas, das eher einer konversationsorientierten Wissensoberfläche ähnelt. Bei berechtigten Videos sehen Zuschauer unter dem Player die Option „Fragen“, die einen Chat auf dem Bildschirm öffnet. Von dort aus können sie benutzerdefinierte Fragen eingeben oder kuratierte Eingabeaufforderungen verwenden, um das Video zusammenzufassen, Empfehlungen zu verwandten Inhalten zu erhalten oder Erklärungen zu bestimmten Konzepten anzufordern, während das Video weiter abgespielt wird.
Die Funktion ist in englischer Sprache für Benutzer ab 18 Jahren auf iPhone, Android und Windows in den USA, Kanada, Neuseeland und Indien verfügbar. Eine breitere Einführung ist geplant. YouTube enthält einen sichtbaren Haftungsausschluss, der darauf hinweist, dass die KI Fehler machen kann, und fordert Benutzer dazu auf, Informationen zu überprüfen, was notwendig ist, den tieferen Wandel jedoch nur teilweise berücksichtigt. Wenn ein Benutzer strukturierte Antworten, Folgefragen und weitere Anzeigevorschläge aus einem Video extrahieren kann, ohne die Seite zu verlassen, verengt sich die Grenze zwischen „Videoplattform“ und „Suchmaschine“ weiter. Das hat Konsequenzen für YouTuber, deren Arbeit zunehmend als Input für einen Antwortstream genutzt werden kann, und für Google, das nun über eine weitere Eingangstür für sachliche Suchanfragen verfügt, die die traditionelle Suche vollständig umgeht.





