Jon McCormack, Chef der Kamerasoftware von Apple, und Megan Nash, Produktmanagerin für iPhone, in einer BW-Geschäftswelt Interviewerläuterte die mehrjährige Entwicklung der Center Stage-Frontkamera im iPhone 17 und iPhone Air, die entwickelt wurde, um Benutzerschwierigkeiten bei der Aufnahme von Selfies zu beheben. Das neue Kamerasystem reagiert darauf, dass Apple „Reibungen beim Aufnahmeerlebnis“ beobachtet. Jon McCormack, Chef der Kamerasoftware, erläuterte detailliert das Benutzerverhalten, das auf diese Spannung hindeutet. „Wir sehen Selfie-Sticks; wir sehen Leute, die zur 0,5-fachen Ultraweitwinkelkamera wechseln; wir sehen Leute, die das iPhone in die Horizontale drehen; und wir sehen sogar Leute, die das iPhone der größten Person in der Gruppe übergeben, um die maximale Armausdehnung zu erreichen“, erklärte McCormack. Diese Problemumgehungen signalisierten, dass Benutzer die Bildeinschränkungen der Kamera aktiv kompensierten. Um dieses Problem zu lösen, bestand Apples Ziel darin, eine intelligente Kamera zu entwickeln, die solche Anpassungen überflüssig macht. Das Projekt wurde von einer von McCormack formulierten Frage vorangetrieben: „… was wäre, wenn die Kamera einfach verstehen könnte, was Sie aufnehmen möchten, und diese Anpassungen dann für Sie vornehmen könnte?“ Diese Philosophie zielte darauf ab, die Verantwortung für die Komposition vom Benutzer auf das Gerät zu verlagern, sodass die Technologie den Framing-Prozess basierend auf der Absicht des Benutzers automatisieren kann. Führungskräfte bestätigten, dass die Bemühungen „Jahre in der Entwicklung“ waren und ihre Umsetzung von der jüngsten technologischen Reife abhängt. McCormack bemerkte dass die erforderliche Rechenleistung und das Industriedesign erst jetzt verfügbar waren. „Wir wollten das schon seit einiger Zeit machen, und dies ist erst das erste Jahr, in dem wir es tatsächlich schaffen“, sagte er und wies darauf hin, dass frühere technische Hindernisse eine frühere Veröffentlichung verhinderten.
Apple beendet kostenlose Reparaturprogramme für AirPods Pro und iPhone 12
Ein Schlüsselelement der neuen Kamera ist die geplante Integration zwischen dem Sensor und Apples Silizium. iPhone-Produktmanagerin Megan Nash erklärte, dass hierfür langfristige architektonische Weitsicht erforderlich sei. „Jahre im Voraus haben wir darüber nachgedacht, wie diese neue Frontkamera das Hochgeschwindigkeits-Apple-Kamera-Interface benötigen würde“, sagte Nash. Sie präzisierte, dass die A19- und A19 Pro-Chips „ACI verwenden, um Daten effizient zwischen dem Bildsensor und dem Chip zu übertragen“, ein Design, das zur Verarbeitung der großen Datenmenge des neuen Sensors erforderlich ist. Das System ist außerdem darauf ausgelegt, die endgültige Bildqualität zu verbessern. Nash betonte, dass die Kamera durch die Ausrichtung des iPhones im Hochformat dafür sorgt, dass „die Augen der Probanden immer an die richtige Stelle blicken“. Dadurch wird ein häufiges Problem bei Landschafts-Selfies behoben, bei dem der Blickkontakt mit der Linse oft falsch ausgerichtet ist, was zu einem weniger direkten Blick auf das Foto führt. Auch die Videofunktionen wurden verbessert. McCormack definierte Apples Ziel für die Kamera darin, sie „unsichtbar“ zu machen, was erreicht wird, wenn komplexe Funktionen wie die Stabilisierung zu Standardverhalten werden. „Wir haben dies erreicht, indem wir den großen Overscan-Bereich des Sensors genutzt haben, um diese erstaunliche Stabilität zu ermöglichen“, erklärte er. Diese Hardware ermöglicht die automatische Aktivierung des Aktionsmodus für Selfie-Videos. „Dank des größeren Sichtfelds und des hochauflösenden Sensors können wir den Aktionsmodus automatisch verwenden. Sie müssen ihn nicht einmal einschalten, sodass Sie beim Gehen, Radfahren oder Laufen sicher sein können, dass Ihr Video großartig wird.“





