Meta hat bestätigt, dass alle damit aufgenommenen Bilder auch zum Training seiner KI-Modelle verwendet werden können. Das Unternehmen wich der Frage zunächst aus und antwortete dann TechCrunchdass mit der Ray-Ban-Meta-Brille aufgenommene Fotos und Videos zwar nicht für das Training verwendet werden können, es sei denn, sie werden an AI gesendet. Sobald Meta AI jedoch mit der Analyse beauftragt wird, unterliegen diese Bilder anderen Richtlinien und können verwendet werden für KI-Training.‘
Ihre Daten „können zur Verbesserung verwendet werden“
In einer E-Mail an TechCrunchEmil Vazquez, Policy Communications Manager von Meta, erklärte, dass Bilder und Videos, die mit Meta AI in den USA und Kanada geteilt werden, „zur Verbesserung verwendet werden können“, wie es in der Datenschutzrichtlinie des Unternehmens heißt. Das heißt, wann immer Sie die KI bitten, Ihre Umgebung zu analysieren, geben Sie Daten an Meta weiter, die diese zur Verbesserung ihrer KI-Modelle verwenden kann.
Die Enthüllung ist besonders besorgniserregend angesichts der neuen, einfachen-Nutzbare KI-Funktionen, die mit der Ray-Ban Meta-Brille eingeführt wurden. Jetzt kann die KI Echtzeit-Streams analysieren, beispielsweise das Durchsuchen eines Kleiderschranks, um Vorschläge zum Anziehen zu machen, aber auch diese Bilder werden an Meta gesendet, um das KI-Modell zu trainieren.
Da Benutzer jedoch beginnen, mit diesen Datenbrillen zu interagieren, ist unklar, ob sie Meta für die KI-Entwicklung auch Zugriff auf persönliche Bereiche, geliebte Personen oder sensible Daten gewähren. Daran führt kein Weg vorbei, außer die multimodalen KI-Funktionen von Meta nicht zu nutzen. Laut Meta können Interaktionen mit der KI-Funktion zum Trainieren von Modellen verwendet werden, dies wird jedoch nicht immer auf der Benutzeroberfläche angezeigt.
Während Smart-Brillen in Datenschutzbedenken münden, spiegeln diese Bedenken die Bedenken rund um Google Glass wider, jetzt jedoch mit Edge-KI im Mittelpunkt. Meta, das seine KI-gestützten Wearables vorantreibt, fragt: Wie weit sind Benutzer bereit, wissentlich oder unwissentlich zu gehen, um eine Generation von KI-Modellen fortzusetzen?
Hervorgehobener Bildnachweis: Meta