LinkedIn hat seine Nutzer stillschweigend dazu zugelassen, generative KI-Modelle zu trainieren, ohne explizit um Zustimmung zu bitten, was Bedenken hinsichtlich des Datenschutzes auf der Plattform aufkommen lässt. Laut einem Bericht von 404MedienLinkedIn hat seine Datenschutzrichtlinie geändert und erklärt, dass Benutzerdaten zum Trainieren von KI-Modellen verwendet werden können. Die Plattform hat die Richtlinie inzwischen aktualisiert und ermöglicht es Benutzern nun, dieser Praxis zu widersprechen.
Aktualisierte LinkedIn-Richtlinie enthüllt die Verwendung personenbezogener Daten beim KI-Training
Der aktualisierte Richtlinie gibt an, dass LinkedIn personenbezogene Daten verwenden kann, um „Produkte und Dienste zu verbessern, zu entwickeln und bereitzustellen“ sowie um KI-Modelle zu trainieren. Generative KI wird für Funktionen wie Schreibassistenten verwendet, aber LinkedIn behauptet, dass es datenschutzfreundliche Technologien einsetzt, um personenbezogene Daten zu redigieren. Benutzer, die nicht teilnehmen möchten, können sich abmelden, indem sie zu „Datenschutz“ Registerkarte in ihren Kontoeinstellungen, deaktivieren Sie die Option „Daten zur generativen KI-Verbesserung” umschalten.
Durch das Opt-out wird LinkedIn jedoch lediglich davon abgehalten, Ihre Daten für zukünftige Modelltrainings zu verwenden. Bereits verwendete Daten bleiben davon unberührt. Darüber hinaus stellt LinkedIn klar, dass Benutzer in der EU, dem EWR oder der Schweiz nicht in das KI-Modelltraining einbezogen werden.
Wenn Sie Bedenken hinsichtlich anderer maschineller Lerntools haben, die zur Personalisierung und Moderation verwendet werden, verlangt LinkedIn von seinen Benutzern, ein „Einspruchsformular zur Datenverarbeitung“ auszufüllen.” sich auch von dieser Nutzung abzumelden.
LinkedIns stillschweigende Zustimmung zur Teilnahme erinnert an ähnliche Maßnahmen von Meta. Das Unternehmen hat kürzlich zugegeben, bereits seit 2007 nicht-private Benutzerdaten für KI-Trainingszweck gesammelt zu haben.
Der Zeitpunkt für den Schritt von LinkedIn kommt zu einem Zeitpunkt, an dem andere große Technologieunternehmen wie OpenAIsehen sich ebenfalls mit Gegenreaktionen für ähnliche Praktiken konfrontiert. Dieses Muster, Benutzer stillschweigend in KI-Schulungen einzuschreiben, ohne klare und deutliche Benachrichtigungen, erzeugt ein Gefühl des Unbehagens.
Laut Mira Murati, CTO von OpenAI, wurde Sora anhand öffentlich verfügbarer und lizenzierter Daten trainiert pic.twitter.com/rf7pZ0ZX00
— Zarathustra (@tsarnick) 13. März 2024
Es geht nicht nur darum, welche Daten für KI verwendet werden – es geht auch darum, wer darüber entscheiden darf und wie gut diese Entscheidungen fundiert sind. Die Technologiebranche wird schon lange dafür kritisiert, dass sie bei der Datenerfassung im Verborgenen agiert, und der wachsende Vorstoß für generative KI verstärkt diese Bedenken nur noch.
Können Maschinen Ihre persönlichen Daten vergessen?
Ein weiteres wichtiges Problem ist, dass sich ein Opt-out nur auf die zukünftige Verwendung personenbezogener Daten auswirkt. Alle Daten, die bereits in KI-Modelle eingespeist wurden, verbleiben im System, und dieser Mangel an nachträglicher Kontrolle kann bei vielen Benutzern ein Gefühl der Machtlosigkeit hervorrufen. Die Branche spricht auch von „maschinelles Verlernen„Um dies zu verhindern, werden die in KI-Modelle eingespeisten Daten gelöscht.
Die Tatsache, dass LinkedIn „datenschutzverbessernde Technologien“ zur Anonymisierung von Daten einsetzt, ist einigermaßen beruhigend, geht aber nicht auf das tiefere Problem ein: die Notwendigkeit proaktiverer, benutzerzentrierter Datenschutzstandards.
Letztlich unterstreicht diese Situation die Notwendigkeit strengerer und klarerer Vorschriften, die den Nutzern die Kontrolle zurückgeben. Die Vorstellung, dass Technologieunternehmen unsere persönlichen Daten ohne ausdrückliche Zustimmung verwenden können, passt nicht gut in Zeiten, in denen Privatsphäre immer wertvoller wird.
Bildnachweis: Kerem Gülen/Ideogramm