Laut Apple sieht sich Apple mit einer Klage von Opfern sexuellen Kindesmissbrauchs konfrontiert, weil sie es versäumt haben, ein System zur Erkennung von Material zum sexuellen Kindesmissbrauch (Child Sexual Abuse Material, CSAM) in iCloud zu implementieren Die New York Times. Die Klage fordert Schadensersatz in Höhe von über 1,2 Milliarden US-Dollar für etwa 2.680 Personen, was angebliche Nachlässigkeit beim Schutz der Benutzer vor Schaden widerspiegelt.
Apple verklagte 1,2 Milliarden US-Dollar wegen fehlgeschlagener Erkennung von Material zum sexuellen Missbrauch von Kindern
Im Jahr 2021 gab Apple seine Absicht bekannt, eine einzuführen CSAM Erkennungstool, das iCloud nach missbräuchlichen Bildern durchsuchen und das Nationale Zentrum für vermisste und ausgebeutete Kinder alarmieren soll. Ziel dieser Initiative war es, die Ausbeutung von Kindern wirksam zu bekämpfen. Aufgrund erheblicher Gegenreaktionen wegen Datenschutzbedenken gab Apple das Projekt jedoch auf, wodurch die Angeklagten ungeschützt blieben und der anhaltende Missbrauch nicht aufgeklärt wurde.
Die Klage wurde in Nordkalifornien eingereicht und führt an, dass Apple „diese Entwürfe nicht umgesetzt oder Maßnahmen ergriffen hat, um CSAM auf seinen Geräten zu erkennen und einzuschränken“. Die Behauptung umfasst Erfahrungen einer 27-jährigen Frau, die angab, dass sie immer noch Benachrichtigungen der Strafverfolgungsbehörden über die Online-Weitergabe ihrer Bilder erhält, die sie als Kind aufgenommen hat. Die Klage betont den emotionalen Aufruhr, den die Opfer erleiden, wenn diese Materialien ungehindert zirkulieren.
„Materialien über sexuellen Missbrauch von Kindern sind abscheulich und wir setzen uns dafür ein, die Art und Weise zu bekämpfen, in der Raubtiere Kinder gefährden. Wir arbeiten dringend und aktiv an Innovationen, um diese Verbrechen zu bekämpfen, ohne die Sicherheit und Privatsphäre aller unserer Benutzer zu gefährden. Funktionen wie Communication Safety warnen beispielsweise Kinder, wenn sie Inhalte mit Nacktheit empfangen oder zu versenden versuchen, um die Kette der Nötigung zu durchbrechen, die zu sexuellem Kindesmissbrauch führt. Wir konzentrieren uns weiterhin stark auf Gebäudeschutzmaßnahmen, die dazu beitragen, die Ausbreitung von CSAM zu verhindern, bevor sie beginnt“, sagte Apple-Sprecher Fred Sainz Engadget.
Als Reaktion darauf bekräftigte Apple sein Engagement für die Bekämpfung des sexuellen Missbrauchs von Kindern und räumte gleichzeitig der Privatsphäre der Benutzer Priorität ein. Sprecher Fred Sainz bemerkte: „Materialien über sexuellen Missbrauch von Kindern sind abscheulich und wir setzen uns dafür ein, die Art und Weise zu bekämpfen, in der Raubtiere Kinder gefährden.“ Er verwies auf bestehende Maßnahmen wie Kommunikationssicherheit, die Kinder davor warnt, explizite Inhalte zu teilen.
Trotz dieser Bemühungen sah sich Apple kürzlich einer zusätzlichen Prüfung ausgesetzt, als die britische National Society for the Prevention of Cruelty to Children dem Unternehmen vorwarf, auf seinen Plattformen gefundene CSAM nicht ausreichend zu melden. Dies erhöht den wachsenden Druck hinsichtlich der Strategien von Apple, dieses Problem effektiv zu lösen.
Hervorgehobener Bildnachweis: Niels Kehl/Unsplash