Apple steht vor einer Klage, in der dem Unternehmen vorgeworfen wird, das Vorhandensein von kinderpornografischem Material auf seiner iCloud-Plattform nicht ausreichend eingeschränkt zu haben. Laut der New York Times fordern die Kläger, die als Opfer von Missbrauch bezeichnet werden, über 1,2 Milliarden US-Dollar Schadensersatz. Sie behaupten, dass Apple ein 2021 geplantes Erkennungssystem, das schädliche Inhalte identifizieren sollte, aufgegeben habe.
Die am Samstag eingereichte Klage stammt von einer 27-jährigen Frau, die argumentiert, Apples Untätigkeit habe die weite Verbreitung von Bildern ihres Missbrauchs ermöglicht. Wie die New York Times berichtet, behauptet die Klägerin, dass ihr Missbrauchstäter die Bilder auf Apples iCloud-Dienst hochgeladen habe. Sie erklärte außerdem, dass sie und ihre Mutter regelmäßig Benachrichtigungen von Strafverfolgungsbehörden erhielten, sobald Personen wegen des Besitzes dieser illegalen Bilder angeklagt wurden.
„Es war schwer zu glauben, dass es da draußen so viele gibt“, sagte sie. „Sie haben nichts unternommen.“
Opfer fordern über 1,2 Milliarden US-Dollar Schadensersatz
Die Klage zielt darauf ab, Apple für seine Entscheidung zur Rechenschaft zu ziehen und fordert Entschädigungen für bis zu 2.680 Opfer. Gemäß US-amerikanischem Recht haben Überlebende des sexuellen Missbrauchs von Kindern Anspruch auf mindestens 150.000 US-Dollar pro Person. Sollte Apple verantwortlich gemacht werden, könnte die Gesamthaftung des Unternehmens die Summe von 1,2 Milliarden US-Dollar deutlich übersteigen.
Der Fall hat seinen Ursprung in Apples Entscheidung von 2022, ein geplantes System zur Überprüfung von iCloud-Bildern auf Kindesmissbrauchsmaterial (CSAM) aufzugeben. Das System, das 2021 eingeführt werden sollte, hätte On-Device-Hashing verwendet, um solche Inhalte zu erkennen.
Apple legte das Projekt jedoch aufgrund weitreichender Kritik an möglichen Datenschutzverletzungen und Missbrauchsrisiken auf Eis. Im September 2022 erklärte das Unternehmen, dass es aufgrund der Gefahr unbeabsichtigter Konsequenzen von der Umsetzung abgesehen habe.
Klage wirft neues Licht auf Apples Ruf in Sachen Datenschutz
Die Klage wirft auch neues Licht auf Apples langjährige Reputation als Unternehmen mit starkem Datenschutz. Sie folgt zeitlich einer weiteren Klage aus North Carolina, in der es um eine neunjährige Klägerin geht. In diesem Fall wird Apple beschuldigt, Fremden ermöglicht zu haben, CSAM über iCloud zu verbreiten.
Seit Jahrzehnten schützt Abschnitt 230 des Communications Decency Act Unternehmen vor Haftung für nutzergenerierte Inhalte. Jüngste Entscheidungen des US-Berufungsgerichts für den neunten Bezirk klären jedoch, dass dieser Schutz nur für Moderationsentscheidungen gilt und nicht uneingeschränkt ist.
Im Fall aus North Carolina hat Apple die Abweisung der Klage beantragt und argumentiert, dass Abschnitt 230 das Unternehmen vor der Haftung für von Dritten hochgeladene Inhalte auf iCloud schütze. Außerdem behauptet Apple, dass iCloud nicht als Produkt – wie ein defekter Reifen – angesehen werden könne und daher nicht den Produkthaftungsansprüchen unterliege.
Ein Sprecher von Apple, Fred Sainz, erklärte gegenüber der New York Times:
Kindesmissbrauchsmaterial ist abscheulich, und wir sind entschlossen, die Wege zu bekämpfen, auf denen Täter Kinder gefährden. Wir arbeiten dringend und aktiv an Innovationen, um diese Verbrechen zu bekämpfen, ohne die Sicherheit und Privatsphäre aller unserer Nutzer zu beeinträchtigen.
Big Tech unter Druck
Apple ist nicht das einzige große Technologieunternehmen, das wegen der Auswirkungen seiner Plattformen auf Kinder unter Beobachtung steht. Anfang dieses Jahres berichtete ReadWrite, dass die CEOs von Meta, TikTok, Snap, Discord und X vor einem US-Senatsausschuss erschienen, um sich mit der Ausbeutung von Kindern im Internet auseinanderzusetzen.
Im Juli verabschiedete der Senat den „Stopping Harmful Image Exploitation and Limiting Distribution (SHIELD) Act“, der die Verbreitung privater, sexuell expliziter oder nackter Bilder kriminalisiert. Michael Salter, Professor für Kriminologie an der Universität von New South Wales in Australien, schrieb auf X:
In Abwesenheit von Gesetzesreformen in großen Rechtsgebieten wie den USA oder der EU sind Zivilklagen eine der wenigen Möglichkeiten, Technologieunternehmen zur Verantwortung zu ziehen.
Apple is being sued for not removing child sexual abuse material from iCloud although it has the tools to do so. In the absence of law reform in major jurisdictions like the USA or the EU, civil suits are one of the few ways to hold tech to account. https://t.co/ctt6FnT8uL
— Michael Salter (@mike_salter) December 9, 2024
ReadWrite hat Apple um eine Stellungnahme gebeten.
Bildnachweis: Ideogram