Scannen von iPhones durch Apple: Alles ist durchleuchtet

Apple will Fotos beim Hochladen in die Cloud künftig auf Abbildungen scannen, die sexualisierte Gewalt gegen Kinder zeigen. Das ruft Protest hervor.

Der Schatten eines Apple-Logos auf einer Straße.

Der Schatten des Apple-Logos auf einem Bürgersteig in New York Foto: Richard B. Levine/imago

Edward Snowden gehörte zu den ersten, die deutliche Worte fanden: „Egal wie gut gemeint das sein mag, Apple rollt hier eine Massenüberwachung für die ganze Welt aus“, schrieb der Whistleblower auf Twitter. Wenn der Konzern heute auf den Geräten der Nut­ze­r:in­nen nach Bildern suche, die sexuellen Missbrauch von Kindern zeigen, dann könnten sie morgen nach allem Möglichen scannen.

Anlass der Kritik war ­Apples Ankündigung eines neuen Tools, das im Herbst zunächst in den USA starten soll. Seine Funktion: Es soll Daten, die US-­Nut­ze­r:in­nen in die iCloud laden, auf Bilder, die sexuellen Missbrauch von Kindern zeigen, scannen. Dabei werden nicht Bilder direkt abgeglichen, sondern Hashes: kryptografische Prüfsummen, die ein Wiedererkennen von Bildern oder anderen Dateien ermöglichen. Das Unternehmen arbeitet dabei mit dem National Center for Missing and Exploited Children (NCMEC) zusammen. Mit Hilfe der NGO hat Apple den Algorithmus trainiert, anschlagen soll er zunächst ab einer Grenze von 30 Bildern.

Dass in die Cloud geladene Daten, Chats oder auch verschickte E-Mails auf potenziell illegale Inhalte gescannt werden, ist grundsätzlich nicht neu. Google macht es, Dropbox, Facebook oder Microsoft. Das EU-Parlament hatte erst im Juli einer Verordnung zugestimmt, die es Anbietern erlaubt, private Nachrichten von Nut­ze­r:in­nen nach Bildern, die sexuellen Missbrauch von Kindern zeigen, zu durchsuchen. Neu im Fall Apple ist allerdings, dass der Scan nicht auf Servern des Unternehmens stattfinden soll, sondern auf den Geräten der Nut­ze­r:in­nen beim Hochladen in die Cloud.

Apple erntet daher seit der Ankündigung weltweite Kritik von Organisationen aus der Zivilgesellschaft. So kommentiert etwa die digitale Bürgerrechtsorganisation Electronic Frontier Foundation (EFF): „Apple kann lang und breit erklären, wie die technische Umsetzung Privatsphäre und Sicherheit erhalten soll, aber am Ende bleibt eben auch eine umfassend dokumentierte Hintertür eine Hintertür.“ Es ist die gleiche Richtung, in die auch Snowdens Kritik geht: Heute sind es Missbrauchsbilder, morgen etwa politische Inhalte, die autoritäre Staaten gern untersagen möchten.

Wann werden andere Daten als Fotos ausgelesen?

Daher sehen mittlerweile auch Journalistenorganisa­tio­nen Sprengkraft in Apples neuem Tool. Ver­tre­te­r:in­nen aus Deutschland, Österreich und der Schweiz fordern unter anderem die Datenschutzbeauftragten der drei Länder und die EU-Kommission auf, schon im Voraus gegen eine eventuelle Einführung hierzulande vorzugehen.

Apples neue Funktion sei „auch ein Hilfsmittel, mit dem ein Unternehmen auf andere Daten von Nutzern auf deren eigenen Geräten zugreifen will, wie etwa Kontakte und vertrauliche Dokumente“, sagte Hubert Krech, Sprecher der öffentlich-rechtlichen Redakteursvereinigung Agra. In dem Schreiben heißt es: „Wir fragen uns: Wann werden andere Daten als Fotos ausgelesen? Wann sind es Fotos der LGBT-Gemeinschaft, die möglicherweise in Ungarn oder Russland durch Behörden missbraucht werden können? Wann werden Kontakte abgegriffen?“

Die Befürchtung, dass IT-Konzerne den Wünschen autoritärer Regime nachgeben, ist nicht ganz von der Hand zu weisen. So kommt es immer wieder vor, dass die Konzerne Privatsphäre-Features, die sie in anderen Ländern ausrollen, in Staaten wie China oder Belarus nicht anbieten – weil die regionale Rechtslage das so verlange.

Dementsprechend könnte eine entsprechende Rechtslage auch das Scannen von Bildern auf politische oder LGBTIQ-Inhalte beim Upload verlangen, auch wenn Apple das zurückweist: „Diese Technologie (…) ist darauf begrenzt, Bilder, die den sexuellen Missbrauch von Kindern zeigen, in der iCloud zu erkennen, und wir werden keiner Aufforderung einer Regierung nachkommen, diese Funktion zu erweitern.“

Und in Deutschland?

Die Kritik an Apple fällt vermutlich auch deshalb so umfassend aus, weil das Unternehmen bislang – im Vergleich zu anderen großen IT-Konzernen – immer noch eher privatsphärefreundlich agiert hat. So genießt etwa die Verschlüsselung der iPhones einen guten Ruf, bei Regierungsplänen für mehr Überwachung stand Apple tendenziell aufseiten der Bür­ger­rechts­ak­ti­vis­t:innen. Für manche Nut­ze­rin war der vergleichsweise gute Schutz der Privatsphäre ein Kaufargument, das den Preis und das geschlossene Ökosystem aus Hard- und Software von Apple aufwog.

Für Deutschland ist das Bayerische Landesamt für Datenschutzaufsicht für Apple zuständig. Das teilte der taz mit, in der Sache bereits mit Apple Kontakt aufgenommen zu haben. „Wir haben Apple mitgeteilt, dass wir auch schon unabhängig davon, dass bislang bei Apple noch keine Entscheidung über die Einführung des Produkts in Europa getroffen ist, in absehbarer Zeit einen ersten Überblick zur Funktionsweise des Tools erhalten möchten“, so Alexander Filip, als Bereichsleiter unter anderem zuständig für Onlineservices.

Eine rechtliche Bewertung könne man aktuell noch nicht abgeben. Aber laut der europäischen e-Privacy-Richtlinie sei ein Zugriff auf Informationen, die sich auf einem Endgerät von Nutzenden befinden, nur mit einer Einwilligung derselben zulässig.

Einmal zahlen
.

Fehler auf taz.de entdeckt?

Wir freuen uns über eine Mail an fehlerhinweis@taz.de!

Inhaltliches Feedback?

Gerne als Leser*innenkommentar unter dem Text auf taz.de oder über das Kontaktformular.

Bitte registrieren Sie sich und halten Sie sich an unsere Netiquette.

Haben Sie Probleme beim Kommentieren oder Registrieren?

Dann mailen Sie uns bitte an kommune@taz.de.