piwik no script img

Scannen von iPhones durch AppleAlles ist durchleuchtet

Apple will Fotos beim Hochladen in die Cloud künftig auf Abbildungen scannen, die sexualisierte Gewalt gegen Kinder zeigen. Das ruft Protest hervor.

Der Schatten des Apple-Logos auf einem Bürgersteig in New York Foto: Richard B. Levine/imago

Edward Snowden gehörte zu den ersten, die deutliche Worte fanden: „Egal wie gut gemeint das sein mag, Apple rollt hier eine Massenüberwachung für die ganze Welt aus“, schrieb der Whistleblower auf Twitter. Wenn der Konzern heute auf den Geräten der Nut­ze­r:in­nen nach Bildern suche, die sexuellen Missbrauch von Kindern zeigen, dann könnten sie morgen nach allem Möglichen scannen.

Anlass der Kritik war ­Apples Ankündigung eines neuen Tools, das im Herbst zunächst in den USA starten soll. Seine Funktion: Es soll Daten, die US-­Nut­ze­r:in­nen in die iCloud laden, auf Bilder, die sexuellen Missbrauch von Kindern zeigen, scannen. Dabei werden nicht Bilder direkt abgeglichen, sondern Hashes: kryptografische Prüfsummen, die ein Wiedererkennen von Bildern oder anderen Dateien ermöglichen. Das Unternehmen arbeitet dabei mit dem National Center for Missing and Exploited Children (NCMEC) zusammen. Mit Hilfe der NGO hat Apple den Algorithmus trainiert, anschlagen soll er zunächst ab einer Grenze von 30 Bildern.

Dass in die Cloud geladene Daten, Chats oder auch verschickte E-Mails auf potenziell illegale Inhalte gescannt werden, ist grundsätzlich nicht neu. Google macht es, Dropbox, Facebook oder Microsoft. Das EU-Parlament hatte erst im Juli einer Verordnung zugestimmt, die es Anbietern erlaubt, private Nachrichten von Nut­ze­r:in­nen nach Bildern, die sexuellen Missbrauch von Kindern zeigen, zu durchsuchen. Neu im Fall Apple ist allerdings, dass der Scan nicht auf Servern des Unternehmens stattfinden soll, sondern auf den Geräten der Nut­ze­r:in­nen beim Hochladen in die Cloud.

Apple erntet daher seit der Ankündigung weltweite Kritik von Organisationen aus der Zivilgesellschaft. So kommentiert etwa die digitale Bürgerrechtsorganisation Electronic Frontier Foundation (EFF): „Apple kann lang und breit erklären, wie die technische Umsetzung Privatsphäre und Sicherheit erhalten soll, aber am Ende bleibt eben auch eine umfassend dokumentierte Hintertür eine Hintertür.“ Es ist die gleiche Richtung, in die auch Snowdens Kritik geht: Heute sind es Missbrauchsbilder, morgen etwa politische Inhalte, die autoritäre Staaten gern untersagen möchten.

Wann werden andere Daten als Fotos ausgelesen?

Daher sehen mittlerweile auch Journalistenorganisa­tio­nen Sprengkraft in Apples neuem Tool. Ver­tre­te­r:in­nen aus Deutschland, Österreich und der Schweiz fordern unter anderem die Datenschutzbeauftragten der drei Länder und die EU-Kommission auf, schon im Voraus gegen eine eventuelle Einführung hierzulande vorzugehen.

Apples neue Funktion sei „auch ein Hilfsmittel, mit dem ein Unternehmen auf andere Daten von Nutzern auf deren eigenen Geräten zugreifen will, wie etwa Kontakte und vertrauliche Dokumente“, sagte Hubert Krech, Sprecher der öffentlich-rechtlichen Redakteursvereinigung Agra. In dem Schreiben heißt es: „Wir fragen uns: Wann werden andere Daten als Fotos ausgelesen? Wann sind es Fotos der LGBT-Gemeinschaft, die möglicherweise in Ungarn oder Russland durch Behörden missbraucht werden können? Wann werden Kontakte abgegriffen?“

Die Befürchtung, dass IT-Konzerne den Wünschen autoritärer Regime nachgeben, ist nicht ganz von der Hand zu weisen. So kommt es immer wieder vor, dass die Konzerne Privatsphäre-Features, die sie in anderen Ländern ausrollen, in Staaten wie China oder Belarus nicht anbieten – weil die regionale Rechtslage das so verlange.

Dementsprechend könnte eine entsprechende Rechtslage auch das Scannen von Bildern auf politische oder LGBTIQ-Inhalte beim Upload verlangen, auch wenn Apple das zurückweist: „Diese Technologie (…) ist darauf begrenzt, Bilder, die den sexuellen Missbrauch von Kindern zeigen, in der iCloud zu erkennen, und wir werden keiner Aufforderung einer Regierung nachkommen, diese Funktion zu erweitern.“

Und in Deutschland?

Die Kritik an Apple fällt vermutlich auch deshalb so umfassend aus, weil das Unternehmen bislang – im Vergleich zu anderen großen IT-Konzernen – immer noch eher privatsphärefreundlich agiert hat. So genießt etwa die Verschlüsselung der iPhones einen guten Ruf, bei Regierungsplänen für mehr Überwachung stand Apple tendenziell aufseiten der Bür­ger­rechts­ak­ti­vis­t:innen. Für manche Nut­ze­rin war der vergleichsweise gute Schutz der Privatsphäre ein Kaufargument, das den Preis und das geschlossene Ökosystem aus Hard- und Software von Apple aufwog.

Für Deutschland ist das Bayerische Landesamt für Datenschutzaufsicht für Apple zuständig. Das teilte der taz mit, in der Sache bereits mit Apple Kontakt aufgenommen zu haben. „Wir haben Apple mitgeteilt, dass wir auch schon unabhängig davon, dass bislang bei Apple noch keine Entscheidung über die Einführung des Produkts in Europa getroffen ist, in absehbarer Zeit einen ersten Überblick zur Funktionsweise des Tools erhalten möchten“, so Alexander Filip, als Bereichsleiter unter anderem zuständig für Onlineservices.

Eine rechtliche Bewertung könne man aktuell noch nicht abgeben. Aber laut der europäischen e-Privacy-Richtlinie sei ein Zugriff auf Informationen, die sich auf einem Endgerät von Nutzenden befinden, nur mit einer Einwilligung derselben zulässig.

taz lesen kann jede:r

Als Genossenschaft gehören wir unseren Leser:innen. Und unser Journalismus ist nicht nur 100 % konzernfrei, sondern auch kostenfrei zugänglich. Texte, die es nicht allen recht machen und Stimmen, die man woanders nicht hört – immer aus Überzeugung und hier auf taz.de ohne Paywall. Unsere Leser:innen müssen nichts bezahlen, wissen aber, dass guter, kritischer Journalismus nicht aus dem Nichts entsteht. Dafür sind wir sehr dankbar. Damit wir auch morgen noch unseren Journalismus machen können, brauchen wir mehr Unterstützung. Unser nächstes Ziel: 40.000 – und mit Ihrer Beteiligung können wir es schaffen. Setzen Sie ein Zeichen für die taz und für die Zukunft unseres Journalismus. Mit nur 5,- Euro sind Sie dabei! Jetzt unterstützen

Mehr zum Thema

8 Kommentare

 / 
  • Man sollte vielleicht noch darauf hinweisen, dass hier kein Algorithmus allgemein nach „sexualisierten Bildern von Kindern“ schnüffelt, sondern dass nach tatsächlich schon bekannten und in Datenbanken gespeicherten Bildern von Kindermissbrauch gesucht wird.

    Man kann solche Vorhaben sehr wohl kritisieren, aber man sollte schon bei den Fakten bleiben.

    • @Mustardman:

      In dem oben verlinkten Paper von Apple ist ausdrücklich von Machine Learning die Rede, das auf Basis von perceptual hashes bekannten Materials trainiert wurde. Demnach geht es offenbar schon darum auch bislang noch nicht beschlagnahmtes Material klasssifizieren zu können.

      • @Ingo Bernable:

        Das sind zwei verschiedene Dinge: In den per iCloud hochgeladenen Bildern sucht Apple nach bereits bekannten Bildern von Kindesmissbrauch (wie Facebook das übrigens seit Jahren in allen Fotos macht).

        Bei dem System in iMessage wird nach Nacktbildern gesucht, per KI. Das gibt es aber nur bei Kinderaccounts und es muss von den Eltern eingeschaltet werden, und es benachrichtigt auch nur die Eltern, nicht irgendwelche Behörden.

    • @Mustardman:

      Das würde ja bedeuten, dass Apple nur schon wohlbekannte Bilder findet ... wenn also jemand neue Bilder macht merkt Apple das nicht?

      Toller Algorithmus !

      • @Bolzkopf:

        Ja, das ist ein Abgleich mit bekannten Bildern in Datenbanken. Das machen Facebook und Microsoft übrigens schon seit Jahren mit allen Fotos, Apple bisher nicht.

  • Dass die Verbreitung von Kinderpornografie, Hasskomentaren u. dergl. im Internet endlich wirksam unterbunden werden sollen, wird seit langem gefordert. Wie soll das aber gehen, wenn die Datenschützer mit dem im Beitrag genannten Argumenten dagegen angehen?



    Letzten Endes läuft es auf das alte Sprichwort hinaus: „Wasch‘ mir den Pelz, aber mach‘ mich nicht nass“!

    • @Pfanni:

      Folgt man diesem Argument könnte man ebenso gut fordern anlasslose Hausdurchsuchungen einzuführen, schließlich könnte es ja sein, dass man dabei etwas findet, wobei deren Durchführung nicht von der Polizei sondern von einem privatwirtschaftlichen Unternehmen vorgenommen wird.

  • Sollte jetzt die "Ware" - also wir bzw unsere Daten- aufbegehren?



    Sollten wir dieses Feigenblatt tatsächlich als solches entlarvt haben?

    Ich hätte es nicht mehr für möglich gehalten bzw zu hoffen gewagt...