piwik no script img

Erkennung von Nacktbildern bei iOSApple gegen Kinderpornografie

Nach einem Update des Betriebssystems sollen Geräte von Apple künftig Bilder mit sexuellem Missbrauch von Kindern erkennen und melden. Datenschützer wittern Zensur.

Das Unternehmen in Cupertino will nach eigenen Angaben den Schutz von Kindern verbessern Foto: reuters

San Francisco afp | Nach einem Update des Betriebssystems sollen Geräte von Apple künftig Bilder mit sexuellem Missbrauch von Kindern erkennen und melden, sobald sie in den Vereinigten Staaten in den Online-Speicher hochgeladen werden. „Wir wollen dazu beitragen, Kinder vor Tätern zu schützen, die Kommunikationsmittel nutzen, um sie anzuwerben und auszubeuten, und die Verbreitung von Material mit sexuellem Kindesmissbrauch einschränken“, erklärte der US-Technologiekonzern am Donnerstag (Ortszeit).

Eine neue Technologie ermöglicht es demnach der Software von Apple-Mobilgeräten, missbräuchliche Fotos auf dem Telefon eines Nutzers mit einer Datenbank bekannter Missbrauchsbilder abzugleichen, die von Kinderschutzorganisationen zur Verfügung gestellt werden, und die Bilder dann zu markieren, wenn sie in den Online-Speicher iCloud von Apple hochgeladen werden. Solche Bilder würden dann an das Nationale Zentrum für vermisste und ausgebeutete Kinder gemeldet, das mit der Polizei zusammenarbeitet.

Zudem soll die Apple-App Messages Kinder und ihre Eltern warnen, wenn sie sexuell eindeutige Fotos erhalten oder senden. „Wenn diese Art von Inhalten empfangen wird, wird das Foto unscharf und das Kind wird gewarnt“, erklärte der Konzern. Auch der Sprachassistent Siri soll einschreiten, wenn Nutzer versuchen, nach Themen im Zusammenhang mit sexuellem Kindesmissbrauch zu suchen.

Datenschützer sehen in den geplanten Änderungen eine potenzielle „Hintertür“, die von Regierungen oder anderen Gruppen ausgenutzt werden könnte. Greg Nojeim vom Zentrum für Demokratie und Technologie in Washington sagte, dass „Apple sein branchenübliches verschlüsseltes End-to-End-Nachrichtensystem durch eine Infrastruktur für Überwachung und Zensur“ ersetze. Dies mache die Nutzer „anfällig für Missbrauch und Ausspähung nicht nur in den Vereinigten Staaten, sondern auf der ganzen Welt“.

Apple entgegnet Kritikern, dass es keinen direkten Zugriff auf die Bilder habe und Maßnahmen zum Schutz der Privatsphäre und der Sicherheit ergriffen habe.

taz lesen kann jede:r

Als Genossenschaft gehören wir unseren Leser:innen. Und unser Journalismus ist nicht nur 100 % konzernfrei, sondern auch kostenfrei zugänglich. Texte, die es nicht allen recht machen und Stimmen, die man woanders nicht hört – immer aus Überzeugung und hier auf taz.de ohne Paywall. Unsere Leser:innen müssen nichts bezahlen, wissen aber, dass guter, kritischer Journalismus nicht aus dem Nichts entsteht. Dafür sind wir sehr dankbar. Damit wir auch morgen noch unseren Journalismus machen können, brauchen wir mehr Unterstützung. Unser nächstes Ziel: 40.000 – und mit Ihrer Beteiligung können wir es schaffen. Setzen Sie ein Zeichen für die taz und für die Zukunft unseres Journalismus. Mit nur 5,- Euro sind Sie dabei! Jetzt unterstützen

Mehr zum Thema

3 Kommentare

 / 
  • Dass Bilder in der iCloud nach KiPo durchsucht werden, ist aber nicht neu, sondern schon seit Jahren der Fall.

  • Und mal eine ganz praktische Frage an die Juristen:

    Was, wenn ein Hersteller bei einem Produkt nach dem Kauf maßgebliche Eigenschaften des Produkts verändert ?



    Tritt dann der Gewährleistungsfall ein ?

    z.B. mein fetter SUV der plötzlich 40 PS weniger hat (natürlich wegen Umweltschutz und so)

    oder mein Fernseher der plötzlich ohne aktive Internetverbindung meine Urlaubsvideos nicht mehr wiedergibt. (wegen fehlender DRM-Prüfung)

    oder halt mein "Brotherphone" (vormals iPhone) dass plötzlich mein Mobilfunkvolumen leersaugt weil es jedes Foto rumposaunt ?

  • Ich sehe hier in erster Linie eine Werbeaktion von Apple: "aber die Kinder". Apple missbraucht eine günstige gesellschaftliche Stimmung für ihre eigenen schmutzigen Zwecke.

    Kollateralschäden:

    - die prüde "Moralvorstellung" der USA wird durchgedrückt ("nudity": ganz schlimm. Jemandem bei lebendigem Leib den linken Arm ausreissen: halbwegs OK). Stellen wir uns vor, Putins "Moralvorstellung" wäre die Vorlage (non-heterosexuals == pedophiles). Oder die des Obersten Leaders Ali Khamenei).

    - Userkontrolle wird so in einer guten verpackung untergeschoben. Das ist Kapital!

    Ich weiss, warum ich einen Bogen um diese Bude mache.