piwik no script img

Unfreiwillig intime Fotos im NetzWenn die Bilderlawine rollt

Eine Frau entdeckt Nacktfotos von sich auf der Pornoplattform xHamster. Sie ist eine von vielen Betroffenen digitaler sexualisierter Gewalt.

Eine von 12 Personen ist in ihrem Leben einmal von digitaler sexualisierter Gewalt betroffen Foto: Susan Brooks-Dammann/imago

Es ist März 2019, als Anna Nackt – die heute als Aktivistin unter diesem Pseudonym tätig ist – intime Fotos von sich auf der Pornoplattform xHamster entdeckt. Es sind Nacktbilder und Screenshots von ihrem Facebook-Account, versehen mit ihrem Namen und ihrem Wohnort. Als sie davon erfährt, sind die Bilder längst nicht mehr nur auf Deutschlands meistbesuchter Pornoseite, sondern auch auf anderen Plattformen verbreitet.

Anna Nackt, die auch hier im Text unter ihrem Pseudonym spricht und eine gleichnamige Hilfeplattform gegründet hat, ist nur eine von vielen Betroffenen digitaler sexualisierter Gewalt – sie will dagegen kämpfen. Doch die juristischen Möglichkeiten in Deutschland, dagegen vorzugehen, sind gering. Eine von 12 Personen ist in ihrem Leben einmal von dieser Gewaltform im Netz betroffen, es sind mehr Frauen als Männer. Der Täter ist in den meisten Fällen männlich. Dies geht aus einer Studie der American Psychologial Assciation unter Facebook-User*innen von 2020 hervor. Die Wege, wie Täter*innen an die Bilder kommen, sind unterschiedlich.

Mal sind es Ex-Partner*innen, die die Bilder veröffentlichen, mal gelangen sie durch Hacks in die Hände von Täter*innen, oder werden von privaten Profilen heruntergeladen. Sogenannte Exposer Networks verbreiten dann die intimen Bilder weiter, indem sie sie laufend von einer Plattform herunterladen und auf einer neuen wieder hochladen. Dadurch entsteht eine Bilderlawine, die kaum aufzuhalten ist. Etwas weniger als 24 Stunden nachdem Anna Nackt sich bei xHamster meldet, sind ihre Fotos von der Seite verschwunden, doch eine Antwort auf ihre Kontaktanfrage bekommt sie nie.

Die Löscharbeiten übernehmen zu diesem Zeitpunkt ehrenamtliche User*innen, die die gemeldeten Fotos überprüfen. Unabhängig davon, ob es sich bei den Dargestellten um Minderjährige, es sich um unerlaubte Fotos oder reale Gewalt handelt. Mit Hilfe eines Handbuches sollen die User*innen entscheiden können, ob es sich beispielsweise um „echte“ oder „gefakte“ Tränen handelt, die auf dem Bild zu sehen sind. Ob also reale oder gespielte Gewalt stattgefunden hat. Das geht aus einer Investigativrecherche der Vice hervor, bei der zwei Journalist*innen in solch einem Löschteam inkognito mitgearbeitet haben.

Rechtlich ist das Vorgehen korrekt

Die Löscharbeiter*innen konnten bis kurz vor Weihnachten 2020 auch nicht der Frage nachgehen, wer die Fotos hochgeladen hat, denn bis zu diesem Zeitpunkt konnte man anonym Uploads auf xHamster durchführen. Einen Schritt weiter ging Pornhub: Nachdem Visa und Mastercard aufgrund einer Recherche der New York Times die Zahlungsabwicklung mit der Plattform einstellten, blockierte Pornhub Mitte Dezember alle Inhalte, die von anonymen User*innen hochgeladen wurden.

Rechtlich gesehen ist das Vorgehen von xHamster, Inhalte erst zu löschen, wenn sie überprüft wurden, korrekt. Plattformen können in Deutschland erst dann für die Inhalte haftbar gemacht werden, wenn sie gemeldete Inhalte nicht überprüfen und Illegales nicht löschen. Das Prinzip heißt „Notice and Takedown“. Für Betroffene bedeutet es, dass ihre Bilder nach dem Entdecken noch solange online zugänglich sind, bis die Prüfung abgeschlossen ist.

Sie startet die Petition #NotYourPorn

Anna Nackt sieht das Problem deswegen in der Gesetzgebung und fordert in ihrer im Oktober gestarteten Petition #NotYourPorn, dass Betroffene besser geschützt werden müssten. Handlungsbedarf sieht sie im Strafrecht, bei der Sensibilisierung von Polizei und Justiz und beim NetzDG.

2018 eingeführt, soll das NetzDG im Umgang mit Hasskriminalität und anderen strafbaren Inhalten helfen. So müssen Plattformen alle drei Monate einen Straftatenbericht einreichen und Ansprechpartner*innen sowohl für Betroffene als für Ermittlungsbehörden anbieten. Doch das Problem ist: Pornoplattformen fallen nicht unter das NetzDG. Denn das gilt erst für Plattformen mit zwei Millionen registrierten User*innen in Deutschland, was bislang keine Pornoplattform vorweisen kann.

Das NetzDG hilft bei Pornos kaum

Zudem ist ein Grund, dass dort „spezifische“, also pornografische Inhalte verbreitet werden. Nackt fordert, dass das NetzDG angepasst wird. Christin Laxa, Medienrechtsanwältin in der Kanzlei Buse Herz Grunst zweifelt, ob solch eine Änderungen umgesetzt wird. Vor allem, weil das NetzDG für Straftaten geschaffen wurde, die auf Pornoplattformen kaum vorkommen, wie Volksverhetzung, Bedrohungen und Vorbereitungen eines Terroranschlags.

Ein anderer Weg wäre es, Pornoplattformen dazu zu verpflichten, Bilder und Videos zu prüfen, bevor sie veröffentlicht werden. Das fordert nicht nur Anna Nackt in ihrer Petition, die mittlerweile fast 65.000 Unterschriften aufweist, sondern auch die Beratungsstelle HateAid und die Macher*innen der Gesichtserkennungssoftware Am I in Porn. Da Upload-Filter jedoch eine Overblocking-Gefahr bergen, scheint das auch keine Lösung zu sein. Eine Datenbank könnte den Mittelweg darstellen.

Gesetzliche Regelung unwahrscheinlich

In dieser könnten sogenannte Hashs von Bilder gesammelt werden, eine Art digitaler Fingerabdruck. Neu hochgeladene Bilder und Videos – nicht jedoch wie bei einem Upload-Filter Videos, die noch gar nicht online sind – können so direkt nach der Veröffentlichung überprüft und gegebenenfalls wieder gelöscht werden.

Schon seit mehreren Jahren werden diese Hash-Datenbanken von Plattformen wie Facebook oder Youtube genutzt, um etwa terroristische Aufnahmen schneller zu finden. Auch das Unternehmen MindGeek, zu dem große Pornoplattformen wie Pornhub und YouPorn gehören, nutzt eine solche Technologie, um zu verhindern, dass bereits entferntes Material wieder hochgeladen wird. Doch dass hier eine gesetzliche Regelung in Kraft tritt, hält Laxa für unwahrscheinlich.

Der Facebook-Account als Seismograf

„Wenn eine Verletzung vorliegt, kann man es den Betroffenen aus Sicht des Gesetzgebers zumuten, dass sie sich beim Plattformbetreiber melden“, sagt sie der taz. Doch dafür müssen Betroffene erst mal von den Re-Uploads erfahren. Anna Nackt nutzt deswegen ihren Facebook-Account als Seismografen, der anhand von Dickpics, Beschimpfungen, Vergewaltigungsfantasien ausschlägt, wenn ihre Bilder wieder mal veröffentlicht wurden.

Die Bundesregierung weiß nicht viel mit dem Begriff „digitale Gewalt“ anzufangen: 2018 musste sie zugeben, dass sie noch keine Definition des Begriffes hat. Taten wie die gegen Anna Nackt werden aktuell juristisch anders behandelt als analoge Gewalttaten – obwohl auch sie weitreichende Folgen für die Betroffenen haben. Wenn illegal intime Fotos von einer Person hochgeladen werden, wie im Fall von Anna Nackt, ist das eine Verletzung des „höchstpersönlichen Lebensbereichs“, doch es zählt nicht als sexualisierte Gewalt, denn dafür muss laut Laxa „körperlich wirkender Zwang“ vorliegen, oder wie Anna Nackt es sagt: „Erst, wenn man angefasst wird, versteht das deutsche Recht etwas als Gewalt.“.

Exposing wird als Privatklagedelikt angesehen

Zudem wird Exposing, also das Veröffentlichen intimer Bilder, als sogenanntes Privatklagedelikt angesehen, ähnlich wie die Verletzung des Briefgeheimnisses. Während in anderen Bereichen Ermittlungsbehörden aktiv werden müssen, sobald sie einen Anfangsverdacht haben, beurteilt die Staatsanwaltschaft bei Privatklagedelikten bei jedem Einzelfall erst mal, ob ein „öffentliches Interesse“ vorliegt. Bei Exposing entscheidet sie sich laut Laxa häufig dagegen. Exposing aus den Privatklagedelikten herauszunehmen, hält Laxa für schwierig durchsetzbar.

Doch allein die Diskussion über Exposer Networks kann helfen, die Gesellschaft zu sensibilisieren und Wissen über Digitale Gewalt zu vermitteln. Denn an dem mangelt es – auch bei der Polizei. Bevor Anna Nackt sich an xHamster zur Entfernung der Bilder wendete, rief sie bei der Polizei an. Doch statt Hilfe kam dort nur Unverständnis für ihr Anliegen. „Sind Sie sicher, dass Sie die Bilder nicht selbst hochgeladen haben?“ Auch bei späteren Taten meldete sich Nackt bei der Polizei, schickte Links und Screenshots – und bekam teilweise, sagt sie der taz, keine Antworten. „Es war wie Arbeitsverweigerung.“

Schulungen der Polizei könnten helfen

Was helfen könnte, wären Schulungen für Polizei und Justiz, damit sie künftig sensibler mit den Betroffenen umgehen. Gerade wenn die Polizei der Erstkontakt ist, ist das unabdingbar – auch um der Verstärkung psychischer Folgeerscheinungen vorzubeugen. Dazu zählen: Vertrauensprobleme, posttraumatische Belastungsstörungen, Angstzustände, Depressionen und Suizidgedanken. Auch Anna Nackt ist in psychologischer Behandlung und sagt heute, es gehe ihr „okay“. Doch besonders kurz nach der ersten Tat habe sie auf der Straße Paranoia gehabt, habe gefürchtet, dass die Täter*innen Nachrichten an ihr Umfeld schicken könnten.

Noch immer besteht die Gefahr, dass die Bilder von Anna Nackt wieder hochgeladen werden. Indem sie mit ihrem Umfeld offen darüber spricht und als Aktivistin die Situation auch für andere Betroffene verbessern will, hat sie für sich einen Weg gefunden, um mit der digitalen Gewalt umzugehen. Doch nicht jede Person hat die nötigen psychischen und finanziellen Ressourcen, dagegen vorzugehen. Diese Aufgabe fällt auch der Bundesregierung zu, die sich mit der Istanbul-Konvention verpflichtet hat, sich gegen Gewalt gegen Frauen einzusetzen – auch gegen digitale. Passiert ist in der Hinsicht bislang jedoch wenig.

taz lesen kann jede:r

Als Genossenschaft gehören wir unseren Leser:innen. Und unser Journalismus ist nicht nur 100 % konzernfrei, sondern auch kostenfrei zugänglich. Texte, die es nicht allen recht machen und Stimmen, die man woanders nicht hört – immer aus Überzeugung und hier auf taz.de ohne Paywall. Unsere Leser:innen müssen nichts bezahlen, wissen aber, dass guter, kritischer Journalismus nicht aus dem Nichts entsteht. Dafür sind wir sehr dankbar. Damit wir auch morgen noch unseren Journalismus machen können, brauchen wir mehr Unterstützung. Unser nächstes Ziel: 40.000 – und mit Ihrer Beteiligung können wir es schaffen. Setzen Sie ein Zeichen für die taz und für die Zukunft unseres Journalismus. Mit nur 5,- Euro sind Sie dabei! Jetzt unterstützen

Mehr zum Thema

2 Kommentare

 / 
  • "Bilder und Videos zu prüfen, bevor sie veröffentlicht werden."

    Wie soll das funktionieren? Soll man da erst ein Bild von sich, gar ein Nacktbild einer Pornoplattform bereitstellen, damit die dann überprüfen, ob ein illegaler Upload erfolgt?

    • 1G
      164 (Profil gelöscht)
      @Rudolf Fissner:

      Uploads landen erstmal in der Moderation... ganz einfach eigentlich. Bloß viel Arbeit ;-)