Zukunftsfähige Digitalität: Ich habe nichts zu verbergen

Warum digitale Gerechtigkeit nicht von einem individuellen, sondern von einem kollektiven Datenbewusstsein lebt.

Foto: picture alliance/dpa

Von ANNA-VERENA NOSTHOFF und GEMINA PICHT

»Ich habe doch nichts zu verbergen« – diesen Satz hat jede:r schon gehört. Zum Beispiel als rechtfertigende Antwort auf die Frage, warum man sich eine Alexa gekauft hat – und Amazon noch dazu mit lukrativen Gratisdaten bezahlt. Dabei ist das überwachungsaffine Bonmot auf den ersten Blick nachvollziehbar, ja, sogar beruhigend. Denn es impliziert: wer nichts zu verbergen hat, muss sich vor Konsequenzen der Datenextraktion nicht fürchten. Weder vor möglichen Daten-Leaks (Was sollte schon aufgedeckt werden?) noch vor der kommerziellen Weiterverarbeitung eigener Daten (Wird personalisierte Werbung nicht erst dann richtig gut?). Das Credo lautet: Solange man sich selbst nichts zu Schulden kommen lässt, besteht kein Grund zur Sorge. Schließlich geht es um meine Daten, die über mein Verhalten gesammelt werden. Wenn ich also mit ihrer Verarbeitung einverstanden bin, ist alles gut. Oder nicht?

Leider ist es nicht so einfach. Der Satz »Ich habe nichts zu verbergen« verweist auf ein verkürztes Datenverständnis. Daten existieren nicht in personenbezogenen Silos, sie sind überindividuell und relational – häufig betreffen Entscheidungen des digitalen Ich deshalb auch andere Personen. Das zeigte 2018 der Skandal um die Unternehmen Facebook und Cambridge Analytica: Damals versprach die Facebook-App »thisisyourdigitallife« Nutzer:innen, die eigene Persönlichkeit unter anderem qua »Gefällt-mir«-Angaben zu bestimmen. User konnten algorithmisch kalkulieren lassen, wie neurotisch oder offen sie waren. Das Problem: Das Psychoquiz griff neben den personenbezogenen Daten der 300.000 Selbstsuchenden auf die ihrer unwissenden Freunde zurück. Mittlerweile kontrolliert Facebook die neugierigen Blicke sogenannter »Drittanbieter« stärker, doch ist der relationale Datenvoyeurismus ein integraler Bestandteil der Abschöpfungspraxen des Plattform-Kapitalismus. So verarbeiten auch die im Lockdown gehypte App Clubhouse und Zuckerbergs Messengerdienst WhatsApp routinemäßig gespeicherte Smartphone-Kontakte.

Algorithmen können soziale Klassen zementieren

Wenn die Überwachung des Selbst immer auch die Überwachung der anderen ist, ist es widersinnig, Daten mit einem abgegrenzten, individuellen Eigentum gleichzusetzen. Diese Verkürzung ist nicht nur für den eigenen Freundeskreis folgenreich, sie verschleiert auch den grundlegend politischen Kern massenhafter Datenverarbeitung: So kommen in Zeiten von KI und maschinellem Lernen algorithmische Verfahren zum Einsatz, die über korrelative Analysen übergeordnete Aussagen über Gruppen als Ganzes treffen. Algorithmen operieren hier im menschlichen Zwischenraum, zementieren zuweilen soziale Klassen: Um bei automatisierten Bewerbungsverfahren aussortiert zu werden, kann es etwa reichen, in einem Viertel zu leben, das von Algorithmen mit einem geringen Bildungsstand assoziiert wird. Marginalisierte Gruppen erfahren damit systematisch Diskriminierung – ganz egal, ob sie überwachungssensibel »Opt Out«-Funktionen nutzen. Die unbedachte Preisgabe eigener Informationen reichert damit die Datenbasis an, auf der aggregiert algorithmische Klassifizierungen vorgenommen werden. Sie entscheidet darüber, wer Chancen erhält und wer nicht; wer verdächtig ist und wer nicht – was möglich und unmöglich ist. Das gesellschaftliche Risiko massenhafter Datenverwertung besteht so nicht allein in dem Handel mit individuellen Daten, sondern in der Festigung sozialer Ungleichheit.

Digitale Gerechtigkeit lebt deshalb von einem kollektiven Datenbewusstsein. Statt eines eigeninteressierten Fokus auf Datenverwendung braucht es – dies betonen auch Datenschutz-Expert:innen wie Salomé Viljoen oder Rainer Mühlhoff – Sensibilität dafür, dass die Einwilligung zur Weitergabe der ›eigenen‹ Informationen den Nächsten schädigen kann – und umgekehrt. Und es gibt Alternativen, die das Verbundene in den Vordergrund stellen: Modelle wie »data trusts« und »data commons« resozialisieren anonymisierte Daten als ein Gut für alle. Nicht das Ich entscheidet hier über die Verwendung der eigenen Daten, sondern ein Wir über die Frage: »Wie können wir Daten demokratisch nutzen?« Ihre Vergemeinschaftung rückt so die politische Gestaltbarkeit von Daten ins Zentrum, widerspricht ihrer permanenten Abschöpfung im digitalen Kapitalismus. Dabei sollte uns klar sein: Je umfassender wir getrackt werden, desto dringlicher ist es, die bürgerliche Trennlinie zwischen »Mein« und »Dein« im Diskurs über Daten aufzulösen und eine Perspektivverschiebung in Richtung des Kollektiven voranzubringen. Denn nicht nur Daten sind politisch – unser Datenverständnis ist es auch.

ANNA-VERENA NOSTHOFF UND GEMINA PICHT gehören zum Arbeitskreis für zukunftsfähige Digitalität, der mit dem Rat für digitale Ökologie zusammenarbeitet. An dieser Stelle hinterfragt der Arbeitskreis digitale Entwicklungen.

Dieser Beitrag ist im März 2022 in taz FUTURZWEI N°20 erschienen.

.
.