Die Welt mit all ihren Verzerrungen

Algorithmen prägen unseren Alltag und zeigen uns ein bestimmtes Bild der Welt und unserer Selbst. Ein neues Forschungsprojekt untersucht, wie sie mit anderen Akteuren an öffentlicher Kommunikation beteiligt sind – und wer sie auf welche Weise regulieren kann

Heiraten im Metaversum-Schloss ist bestimmt eine tolle Sache. Aber wer kontrolliert, ob der Algorithmus bei der Part­ner*in­nen­wahl richtig lag? Foto: Vignesh Selvaraj/TardiVerse/dpa

Von Robert Matthies

Wie untersucht man wissenschaftlich, wie Algorithmen unseren Alltag prägen? Und wie lassen sich daraus ganz konkrete Ansätze ableiten, wie der Einfluss von Algorithmen reguliert werden kann? Und von wem eigentlich? Das untersucht jetzt ein Hamburger Forschungsprojekt.

Algorithmen sind längst überall. Sie bewerten uns und entscheiden für uns, schnell und effizient: welche Nachrichten und welche Werbung wir bei Facebook und Google sehen, wie kreditwürdig wir sind und wie hoch unsere Versicherungsbeiträge, welche Le­bens­part­ne­r:in­nen uns Datingportale vorschlagen, wer den Job bekommt und wer schon vorher aussortiert wird. Dabei bergen algorithmische Systeme Gefahren: Sie reproduzieren bestehende und produzieren neue soziale Ungleichheit und Ausschlüsse, auch weil das Wissen über sie sehr ungleich verteilt ist.

Dass es Algorithmen gibt, wissen mittlerweile zwar mehr als zwei Drittel der Deutschen, hat die Bertelsmann-Stiftung vor vier Jahren erfragt, aber schon dabei gibt es eine Kluft: Fast je­de:r mit Abitur weiß das, bei Volks- und Hauptschulabschlüssen ist es nur die Hälfte, Tendenz: Die Schere klafft weiter auseinander. Und was Algorithmen genau sind – nämlich oft sehr komplexe, aber doch eindeutige Handlungsvorschriften zum Lösen einer vorab definierten Aufgabe –, das weiß laut Bertelsmann-Studie kaum jemand und erst recht nicht, wie sie funktionieren und wo überall wir auf sie treffen. Entsprechend wenig fällt den Menschen ein, wenn man sie nach den Chancen und Risiken dieser Technologie fragt. Forderungen und Initiativen, Algorithmen und ihre gesellschaftliche Macht zu begrenzen und zu kontrollieren, gibt es schon lange.

Ende April haben sich der Europäische Rat und das Europäische Parlament vorläufig geeinigt, das Gesetz über digitale Dienste auf den Weg zu bringen. Bereits im Januar hatte das Parlament mit großer Mehrheit für den Digital Services Act gestimmt, der schärfere Regeln für Internetkonzerne und mehr Schutz für Ver­brau­che­r:in­nen bedeuten würde.

Die Macht der Algorithmen ist dabei nicht nur ein ethisches und rechtliches Problem, sie stellt demokratische Gesellschaften auch vor ein fundamentales politisches Problem: Wo die Meinungsbildung frei sein muss, stellt sich die Frage, wie die gesellschaftliche Kommunikation geschützt und die Macht der Algorithmen reguliert werden kann – und wer diese Regulierung übernimmt.

Grundlagen dafür soll also nun das zwischen Medienrecht und Informatik angesiedelte Forschungsprojekt „Neue Regulierungsansätze für algorithmische Systeme in der öffentlichen Kommunikation (Steam)“ des Fachbereichs Informatik der Universität Hamburg und des Hamburger Leibniz-Instituts für Medienforschung/Hans-Bredow-Institut entwickeln. Finden wollen die beteiligten Wis­sen­schaft­le­r*in­nen – darunter Medienrechtler:innen, Informatiker und eine Philosophin – mit „Steam“ eine neue Methode, „mit der Zusammenhänge komplexer Medien-Ökosysteme aufgeklärt und Schutzmechanismen für gesellschaftliche Kommunikation abgeleitet werden können“, so fasst es die Internetseite des Projekts zusammen. Im April hat es begonnen, laufen soll es drei bis vier Jahre.

Eine Architektur der öffentlichen Meinung

Viel Konkretes kann Wolfgang Schulz, Leiter des Projekts, Direktor des Leibniz-Instituts/Hans-Bredow-Instituts und Professor für Medienrecht an der Uni Hamburg, also noch gar nicht sagen. Zunächst gehe es darum, gangbare wissenschaftliche Methoden für ein ganz neues Feld zu finden. „Wir versuchen ein aus der Informatik kommendes Denken in Architekturmodellen für juristische Überlegungen nutzbar zu machen“, erklärt Schulz: „An welcher Stelle kann ein Unternehmen Meinungsmacht ausüben?“

Bisher setzt man rechtlich beim Thema Kontrolle von Medienmacht beim Fernsehen an und liest die Medienmacht an Marktanteilen ab. Heutige Medien-Ökosysteme aber sind viel komplexer und beeinflussen die private und öffentliche Meinung viel subtiler. Schulz verweist auf die Amazon-Webservices: Die bieten selbst keine Inhalte an, 2021 aber übte das Unternehmen Medienmacht aus, als es entschied, das soziale Netzwerk „Parlor“ nicht mehr auf seinen Servern zu hosten, also ihm Speicherplatz und Infrastruktur zu bieten, weil es radikale Pro-Trump-Positionen verbreitete.

Algorithmen und unsichtbare Akteure

„Das war einer der Ausgangspunkte zu sagen: Wir müssen uns alle Akteure ansehen, die in diesem technischen Ökosystem agieren“, erzählt Schulz. „Wie wird ein Inhalt produziert und wie kommt er zur Nutzerin oder zum Nutzer? Wer hat die Möglichkeit, die Meinungsbildung zu beeinflussen? Wir wollen uns die Punkte anschauen, wo das möglich ist.“ Die ganz naive Frage im Hinterkopf sei dabei: „Wer könnte eigentlich etwas machen, wenn er die nächste Bundestagswahl beeinflussen wollte?“ Um zu erforschen, wie Akteure und Algorithmen interagieren, müsse man also nicht nur die großen Player wie Facebook, Google und Apple in den Blick nehmen, sondern auch die weitgehend nicht sichtbaren Akteure.

Was Algorithmen genau sind, das weiß kaum jemand und erst recht nicht, wie sie funktionieren und wo wir auf sie treffen

Dabei gebe es ein Transparenzproblem, sagt Schulz. Andererseits müsse man vorsichtig sein, allein den Nutzenden die Verantwortung zu geben, „dass sie sich schlau machen, was da eigentlich passiert“. Es brauche Akteure wie die Nichtregierungsorganisation Algorithmwatch, „und zum Teil brauchen wir auch einfach Regulierungsbehörden, die darauf achten“.

Medienrechtlich ist die Kontrolle von Meinungsmacht Ländersache und obliegt den Landesmedienanstalten. Den Ländern sei auch bewusst, dass man über eine Anpassung und Ausweitung der Regulierung nachdenken müsse, sagt Schulz. „Denn aus verfassungsrechtlicher Perspektive muss es eine freie und offene Meinungsbildung geben, so hat es das Bundesverfassungsgericht entschieden. Und wenn das derzeitige Recht nicht ausreicht, um das zu garantieren, muss man es erweitern und modifizieren.“

Weil das Internet aber nicht an Landesgrenzen aufhört und die Gesetzgebungskompetenzen kompliziert zwischen Länder-, Bundes- und europäischer Ebene verteilt sind, haben auch europäische Gesetzesinitiativen wie der Digital Services Act einen Einfluss auf Ansätze zur Regulierung von Algorithmenmacht. Die neuen Regelungen nehmen nämlich erstmals noch etwas anderes in den Blick, mit dem sich, so Schulz, andere Projekte in Uni und Institut beschäftigen: Algorithmen unterscheiden und priorisieren, was wir als Welt wahrnehmen, es geht um Desinformation und Möglichkeiten der Manipulation von lebensweltlichen Entscheidungen auch jenseits von politischer Meinungsbildung und auch um algorithmisch produzierte oder verstärkte Verzerrung.

Eine Verzerrung, die aber nicht per se etwas Schlechtes ist, das betont auch Schulz. Wissenschaftlich zu untersuchen, wie Algorithmen reguliert werden können, bedeutet eben nicht, diese Technologien zu verteufeln. Denn manchmal sind sie selbst und ihre Nutzung ganz hilf- und lehrreich für die öffentliche Meinung. In den USA etwa entscheiden im Justizsystem Algorithmen mit, ob Strafen zur Bewährung ausgesetzt werden. Auch, weil sie von sich aus nicht nach rassistischen Stereotypen entscheiden.

Daraus ist dort schließlich eine ganz grundsätzliche Debatte entstanden, wohin die Gesellschaft kriminalpolitisch will. Und plötzlich verzerrt der Algorithmus die Welt ganz produktiv: Indem er zeigt, wie verzerrt sie schon durch den Menschen allein war.