Filter bei Facebook und Microsoft: Beim Livetest versagt
Algorithmische Verfahren können mit humaner Wahrnehmung nicht mithalten – zeigen zwei im „Guardian“ dokumentierte Fälle.
Dem britischen Guardian ist es im Verlaufe einer Woche gelungen, wenn auch unabsichtlich, interessante Schwachstellen in den Algorithmen zweier großer Netzkonzerne offenzulegen.
Ein Bericht auf der australischen Seite des Guardian befasste sich mit der Sperrung eines Facebook-Posts. Ein privater Nutzer hatte Kritik am australischen Premier Scott Morrison mit einem historischen Foto von Aborigines in schweren Ketten illustriert. Morrison hatte behauptet, dass es in Australien nie Sklaverei gegeben hätte. Angesichts von Zwangsarbeit unter schwersten Bedingungen verursachte diese Aussage heftige Debatten.
Das Bild des gesperrten Posts war aber nicht aufgrund von Beschwerden anderer Nutzer*innen als unangemessen eingestuft worden: Die Analysesoftware von Facebook hatte die Abbildung der lediglich mit Lendenschurzen bekleideten Zwangsarbeiter als Nacktbild markiert und automatisch gesperrt.
Nach der Berichterstattung des Guardian korrigierte Facebook den Fehler und entschuldigte sich beim Nutzer. Am Samstag jedoch schlug der Algorithmus der Plattform erneut zu. Diesmal wurden automatisch Posts von Nutzer*innen entfernt, die den Beitrag des Guardian teilen wollten. Dessen Artikelbild war wiederum das historische Bild der angeketteten Aborigines. Mit derselben Illustration berichtet der Guardian weiter über den Fall und unterzieht so die Resilienz des Facebook-Content-Filters einer Livetestreihe.
Redaktion gefeuert
Dem algorithmischen Filter von Microsoft hatte die Zeitung bereits in den Tagen zuvor, ebenfalls eher zufällig, seine technischen Grenzen aufgezeigt. So berichtete der Guardian Ende Mai, dass das Webportal Microsoft News (MSN) Dutzenden bei einem externen Dienstleister angestellten menschlichen Redakteur*innen kündigen würde. Der Algorithmus für die Zusammenstellung relevanter Nachrichten verschiedener Medien für die Nutzer*innen des Portals sei in der Entwicklung so weit fortgeschritten, dass auf menschliche Mitarbeit verzichtet werden könne.
Kurz darauf bebilderte der Algorithmus einen Beitrag des britischen Independent über Jade Thirlwall, Sängerin der Band Little Mix, mit ihrer Kollegin Leigh-Anne Pinnock. In dem Stück ging es um Thirlwalls Erfahrung mit Rassismus. Entsprechend verärgert kommentierte sie den Fehler bei MSN: „Es beleidigt mich, dass ihr in einer Gruppe mit vier Mitgliedern zwei Women of Color nicht auseinanderhalten könnt.“
Der Guardian ließ es sich nicht nehmen, über diese unmittelbare Folge der vollautomatisierten Kontrolle des Newsfeeds zu berichten. Die weite Verbreitung dieses Beitrags trug dann dazu bei, dass der MSN-Algorithmus diesen prominent platzierte. Nach Information des Guardian sollten nun die bereits gekündigten, aber noch für Microsoft tätigen Journalist*innen den Beitrag entfernen, der dann wiederholt vom Algorithmus nach oben gespült wurde. Durch diverse Berichte weiterer Medien, deren Texte von MSN aggregiert werden, stieg der Relevanzfaktor der Geschichte für die Maschine nur noch. Schlechte Publicity für Microsoft erkennt der Algorithmus schlicht nicht.
Offenbart werden in diesen Fällen die Schwächen automatischer Bilderkennung. Trotz bereits jahrelanger weltweiter Entwicklung erreichen algorithmische Verfahren weiterhin nicht einmal annähernd die Präzision menschlicher Wahrnehmung und Bewertung. Auch die unzähligen Trainingseinheiten, wie die Captchas, in denen Nutzer*innen nachweisen müssen, dass sie keine Maschinen sind, ändern bislang nichts daran, dass Maschinen bereits mit der Syntax eines Bildes so ihre Probleme haben.
Schwerere Aufgaben wie Gesichtserkennung werden dabei besonders oft falsch gelöst. Neben technischen Begrenzungen fällt hier die Verstärkung bestehender und zumeist unbedacht in die Algorithmen programmierter menschlicher Vorurteile zusätzlich ins Gewicht, weshalb Frauen und nichtweiße Menschen häufiger falsch identifiziert werden. Selbst wenn die Hürden niedriger gesetzt sind, wie bei der Facebook-Erkennung des Parameters „nackte Haut“, scheitert die Technologie dazu regelmäßig daran, das gesichtete Material zu kontextualisieren.
taz lesen kann jede:r
Als Genossenschaft gehören wir unseren Leser:innen. Und unser Journalismus ist nicht nur 100 % konzernfrei, sondern auch kostenfrei zugänglich. Texte, die es nicht allen recht machen und Stimmen, die man woanders nicht hört – immer aus Überzeugung und hier auf taz.de ohne Paywall. Unsere Leser:innen müssen nichts bezahlen, wissen aber, dass guter, kritischer Journalismus nicht aus dem Nichts entsteht. Dafür sind wir sehr dankbar. Damit wir auch morgen noch unseren Journalismus machen können, brauchen wir mehr Unterstützung. Unser nächstes Ziel: 40.000 – und mit Ihrer Beteiligung können wir es schaffen. Setzen Sie ein Zeichen für die taz und für die Zukunft unseres Journalismus. Mit nur 5,- Euro sind Sie dabei! Jetzt unterstützen
meistkommentiert
Sourani über das Recht der Palästinenser
„Die deutsche Position ist so hässlich und schockierend“
Haftbefehl gegen Netanjahu
Sollte die deutsche Polizei Netanjahu verhaften?
Autounfälle
Das Tötungsprivileg
Spardiktat des Berliner Senats
Wer hat uns verraten?
Rekrutierung im Krieg gegen Russland
Von der Straße weg
Israel und Hisbollah
Waffenruhe tritt in Kraft