piwik no script img

Vorwürfe von schwarzer KI-ForscherinProteste bei Google

Die bekannte KI-Forscherin Timnit Gebru verlässt Google im Streit. Grund ist eine Studie zu Sprachverarbeitung, die dem Konzern nicht passt.

Forscherin Timnit Gebru wirft ihrem Ex-Arbeitgeber Zensur vor Foto: Kristin Callahan/ZUMA Press/imago

Google liebt sein Image als uneigennütziger Tech-Konzern. Da passt es nicht gut ins Bild, wenn Tausende Mitarbeiter:innen protestieren und in einem offenen Brief Aufklärung fordern. Ihre Vorwürfe: Die Schwarze KI-Forscherin Timnit Gebru sei rassistisch diskriminiert und anschließend entlassen worden. Googles Leiter der KI-Abteilung Jeff Dean dementiert die Vorwürfe und sagt, Gebru habe gekündigt. Seit Anfang Dezember wird über diese Frage beim Tech-Konzern gestritten.

Eine unternehmenskritische Mail und eine nichtveröffentlichte Studie waren laut Gebru Auslöser des Konflikts. In der Mail beklagt Gebru die mangelnde Geschlechtervielfalt bei Google. Der Konflikt kochte schnell hoch, weil Gebru den Vorwurf auf Twitter postete. Als internationale Größe in der Forschung zu KI-Ethik arbeitet sie zu rassistischen und sexistischen Vorurteilen, die in vermeintlich neutralen Algorithmen schlummern.

Sie wies nach, dass KI-Gesichtserkennung Schwarze Frauen tendenziell schlechter erkennt. Die hohe Fehlerquote liegt auch darin begründet, dass nur wenige Schwarze Frauen bei der Entwicklung von Gesichtserkennungssoftware beteiligt sind. Nur verhältnismäßig wenige Schwarze Frauen arbeiten bei dem Tech-Konzern.

Aber auch die abgelehnte Studie ist für Google heikel, weil sie am Geschäftsmodell des Unternehmens sägt. Tech-Firmen, heißt es darin, könnten mehr tun, damit KI-Systeme Geschlechtervorurteile nicht weiter reproduzieren. Außerdem verbrauchten sie zur Spracherkennung viel Rechenleistung und würden damit die Umwelt belasten. Auch könnten derartige Systeme für Desinformation missbraucht werden. Google wies den Entwurf intern zurück, weil er angeblich nicht genügend aktuelle Studien berücksichtige. Wis­sen­schaft­ler:in­nen sprechen hingegen von Zensur. In der Literaturliste sind indes mehr als 128 Verweise angeführt.

Schon im Jahr 2019 hatte Meredith Whittaker Google im Streit verlassen, auch sie arbeitete im Bereich der KI-Ethik. Der Eindruck bleibt, dass Google Mit­ar­bei­ter:in­nen, die das Geschäftsmodell gefährden und Kritik öffentlich äußern, loswerden will. Und dabei Kritik aus der Wissenschaft kleinredet, wenn sie nicht ins Bild passt.

taz lesen kann jede:r

Als Genossenschaft gehören wir unseren Leser:innen. Und unser Journalismus ist nicht nur 100 % konzernfrei, sondern auch kostenfrei zugänglich. Texte, die es nicht allen recht machen und Stimmen, die man woanders nicht hört – immer aus Überzeugung und hier auf taz.de ohne Paywall. Unsere Leser:innen müssen nichts bezahlen, wissen aber, dass guter, kritischer Journalismus nicht aus dem Nichts entsteht. Dafür sind wir sehr dankbar. Damit wir auch morgen noch unseren Journalismus machen können, brauchen wir mehr Unterstützung. Unser nächstes Ziel: 40.000 – und mit Ihrer Beteiligung können wir es schaffen. Setzen Sie ein Zeichen für die taz und für die Zukunft unseres Journalismus. Mit nur 5,- Euro sind Sie dabei! Jetzt unterstützen

Mehr zum Thema

6 Kommentare

 / 
  • Fazit des Artikels: "Der Eindruck bleibt, dass Google Mit­ar­bei­ter:in­nen, die das Geschäftsmodell gefährden und Kritik öffentlich äußern, loswerden will."

    Ja, so ist es ganz bestimmt. Aber mit Verlaub: Das ist bei jedem Unternehmen so. Die wollen niemanden bezahlen, der ihr Geschäftsmodell gefährdet. Und öffentlich geäußerte Kritik mag auch kein Unternehmen hören.

  • Google rassistisch? Really?

    Der Programmierer James Darmore wurde 2017 noch wegen eines Memos von Google gefeuert:

    'Calling the culture at Google an "ideological echo chamber", the memo states that while discrimination exists, it is extreme to ascribe all disparities to oppression, and it is authoritarian to try to correct disparities through reverse discrimination. Instead, the memo argues that male to female disparities can be partly explained by biological differences.[1][14] Damore said that those differences include women generally having a stronger interest in people rather than things, and tending to be more social, artistic, and prone to neuroticism (a higher-order personality trait).[15] Damore's memorandum also suggests ways to adapt the tech workplace to those differences to increase women's representation and comfort, without resorting to discrimination.'

    en.wikipedia.org/w...gical_Echo_Chamber

  • Zu solchen Fällen schweigen die "Antizensur-Aktivisten" vom Schlage eines Milo Yiannopoulos, Jordan B. Peterson, Helen Pluckrose, Peter Boghossian, oder dem in 4 Jahren vom "left-leaning liberal" zum StopTheSteal-Vollverstrahlten mutierten James A. Lindsay so laut und penetrant, dass es geradezu ohrenbetäubend ist.

    Dabei ist das von Dr. Gebru untersuchte Phänomen auch in anderer Form umfassend dokumentiert - am skandalösesten vielleicht beim autonomem Fahren, wo dunkelhäutige Menschen von schlecht trainierten Auto-KIs als ungebremst überfahrbare Flecken auf dem Asphalt behandelt wurden -, und lässt sich von technisch Versierten sogar am heimischen PC nachvollziehen: blog.conceptnet.io...out-really-trying/

    • @Ajuga:

      Ich erkenne als nicht-künstliche aber auch nicht mehr ganz junge Intelligenz nachts schwarzgekleidete Radfahrer ohne Licht nur schwer. Manches, das künstliche Intelligenz schlecht kann, ist nicht programmiererische Nachlässigkeit sondern ganz einfach objektiv schwierig.

  • Ich kann mir nicht vorstellen, dass Google im klassischen Sinne rassistisch ist. Google ist ein Riesenkonzern, alles wird man da ein wenig finden, aber in der Hauptrichtung ist Google doch ein kosmopolitischer Konzern, der eher über klassisch konservative Lebensentwürfe hinwegdampft. Was zählt ist die Technik/Wissenschaft und der Erfolg und das verdiente Geld, vollkommen egal durch wen das zustande kommt. Natürlich ist man westlich und diskriminiert bis zu einem gewissenb Grad China, Russland etc. aber kaum Hautfarben. Das scheinen mir eher Identitätsfragen, die durch die Mitarbeiter in die Firma reingetragen werden und einfach die gesellschaftlichen Konflikte wiederspiegeln.

    Die schlechtere Erkennung von schwarzen Personen in Bildern ist doch kein Diskriminierungsbeispiel. Da muss man eben die Trainingsdatensätze anpassen und gut ist es. Das macht doch niemand mit Absicht - was hätte Google davon. Bei sehr dunklen Menschen kommt vielleicht noch das Problem dazu, dass bei schlechter Bildqualität Kontraste im Gesicht schlechter erkennbar sind - das kann einen Einfluss haben, ist aber auch kein Rassismus. Für Menschen wie Frau Gebru, die bildtechnisch vom Phänotyp weiß ist, würde das ohnehin nicht zutreffen.

    • @Markus Michaelis:

      Gutes Argument, ich spare mir eine eigene Formulierung.