KI-Expertin über Daten und Macht: „Die Branche ist eine Monokultur“

Meredith Whittaker ist Expertin für Künstliche Intelligenz und wechselte von Google zur Signal Foundation. Ein Gespräch über das Überwachungs-Geschäftsmodell.

Ein von KI erstelltes Katzenbild

Ein von KI erstelltes Katzenbild. Die Software DALL-E erstellt Bilder über Textbeschreibungen Foto: Open AI/afp

taz: An einem ganz normalen Tag – wir nutzen beispielsweise den öffentlichen Nahverkehr und gehen in Läden, wir verwenden Apps und vielleicht den Sprachassistenten des Smartphones –, wie häufig kommen wir mit Künstlicher Intelligenz (KI) in Kontakt?

Meredith Whittaker: Das ist sehr, sehr schwierig zu sagen, weil wir es in den allermeisten Fällen gar nicht merken. Es gibt nicht einmal eine Pflicht, gegenüber Nut­ze­r:in­nen offenzulegen, wenn sie es mit einer KI zu tun haben. Man beantragt also eine Ratenzahlung, meldet einen Versicherungsfall, läuft an einer Überwachungskamera vorbei oder schickt eine Bewerbung – und bekommt überhaupt nicht mit, dass im Hintergrund eine Entscheidung mittels KI getroffen wird.

begann ihre Karriere im Tech-Business bei Google – und wurde bald eine der schärfsten Kri­ti­ke­r:in­nen der Branche. Sie organisierte Proteste der Google-Arbeiter:innen, verließ den Tech-Riesen und wurde Mitgründerin des AI Now Institute an der New York University, einer interdisziplinären Einrichtung, die zu Künstlicher Intelligenz forscht. Ab dem 12. September ist sie Präsidentin der Signal Foundation.

Wie können wir dann wissen, wie groß die Rolle ist, die diese Technologie in unserer Gesellschaft spielt?

Genau das ist das Problem: Wir können es nicht mit Sicherheit sagen. Wir können aber auf Basis der Anwendungen, die es schon auf dem Markt gibt, Vermutungen anstellen. Und wir wissen, dass KI in vielerlei Hinsicht die Möglichkeiten, die wir im Leben haben, und unseren Zugriff auf Ressourcen beeinflusst. Zum Beispiel, wenn es darum geht, ob man die Chance auf einen Job hat oder auf einen Kredit, um ein Haus zu bauen oder ein Unternehmen zu starten.

Wenn es um KI geht, haben viele Menschen Angst vor Autos, die Amok fahren, oder Robotern, die sich gegen Menschen richten. Sind diese Ängste berechtigt?

Ich würde nicht sagen, dass sie komplett falsch sind. Selbstfahrende Autos etwa haben momentan noch eine recht zweifelhafte Erfolgsbilanz. Aber mir machen andere Aspekte größere Sorgen. Vor allem dieser: Es sind nur einige wenige Konzerne, in deren Händen sich KI-Anwendungen befinden. Nur diese wenigen Konzerne haben die finanziellen und personellen Ressourcen, um die großen Modelle zu bauen, die es für KI braucht. Wir haben also eine immense Marktkonzentration. Und das, was sie programmieren, bildet ein Machtzentrum, das sich über unsere sozialen und politischen Institutionen stellt.

Wie meinen Sie das?

Für die Konzerne dient die KI dazu, das Überwachungs-Geschäftsmodell zu vermarkten. Und so Marktmacht und Profite weiter zu steigern. Man kann auch historisch gut erkennen, dass große Konzerne wie Google oder Facebook genau in dem Moment eingestiegen sind, in dem sie erkannt haben, dass KI eine großartige Möglichkeit ist, ihre Überwachungsdaten zu nutzen und noch profitabler zu vermarkten. Diese Akkumulation von Daten gibt den Unternehmen eine einzigartige Macht, die jenseits dessen ist, was wir bislang von staatlichen Institutionen kannten.

Wenn wir über Macht sprechen, sprechen wir auch über Personen, die diese Macht besitzen. Um welche Menschen geht es da?

In den USA haben wir in der Tech-Branche lauter weiße Männer, die in Stanford studiert haben. Das spiegelt die Machtdynamiken innerhalb der Gesellschaft wider, inklusive ihrer rassistischen und sexistischen Ausgrenzungen. In dieser Monokultur mit ihrem begrenzten Horizont wird die Diversität der realen Welt übersehen und stattdessen in den technischen Entwicklungen der enge eigene Erfahrungshorizont weiter reproduziert.

Eine bekannte Geschichte ist etwa der automatische Seifenspender, aus dem keine Seife kam, wenn eine Person of Color ihre Hand darunterhielt.

Und solche Fälle wird es geben, solange Unternehmen dafür keine Strafen bekommen, die sich ernsthaft auf ihre Gewinne auswirken. Wir müssen also aus vielen Gründen auch über die kapitalistischen Strukturen sprechen. Denn wenn ein profitorientiertes Unternehmen ein Vertragsangebot vom US-Militär bekommt und der Geschäftsführer es ablehnt, dann war er die längste Zeit Geschäftsführer.

Kann es in diesem Kontext trotzdem KI-Anwendungen geben, die gewinnbringend für eine Gesellschaft sind?

Vorstellbar ist das, ja. Die Frage ist: Wenn wir uns so eine Anwendung ausdenken – wird sie gewinnbringend genug sein für ein Geschäftsmodell? Da habe ich meine Zweifel.

In Frankreich gibt es eine KI-Anwendung, mit der Steuerbehörden an Hand von Luftbildern illegale private Pools entdecken. In Zeiten von Wasserknappheit spielt das eine Rolle.

Hm. Ich weiß nicht. Wäre es nicht besser, das Geld in die Wasseraufbereitung zu stecken? In funktionierende Grauwassersysteme? Ich verstehe den Ansatz. Aber anstelle etwa unsere globale Abhängigkeit von fossilen Energien zu beenden, trainieren wir ein gigantisches Modell, um private Pool-Besitzer:innen zu bestrafen. Klingt für mich eher nach Theater.

Wie kommen wir aus der Situation von Überwachung und Machtkonzentration wieder raus?

Ich wünschte, ich hätte eine gute Antwort auf diese Frage. Ich habe keine Lösung für eine regulatorische Struktur oder eine technische Idee, wie sich dieser Knoten aus wahnsinnig komplexen Problemen auflösen lässt. Ich denke, dass ein Unternehmen wie Signal und seine Messenger-App existiert, ist schon mal wichtig. Es gibt Menschen die Möglichkeit, außerhalb des Überwachungsapparates zu kommunizieren. Aber es ist natürlich nur ein kleiner Aspekt des ganz großen Bildes.

Haben Sie den Eindruck, dass die Po­li­ti­ke­r:in­nen das Bild überblicken?

Mein Eindruck ist: Es wird besser. Aber IT-Systeme bleiben immer noch so etwas wie eine Fremdsprache für die meisten Menschen und das wird sich auch nicht über Nacht ändern. Bildung ist daher wichtig, dieser Aspekt wird systematisch unterschätzt.

Nun sind Sie Präsidentin der Signal Foundation. Was sind Ihre Pläne?

Ich glaube, erst einmal werde ich sehr viel zuhören und lernen. Und dann wird mein Schwerpunkt darauf liegen, eine Art Leitstrategie zu erarbeiten: Wohin gehen wir? Wie gehen wir? Wie können wir eine Kommunikations-App etablieren, die ähnlich wie die anderen Messenger-Apps funktioniert, aber nicht am Geschäftsmodell der Überwachung teilnimmt?

Es geht also um Geld?

Ja, die finanzielle Frage ist eine existenziell wichtige. Seit Kurzem experimentieren wir in der Signal-App mit einem kleinen freiwilligen Spendenmodell. Die Rückmeldungen sind ermutigend und vielleicht ist das ein Weg, den wir weitergehen können. Aber die Frage, wie in diesem Korsett aus Überwachung und Gewinn eine Software gebaut werden kann, die sich diesen Strukturen entzieht, die ist bislang unbeantwortet.

Aber es gibt doch auch andere Unternehmen, die Ähnliches machen.

Ja? Vielleicht übersehe ich etwas, aber ich sehe keine andere massiv genutzte Software, die die Erwartungen der Nut­ze­r:in­nen erfüllt und nicht in irgendeiner Form durch ein traditionelles Geschäftsmodell der Technologiebranche finanziert wird.

Mozilla mit ihrem Browser Firefox?

Die sind stark gefördert durch Google. Und so etwas wollen wir nicht.

Es gibt Menschen, die argumentieren, man dürfe die Verantwortung nicht auf die Nut­ze­r:in­nen verlagern, sondern brauche eine politische Lösung des Problems. Wie sehen Sie das?

Ich finde es wichtig, dass Nut­ze­r:in­nen eine Wahl haben. Denn wie wollen wir ein Unternehmen wie Facebook in seiner jetzigen Form ernsthaft regulieren? Nehmen wir ihnen die Daten weg, bricht das Geschäftsmodell zusammen. Wie ein Facebook ohne Überwachung funktionieren kann, hat noch niemand beantwortet.

In der EU müssen große Messenger wie Whatsapp in Zukunft Schnittstellen für kleine Messenger-Dienste anbieten – damit Nut­ze­r:in­nen verschiedener Apps untereinander Nachrichten austauschen können. Ist das ein Fortschritt?

Grundsätzlich finde ich Interoperabilität gut. Was aber nicht geht: dass Signal seine Standards senkt, um mit Messengern wie Whatsapp, die niedrigere Standards haben, kompatibel zu sein. Whatsapp nutzt zwar die gleiche inhaltliche Verschlüsselung wie Signal. Aber Whatsapp sammelt beispielsweise Metadaten. Also wer mit wem wann kommuniziert hat, wer mit wem in welchen Gruppen ist, Profilbilder und noch einiges mehr. Das macht Signal nicht. Und wollen wir Whatsapp die Metadaten der Signal-Nutzer:innen geben? Whatsapp, das zu Facebook gehört? Auf gar keinen Fall.

Einmal zahlen
.

Fehler auf taz.de entdeckt?

Wir freuen uns über eine Mail an fehlerhinweis@taz.de!

Inhaltliches Feedback?

Gerne als Leser*innenkommentar unter dem Text auf taz.de oder über das Kontaktformular.

Bitte registrieren Sie sich und halten Sie sich an unsere Netiquette.

Haben Sie Probleme beim Kommentieren oder Registrieren?

Dann mailen Sie uns bitte an kommune@taz.de.