piwik no script img

Konferenz gegen Tech-Konzerne„Muss es wirklich künstliche Intelligenz sein?“

Julia Kloiber ist Mitgründerin des feministischen Tech-Kollektivs Superrr Lab. Hier spricht sie über Macht, Mythen und Missverständnisse rund um KI.

Bunt und kritisch: das Kollektiv Superrr Foto: Marlene Burz

Interview von

Sirko Salka

taz: Frau Kloiber, Ihr Kollektiv Superrr versucht mit der Veranstaltungsreihe in Berliner Bibliotheken mit KI-Mythen aufzuräumen. Warum?

Julia Kloiber: Es braucht grundsätzlich einen breiteren gesellschaftlichen Diskurs zu neuen Technologien. Wir sehen in vielen Bereichen, welchen Einfluss Technologien wie KI auf die Gesellschaft nehmen können. Wir finden es wichtig, Menschen zu ermutigen, sich damit auseinanderzusetzen. Um zum Beispiel zu sagen: Wir wollen keine biometrische Massenüberwachung in unserer Nachbarschaft. Die schadet uns als Gesellschaft mehr, als sie uns bringt.

taz: Warum ausgerechnet so analoge Orte wie Bibliotheken?

Bild: Marlene Burz
Im Interview: 

Julia Kloiber ist Mitgründerin und Geschäftsführerin des feministischen Tech-Kollektivs Superrr Lab

Kloiber: Bibliotheken sind Orte des Wissens und der Begegnung. Sie erreichen Menschen jeden Alters, von technikaffin bis unerfahren. Für uns war es besonders wichtig, mit einer möglichst vielfältigen Gruppe ins Gespräch zu kommen und gemeinsam hinter populäre Erzählungen rund um KI zu blicken.

taz: Was ist der größte Mythos um künstliche Intelligenz für Sie?

Kloiber: Dass KI unvermeidlich ist. Die Erzählung dazu lautet: Wir müssen im Wettrennen zwischen USA und China Schritt halten. Und: Wenn wir den technologischen Fortschritt hinterfragen, bleiben wir zurück, dann werden wir abgehängt.

taz: KI entwickelt sich rasant. Haben wir überhaupt eine Atempause, um da gegenzusteuern?

Die Termine

Anna-Seghers-Bibliothek, Lichtenberg 23.03.& 27.04.2026

Helene-Nathan-Bibliothek, Neukölln 27.03.& 17.04.2026

Amerika-Gedenkbibliothek, Kreuzberg 12.04.2026

Schiller-Bibliothek, Wedding 16.04.& 23.04.2026

Bezirksbibliothek, Spandau 30.04.2026

Tickets

Kloiber: Die Unternehmen hinter den KI-Tools, hinter Sprachmodellen wie ChatGPT, Claude, Gemini schreiben keine schwarzen Zahlen. Deshalb bringen sie immer neue Marketing-Narrative heraus, neue Tools, neue Verbesserungen. Das führt dazu, dass wir das Gefühl bekommen, alles entwickelt sich rasant weiter, und wir kommen nicht mehr hinterher. Dabei ist es gerade jetzt wichtig, KI gut zu regulieren.

taz: In Berlin gibt es eine Debatte über den Einsatz von KI-gestützter Videoüberwachung an „kriminalitätsbelasteten“ Orten wie dem Görlitzer Park und als Objektschutz. Bringen diese Technologien Sicherheit oder ist das auch nur ein Mythos?

Kloiber: Die Studienlage ist extrem dünn, es gibt keine Belege dafür, dass der Einsatz solcher Technologien zu mehr Sicherheit führt. Ich finde das äußerst bedenklich. Die Argumentation ist am Anfang immer, dass diese Systeme nur an bestimmten Orten in abgesteckten Bereichen eingesetzt werden sollen. Die Gefahr ist, dass sie dadurch normalisiert werden und der Einsatz ausgeweitet wird. Außerdem: Muss es wirklich die überkandidelte KI sein, oder gibt es andere Stellschrauben wie Präventions- und Sozialarbeit, bevor wir in solch sensible Bereiche vordringen?

taz: Wie demokratisch sind die neuen KI-Technologien?

Kloiber: Wir beobachten eine Machtkonzentration in den Händen weniger Konzerne. Mit demokratischen Prinzipien ist das schwer vereinbar. Die CEOs hinter den US-Tech-Konzernen waren bei Trumps Inauguration anwesend. Einige von ihnen haben sich nun als Antidemokraten herausgestellt. Zum Beispiel Peter Thiel, einer der Gründer des Unternehmens Palantir. Er glaubt nicht, dass Freiheit und Demokratie miteinander vereinbar sind und hat großen Einfluss auf die Tech-Elite in den USA.

taz: Inwiefern kann das Auswirkungen auf die Repräsentation von bestimmte Gruppen und Minderheiten haben?

Kloiber: Wenn Strukturen hinter der KI demokratie- und minderheitenverachtend sind, hat das Auswirkungen auf die KI-Tools. Solange Gesellschaften rassistisch, sexistisch, homophob sind, werden Sprachmodelle auch mit solchen Daten trainiert. Wichtig ist es zu verstehen, dass man diese Probleme nur bedingt auf der technischen Ebene mit Debiasing lösen kann, denn es sind strukturelle gesellschaftliche Herausforderungen.

taz: Debiasing?

Kloiber: Debiasing ist der Versuch, Verzerrungen und Diskriminierungen in KI-Modellen gegenzusteuern. KI-Modelle werden zu stark mit Datensätzen aus bestimmten Regionen wie den USA trainiert. Dadurch gibt es Lücken und Verzerrungen in den Daten. Bei Bildgeneratoren etwa hat man versucht gegenzusteuern, dass KI immer nur weiße männliche Ärzteteams erstellt. Das ist ein plakatives Beispiel für Debiasing.

taz: Was kann ich als User gegen die gefühlte Unvermeidlichkeit der KI tun?

Kloiber: Ich bin immer skeptisch, wenn der Fokus zu sehr auf den Nut­ze­r:in­nen liegt. Ich finde es wichtig, sich zu informieren, sich politisch einzubringen, gegen bestimmte Dinge zu protestieren und von der Politik zu fordern, dass der Einsatz von KI in Hochrisikobereichen streng reglementiert wird. Wie zum Beispiel beim Recruiting, wo algorithmische Verzerrung zu Diskriminierung führen kann und Entscheidungen oft intransparent sind.

Gemeinsam für freie Presse

Als Genossenschaft gehören wir unseren Leser:innen. Und unser Journalismus ist nicht nur 100 % konzernfrei, sondern auch kostenfrei zugänglich. Alle Artikel stellen wir frei zur Verfügung, ohne Paywall. Gerade in diesen Zeiten müssen Einordnungen und Informationen allen zugänglich sein. Unsere Leser:innen müssen nichts bezahlen, wissen aber, dass kritischer, unabhängiger Journalismus nicht aus dem Nichts entsteht. Dafür sind wir sehr dankbar. Damit wir auch morgen noch unseren Journalismus machen können, brauchen wir mehr Unterstützung. Unser nächstes Ziel: 50.000 – und mit Ihrer Beteiligung können wir es schaffen. Setzen Sie ein Zeichen für die taz und für die Zukunft unseres Journalismus. Mit nur 5,- Euro sind Sie dabei! Jetzt unterstützen

Mehr zum Thema

0 Kommentare