Mozilla-Chef Mark Surman über KI: „Wir wissen nicht, was kaputtgeht“
In Kürze treten die neuen EU-Regeln zu KI in Kraft. Mark Surman, Präsident der Mozilla-Stiftung, über einflussreiche Tech-Konzerne und lustige Hüte.
taz: Herr Surman, welches KI-Werkzeug haben Sie als letztes verwendet?
Mark Surman: (denkt nach)
taz: Nutzen Sie KI so wenig?
Surman: Nein, im Gegenteil, ständig. Und ich hätte jetzt gerne eine amüsante Geschichte erzählt, die etwas über den Stand der Technik und unseren Umgang damit aussagt. Etwa als ich versucht habe, mit ChatGPT ein Foto von mir zu generieren mit einem lustigen Hut. Die 4oer-Version kann ja eigentlich Bilder erzeugen. Aber es war komplett hoffnungslos. Ja, die Hüte waren lustig, aber die Person auf den ersten Bildern sah mir nicht im entferntesten ähnlich, vielleicht abgesehen von dem Bart. Also habe ich ein Bild von mir hochgeladen – und die KI hat einfach einen roten Kreis auf meinen Kopf gesetzt. Nun ja, die Wahrheit ist: Das KI-Tool, das ich als letztes, also wahrscheinlich vor etwa 15 Minuten genutzt habe, war Siri. Das nutze ich ständig.
Mark Surman ist Präsident der Mozilla-Stiftung, die hinter dem Firefox-Browser steht. Der Kanadier setzt sich seit vielen Jahren für ein offenes Internet und Privatsphäre im Netz ein.
taz: Siri ist das KI-Assistenzwerkzeug von Apple. Würden Sie Siri als vertrauenswürdige KI bezeichnen?
Surman: Für die Zwecke, für die ich Siri verwende – um kurze Sprachnotizen aufzunehmen zum Beispiel –, ist es ausreichend vertrauenswürdig. Ich will keine Apple-Werbung machen, aber immerhin bekommt Apple es hin, dass nicht alle Daten ständig in die Cloud geschickt werden. Privatsphäre hat bei Apple schon einen Wert, und das ist etwas, das wir bei Mozilla mit Apple teilen.
taz: Ist Vertrauen ein Thema bei der Nutzung von KI?
Surman: Ja, absolut. Zum Thema Vertrauen gehören zwei wichtige Punkte: Wirkung und Verantwortung. Man kann sich also verschiedene Fragen stellen: Macht die KI, was ich will? Kann ich sie an die eigenen Bedürfnisse anpassen? Ist ihre Funktionsweise transparent? Und wenn etwas schiefgeht: Ist klar, wer haftet? Wendet man diese Definition auf Siri an, kommt man zu dem Ergebnis, dass Siri eigentlich wenig vertrauenswürdig ist. Man kann da nichts anpassen, und das System ist eine ziemliche Blackbox. Wie sie funktioniert – keine Ahnung. Andererseits ist ihr Einsatz nicht besonders risikobehaftet. Wenn also etwas schiefgeht, ist es extrem unwahrscheinlich, dass jemand zu Schaden kommt. Anders sieht das bei dem Einsatz von KI in der Gesundheitsbranche oder bei Versicherungen aus.
taz: Von Siri bis ChatGPT – die meisten der bekannten KI-Tools sind in der Hand großer Techkonzerne. Vergrößert die junge Technologie die Macht von Big Tech?
Surman: Danach sieht es leider derzeit aus. Die größten sechs Konzerne – Apple, Google, Meta, Amazon, Microsoft und der Chiphersteller Nvidia – kontrollieren den überwiegenden Teil des Markts. Das ist etwas, das mich sehr beunruhigt.
taz: Dabei wäre eine neue Technologie ja eigentlich eine Chance, bestehende Marktstrukturen aufzubrechen. Warum passiert das nicht?
Surman: Ich weiß nicht, ob es diese theoretische Chance wirklich gibt oder ob die Macht von Big Tech dafür nicht schon viel zu groß ist. Der Markt wird sich hier nicht mehr selbst regeln. Das muss die Politik machen mit Gesetzen, die für Wettbewerb sorgen, aber auch dafür, dass ein Gegengewicht zu den gewinnorientierten KI-Entwicklungen der großen Konzerne entsteht.
taz: Was meinen Sie damit?
Surman: Zwei Beispiele: In gut funktionierenden Demokratien gibt es üblicherweise öffentliche oder nicht kommerzielle Medien. Das ist das Gegengewicht zu den kommerziellen Anbietern. Und erinnert sich noch jemand daran, dass es vor Wikipedia ein kommerzielles Onlinenachschlagwerk von Microsoft gab? Hier zeigt sich also: Die nicht kommerzielle Entwicklung kann sogar erfolgreicher sein.
taz: Und wie soll dieses Gegengewicht bei KI entstehen?
Surman: Ich glaube, die Basis ist schon da. Es gibt bereits ganz viel nicht kommerzielle Forschung rund um KI, zum Beispiel an Universitäten, aber auch an unabhängigen Institutionen. Und der nächste Schritt ist, dass wir ein ganzes Ökosystem von Open-Source-KI brauchen: von der Datenbasis über die Modelle bis zu der Software, die am Ende rauskommt. Und Open Source meint tatsächlich offen in all seinen Facetten: Es muss transparent sein, man muss es ändern, anpassen und kostenlos nutzen können. Und, ebenso wichtig: Es muss gemeinwohlorientiert sein.
taz: Und wenn wir von den Funktionen her denken?
Surman: Ich glaube, das Wichtigste ist, dass die KI-Modelle Open Source sind.
taz: Ein Modell ist quasi der Algorithmus, der beispielsweise dafür sorgt, dass auf Basis einer Texteingabe ein Bild generiert wird.
Surman: Ist ein Modell Open Source, lässt es sich verändern, anpassen oder auf Basis anderer Daten trainieren – wenn zum Beispiel die ursprünglichen Trainingsdaten dazu geführt haben, dass das Modell rassistische Stereotype reproduziert. Viele Regierungsvertreter sprechen derzeit, und das ist auch wichtig angesichts der Weltlage, über digitale Souveränität. Und mit Open-Source-KI ist das machbar: Sie ist transparent, man kann sie mit der eigenen Sprache oder Informationen über das eigene politische System trainieren.
taz: Wo soll das Geld herkommen?
Surman: Ich glaube nicht, dass wir ein Finanzierungsproblem haben. Fast alle Regierungen stecken jetzt schon Milliarden in IT-Projekte und -Forschung. Klar, mit mehr Geld ließe sich immer noch mehr machen. Aber wichtiger ist, dass das Geld, was jetzt schon fließt, dort ankommt, wo es dieses Gegengewicht stützen kann.
taz: Das große Gesetzeswerk der EU zu KI tritt Anfang August in Kraft. Während der Gesetzgebung wurde debattiert, ob Open-Source-KI weniger streng reguliert werden sollte. In der Community sorgt man sich, dass strenge Auflagen sie unmöglich machen würden. Zugleich könnten Ausnahmen auch von den großen Techkonzernen ausgenutzt werden. Was meinen Sie?
Surman: Es gibt da keine perfekte Lösung. Aber am Ende des Tages ist es doch so, dass jedes KI-System, egal ob Open Source oder nicht, für extrem risikoreiche Anwendungen genutzt und missbraucht werden kann. Ich finde daher den Weg, den die EU gegangen ist, sehr nachvollziehbar: Das Gros der Vorgaben gilt für jene, die die Software in den Verkehr bringen. Wenn eine Versicherungsgesellschaft oder die Polizei ein KI-System nutzt, müssen sie sicherstellen, dass es mit dem Gesetz vereinbar ist.
taz: Reicht das? Schließlich kann man nicht bei allen, die KI einsetzen, von guten Absichten ausgehen.
Surman: Fürs Erste würde ich sagen, es ist okay. Natürlich muss man in den kommenden Jahren bewerten, ob es ausreicht. Aber: Wie lange, nachdem die ersten Autos auf den Straßen waren, hat es gedauert, bis Gurte verpflichtend wurden? Das waren Jahrzehnte.
taz: Was halten Sie für die größten Gefahren, die von KI ausgehen?
Surman: Ich glaube, die dadurch noch steigende Machtkonzentration der Techkonzerne ist eine große Gefahr. Egal, ob ich Deutscher bin oder Kanadier – es ist keine gute Nachricht, wenn vieles von dem, was ich online tue, in der Kontrolle weniger Konzerne an der US-Westküste liegt. Und meine zweite große Sorge ist die Haltung, mit der manche Konzerne oder Akteure KI entwickeln. Nicht immer steht hier Sorgfalt im Vordergrund. Oft ist es auch eine Move-fast-and-break-things-Haltung.
taz: Schnell sein, auch wenn dabei Dinge kaputtgehen.
Surman: Und wir wissen nicht, was dabei kaputtgeht. Die Demokratie? Menschen?
taz: Kann die EU mit ihrem KI-Gesetz hier überhaupt etwas tun?
Surman: Es wird interessant sein, das zu sehen. Die EU spekuliert natürlich, dass sie als Markt groß genug ist, dass Unternehmen sie nicht einfach verlassen, sondern sich den Regeln beugen. Und dass die daraus resultierenden Verbesserungen weltweit gelten. Ob das funktioniert, werden wir sehen.
taz: Was halten sie für das größte Potenzial von KI?
Surman: Dass wir als Gesellschaften gemeinsam einen Weg finden, wie wir die Technologie so nutzen können, dass sie gut für uns ist. Für unsere Demokratie, für die Wirtschaft, für das Gesundheitssystem, für die Steuerung erneuerbarer Energien und im Kampf gegen den Klimawandel.
taz: Wo werden wir in zehn Jahren stehen?
Surman: Wenn ich mal optimistisch bin, was die politische Entwicklung angeht, und wir immer noch in demokratischen pluralistischen Gesellschaften leben …
taz: … es kommt also vor allem auf die Politik an und die, die sie wählen?
Surman: Ja, wahrscheinlich. Ein autokratisches Regime wird auch in guter Absicht entwickelte Technologie missbrauchen. Aber wenn wir optimistisch bleiben, dann sind in zehn Jahren allerhand KI-Systeme niedrigschwellig und stehen einfach zugänglich zur Verfügung, sie helfen Menschen bei allem Möglichen: beim Zugang zu Wissen, bei kreativen Prozessen, beim Kommunizieren mit Menschen, die eine andere Sprache sprechen, bei der Früherkennung von Krankheiten, beim Gründen von Unternehmen. Wir müssen aber immer daran denken, den Menschen ins Zentrum zu stellen – und nicht die Gewinninteressen privater Unternehmen.
taz lesen kann jede:r
Als Genossenschaft gehören wir unseren Leser:innen. Und unser Journalismus ist nicht nur 100 % konzernfrei, sondern auch kostenfrei zugänglich. Texte, die es nicht allen recht machen und Stimmen, die man woanders nicht hört – immer aus Überzeugung und hier auf taz.de ohne Paywall. Unsere Leser:innen müssen nichts bezahlen, wissen aber, dass guter, kritischer Journalismus nicht aus dem Nichts entsteht. Dafür sind wir sehr dankbar. Damit wir auch morgen noch unseren Journalismus machen können, brauchen wir mehr Unterstützung. Unser nächstes Ziel: 40.000 – und mit Ihrer Beteiligung können wir es schaffen. Setzen Sie ein Zeichen für die taz und für die Zukunft unseres Journalismus. Mit nur 5,- Euro sind Sie dabei! Jetzt unterstützen
meistkommentiert
BSW in Koalitionen
Bald an der Macht – aber mit Risiko
Dieter Bohlen als CDU-Berater
Cheri, Cheri Friedrich
Selbstzerstörung der FDP
Die Luft wird jetzt auch für Lindner dünn
Hybride Kriegsführung
Angriff auf die Lebensadern
Stellungnahme im Bundestag vorgelegt
Rechtsexperten stützen AfD-Verbotsantrag
Kinderbetreuung in der DDR
„Alle haben funktioniert“