Umgang mit künstlicher Intelligenz: Akzeptanz braucht Transparenz
KI bietet Chancen. Um einen guten Umgang mit ihr zu finden, muss es noch viel mehr Transparenz über ihren Einsatz und ihre Risiken geben.
N achrichtenagenturen wie dpa haben diese Woche ein Foto des britischen Königshauses zurückgezogen – es enthielt digitale Nachbearbeitungen. Parallel zu der Debatte darum hat das EU-Parlament den AI Act, das europäische Regelwerk für künstliche Intelligenz (KI), verabschiedet.
Was beides miteinander zu tun hat? Es scheint das Bewusstsein dafür zu wachsen, dass es bestimmte Rahmenbedingungen braucht, wenn Gesellschaften in einer zunehmend technologisierten Welt funktionieren sollen. Und dass diese nicht einfach von selbst entstehen, sondern dass sie hart erarbeitet werden müssen: durch klare Regeln der Gesetzgeber, durch faires und regelkonformes Verhalten von Unternehmen und staatlichen Stellen, und ja, auch durch ein Mindestmaß an Bewusstsein bei der Nutzung durch Verbraucher:innen.
Die Basis dafür, dass Vertrauen in die Menschen oder Institutionen, die hinter dem Einsatz der Technologie stehen, möglich ist: Transparenz. Bleiben wir kurz bei der Bildbearbeitung. Das, was das britische Königshaus mutmaßlich an dem Bild verändert hat – eine Haarlinie hier, einen Ärmel dort und da hinten einen Türknauf –, ist Kleinkram, verglichen mit dem, was eine übliche KI-Bildbearbeitungsapp heute schon kann.
Was ist Realität?
Ein Gruppenfoto? Ein paar Mal abgedrückt und die KI sucht personenweise die jeweils vorteilhaftesten Bilder heraus und fügt diese zusammen zu einem, auf dem möglichst alle lachen und niemand die Augen zu hat. Bildet dieses Foto die Realität ab? Das ist eine gleichermaßen philosophische wie praktische Frage. Also: Wenn ein Ministerium ein so erstelltes Gruppenfoto seiner frisch komplettierten Führungsriege auf seine Webseite stellt, doch den Entstehungsweg geheim hält – würde es nicht Fragen dazu aufwerfen, wie es die Hausleitung in wichtigeren Fragen hält mit Transparenz und Integrität?
Während hobbymäßige Hochzeitsfotograf:innen vielleicht noch sagen: „KI? Nehme ich, und es darf gerne ein bisschen mehr sein“, bekommt ihr Einsatz gleich eine ganz andere Dimension, wenn es um sensiblere Bereiche geht. Medizin zum Beispiel, Rechtsprechung, Personalauswahl, Bonitätseinschätzung oder Einreise. Der AI Act trägt diesen Unterschieden Rechnung, indem er verschiedene Bereiche unterschiedlich streng regelt, je nachdem, wie viel Risiko ihnen jeweils beigemessen wird. Die Idee ist gut, weil sie von der Zukunft her denkt und einschließt, nicht zu wissen, was in zwei Jahren ist.
Wie schnell die Entwicklung geht, zeigt das Beispiel Videogeneratoren. Vor drei Wochen hat der US-Konzern OpenAI Ergebnisse seines Text-zu-Video-Modells Sora veröffentlicht. Mit ein paar Zeilen Prompt, das sind die Anweisungen, erstellt er Videos mit bis zu einer Minute Länge. Und auch wenn die durch den weiß leuchtenden Schnee trampelnden Mammuts einen Tick zu sehr nach Videospiel aussehen – dass eine künstliche generierte Kamerafahrt durch ein Museum eben nicht echt ist, ist praktisch nicht zu erkennen. Das heißt: Die Portion Vorsicht, die jetzt schon bei Fotos gilt, ist immer mehr auch bei Videos angebracht.
Trainings-Daten, Haftung und Kontrolle
Für jede Einzelperson ist so eine Überprüfung nicht mehr leistbar. Vertrauen in den Sender wird damit zum wichtigen Wert – und das ist nicht möglich ohne Transparenz. Das gilt gleichermaßen für andere Einsatzzwecke: wenn eine KI-Anwendung Ärzt:innen beim Operieren hilft, wenn ein Unternehmen im Bewerbungsverfahren Lebensläufe mit KI scannt, wenn die Uni Klausuren mit einer KI korrigieren lässt oder die zuständige Behörde Visumsanträge per KI prüfen will. All das sind von der EU als „hochriskant“ eingestufte, aber erlaubte Anwendungen.
Fragen, die heute noch abstrakt wirken, rücken dann ins Zentrum: Welche Daten sind in das Training der KI eingeflossen? Gab es valide Tests, um mögliche Verzerrungen zum Vorschein zu bringen? Wer haftet, wenn die KI einen Fehler macht? Und nickt ein Mensch das Ergebnis der KI nur ab oder überprüft er es? Bleiben solche Fragen ungeklärt, wird es schwierig mit dem Vertrauen.
Das Problem ist, und daran kranken auch Teile der AI Acts: Selbst wenn das Bewusstsein für die Notwendigkeit klarer Rahmenbedingungen wächst – es stößt immer noch auf zu viele Vertreter:innen der wirtschaftsnahen Maxime. Sie sind der Überzeugung, der Markt werde es schon richten. Zu viel Regulierung schade nur der Innovation, dann leide der Wirtschaftsstandort und damit der Wohlstand. Abgesehen davon, dass auch das Bild vom Wohlstand als primär materiellem Wert immer mehr infrage gestellt werden muss – wenig zu regeln, weil andere möglicherweise auch wenig regeln, ist ein Unterbietungswettbewerb, bei dem alle verlieren. Alle, bis auf die wenigen Konzerne, die es ganz nach oben schaffen.
taz lesen kann jede:r
Als Genossenschaft gehören wir unseren Leser:innen. Und unser Journalismus ist nicht nur 100 % konzernfrei, sondern auch kostenfrei zugänglich. Texte, die es nicht allen recht machen und Stimmen, die man woanders nicht hört – immer aus Überzeugung und hier auf taz.de ohne Paywall. Unsere Leser:innen müssen nichts bezahlen, wissen aber, dass guter, kritischer Journalismus nicht aus dem Nichts entsteht. Dafür sind wir sehr dankbar. Damit wir auch morgen noch unseren Journalismus machen können, brauchen wir mehr Unterstützung. Unser nächstes Ziel: 40.000 – und mit Ihrer Beteiligung können wir es schaffen. Setzen Sie ein Zeichen für die taz und für die Zukunft unseres Journalismus. Mit nur 5,- Euro sind Sie dabei! Jetzt unterstützen
meistkommentiert
Nan Goldin in Neuer Nationalgalerie
Claudia Roth entsetzt über Proteste
Politikwissenschaftlerin über Ukraine
„Land gegen Frieden funktioniert nicht“
Juso-Chef über Bundestagswahlkampf
„Das ist unsere Bedingung“
Verein „Hand in Hand für unser Land“
Wenig Menschen und Traktoren bei Rechtspopulisten-Demo
Internationaler Strafgerichtshof
Ein Haftbefehl und seine Folgen
taz-Recherche zu Gewalt gegen Frauen
Eine ganz normale Woche in Deutschland