Umgang mit künstlicher Intelligenz: Akzeptanz braucht Transparenz
KI bietet Chancen. Um einen guten Umgang mit ihr zu finden, muss es noch viel mehr Transparenz über ihren Einsatz und ihre Risiken geben.
N achrichtenagenturen wie dpa haben diese Woche ein Foto des britischen Königshauses zurückgezogen – es enthielt digitale Nachbearbeitungen. Parallel zu der Debatte darum hat das EU-Parlament den AI Act, das europäische Regelwerk für künstliche Intelligenz (KI), verabschiedet.
Was beides miteinander zu tun hat? Es scheint das Bewusstsein dafür zu wachsen, dass es bestimmte Rahmenbedingungen braucht, wenn Gesellschaften in einer zunehmend technologisierten Welt funktionieren sollen. Und dass diese nicht einfach von selbst entstehen, sondern dass sie hart erarbeitet werden müssen: durch klare Regeln der Gesetzgeber, durch faires und regelkonformes Verhalten von Unternehmen und staatlichen Stellen, und ja, auch durch ein Mindestmaß an Bewusstsein bei der Nutzung durch Verbraucher:innen.
Die Basis dafür, dass Vertrauen in die Menschen oder Institutionen, die hinter dem Einsatz der Technologie stehen, möglich ist: Transparenz. Bleiben wir kurz bei der Bildbearbeitung. Das, was das britische Königshaus mutmaßlich an dem Bild verändert hat – eine Haarlinie hier, einen Ärmel dort und da hinten einen Türknauf –, ist Kleinkram, verglichen mit dem, was eine übliche KI-Bildbearbeitungsapp heute schon kann.
Was ist Realität?
Ein Gruppenfoto? Ein paar Mal abgedrückt und die KI sucht personenweise die jeweils vorteilhaftesten Bilder heraus und fügt diese zusammen zu einem, auf dem möglichst alle lachen und niemand die Augen zu hat. Bildet dieses Foto die Realität ab? Das ist eine gleichermaßen philosophische wie praktische Frage. Also: Wenn ein Ministerium ein so erstelltes Gruppenfoto seiner frisch komplettierten Führungsriege auf seine Webseite stellt, doch den Entstehungsweg geheim hält – würde es nicht Fragen dazu aufwerfen, wie es die Hausleitung in wichtigeren Fragen hält mit Transparenz und Integrität?
Während hobbymäßige Hochzeitsfotograf:innen vielleicht noch sagen: „KI? Nehme ich, und es darf gerne ein bisschen mehr sein“, bekommt ihr Einsatz gleich eine ganz andere Dimension, wenn es um sensiblere Bereiche geht. Medizin zum Beispiel, Rechtsprechung, Personalauswahl, Bonitätseinschätzung oder Einreise. Der AI Act trägt diesen Unterschieden Rechnung, indem er verschiedene Bereiche unterschiedlich streng regelt, je nachdem, wie viel Risiko ihnen jeweils beigemessen wird. Die Idee ist gut, weil sie von der Zukunft her denkt und einschließt, nicht zu wissen, was in zwei Jahren ist.
Wie schnell die Entwicklung geht, zeigt das Beispiel Videogeneratoren. Vor drei Wochen hat der US-Konzern OpenAI Ergebnisse seines Text-zu-Video-Modells Sora veröffentlicht. Mit ein paar Zeilen Prompt, das sind die Anweisungen, erstellt er Videos mit bis zu einer Minute Länge. Und auch wenn die durch den weiß leuchtenden Schnee trampelnden Mammuts einen Tick zu sehr nach Videospiel aussehen – dass eine künstliche generierte Kamerafahrt durch ein Museum eben nicht echt ist, ist praktisch nicht zu erkennen. Das heißt: Die Portion Vorsicht, die jetzt schon bei Fotos gilt, ist immer mehr auch bei Videos angebracht.
Trainings-Daten, Haftung und Kontrolle
Für jede Einzelperson ist so eine Überprüfung nicht mehr leistbar. Vertrauen in den Sender wird damit zum wichtigen Wert – und das ist nicht möglich ohne Transparenz. Das gilt gleichermaßen für andere Einsatzzwecke: wenn eine KI-Anwendung Ärzt:innen beim Operieren hilft, wenn ein Unternehmen im Bewerbungsverfahren Lebensläufe mit KI scannt, wenn die Uni Klausuren mit einer KI korrigieren lässt oder die zuständige Behörde Visumsanträge per KI prüfen will. All das sind von der EU als „hochriskant“ eingestufte, aber erlaubte Anwendungen.
Fragen, die heute noch abstrakt wirken, rücken dann ins Zentrum: Welche Daten sind in das Training der KI eingeflossen? Gab es valide Tests, um mögliche Verzerrungen zum Vorschein zu bringen? Wer haftet, wenn die KI einen Fehler macht? Und nickt ein Mensch das Ergebnis der KI nur ab oder überprüft er es? Bleiben solche Fragen ungeklärt, wird es schwierig mit dem Vertrauen.
Das Problem ist, und daran kranken auch Teile der AI Acts: Selbst wenn das Bewusstsein für die Notwendigkeit klarer Rahmenbedingungen wächst – es stößt immer noch auf zu viele Vertreter:innen der wirtschaftsnahen Maxime. Sie sind der Überzeugung, der Markt werde es schon richten. Zu viel Regulierung schade nur der Innovation, dann leide der Wirtschaftsstandort und damit der Wohlstand. Abgesehen davon, dass auch das Bild vom Wohlstand als primär materiellem Wert immer mehr infrage gestellt werden muss – wenig zu regeln, weil andere möglicherweise auch wenig regeln, ist ein Unterbietungswettbewerb, bei dem alle verlieren. Alle, bis auf die wenigen Konzerne, die es ganz nach oben schaffen.
Eine Koalition, die was bewegt: taz.de und ihre Leser:innen
Unsere Community ermöglicht den freien Zugang für alle. Dies unterscheidet uns von anderen Nachrichtenseiten. Wir begreifen Journalismus nicht nur als Produkt, sondern auch als öffentliches Gut. Unsere Artikel sollen möglichst vielen Menschen zugutekommen. Mit unserer Berichterstattung versuchen wir das zu tun, was wir können: guten, engagierten Journalismus. Alle Schwerpunkte, Berichte und Hintergründe stellen wir dabei frei zur Verfügung, ohne Paywall. Gerade jetzt müssen Einordnungen und Informationen allen zugänglich sein. Was uns noch unterscheidet: Unsere Leser:innen. Sie müssen nichts bezahlen, wissen aber, dass guter Journalismus nicht aus dem Nichts entsteht. Dafür sind wir sehr dankbar. Damit wir auch morgen noch unseren Journalismus machen können, brauchen wir mehr Unterstützung. Unser nächstes Ziel: 50.000 – und mit Ihrer Beteiligung können wir es schaffen. Es wäre ein schönes Zeichen für die taz und für die Zukunft unseres Journalismus. Mit nur 5,- Euro sind Sie dabei! Jetzt unterstützen
meistkommentiert
Leak zu Zwei-Klassen-Struktur beim BSW
Sahras Knechte
Forscher über Einwanderungspolitik
„Migration gilt als Verliererthema“
Abschied von der Realität
Im politischen Schnellkochtopf
Russlands Angriffskrieg in der Ukraine
„Wir sind nur kleine Leute“
Klimaneutral bis 2045?
Grünes Wachstum ist wie Abnehmenwollen durch mehr Essen
Extremismus bei Alemannia Aachen
Der rechte Flügel