piwik no script img

Umgang mit künstlicher IntelligenzAkzeptanz braucht Transparenz

Kommentar von Svenja Bergt

KI bietet Chancen. Um einen guten Umgang mit ihr zu finden, muss es noch viel mehr Transparenz über ihren Einsatz und ihre Risiken geben.

Das Ziel: nachvollziehbar machen, in welchen Programmen KI verwendet wird Foto: getty images

N achrichtenagenturen wie dpa haben diese Woche ein Foto des britischen Königshauses zurückgezogen – es enthielt digitale Nachbearbeitungen. Parallel zu der Debatte darum hat das EU-Parlament den AI Act, das europäische Regelwerk für künstliche Intelligenz (KI), verabschiedet.

Was beides miteinander zu tun hat? Es scheint das Bewusstsein dafür zu wachsen, dass es bestimmte Rahmenbedingungen braucht, wenn Gesellschaften in einer zunehmend technologisierten Welt funktionieren sollen. Und dass diese nicht einfach von selbst entstehen, sondern dass sie hart erarbeitet werden müssen: durch klare Regeln der Gesetzgeber, durch faires und regelkonformes Verhalten von Unternehmen und staatlichen Stellen, und ja, auch durch ein Mindestmaß an Bewusstsein bei der Nutzung durch Verbraucher:innen.

Die Basis dafür, dass Vertrauen in die Menschen oder Institutionen, die hinter dem Einsatz der Technologie stehen, möglich ist: Transparenz. Bleiben wir kurz bei der Bildbearbeitung. Das, was das britische Königshaus mutmaßlich an dem Bild verändert hat – eine Haarlinie hier, einen Ärmel dort und da hinten einen Türknauf –, ist Kleinkram, verglichen mit dem, was eine übliche KI-Bildbearbeitungsapp heute schon kann.

Was ist Realität?

Ein Gruppenfoto? Ein paar Mal abgedrückt und die KI sucht personenweise die jeweils vorteilhaftesten Bilder heraus und fügt diese zusammen zu einem, auf dem möglichst alle lachen und niemand die Augen zu hat. Bildet dieses Foto die Realität ab? Das ist eine gleichermaßen philosophische wie praktische Frage. Also: Wenn ein Ministerium ein so erstelltes Gruppenfoto seiner frisch komplettierten Führungsriege auf seine Webseite stellt, doch den Entstehungsweg geheim hält – würde es nicht Fragen dazu aufwerfen, wie es die Hausleitung in wichtigeren Fragen hält mit Transparenz und Integrität?

Während hobbymäßige Hoch­zeits­fo­to­gra­f:in­nen vielleicht noch sagen: „KI? Nehme ich, und es darf gerne ein bisschen mehr sein“, bekommt ihr Einsatz gleich eine ganz andere Dimension, wenn es um sensiblere Bereiche geht. Medizin zum Beispiel, Rechtsprechung, Personalauswahl, Bonitätseinschätzung oder Einreise. Der AI Act trägt diesen Unterschieden Rechnung, indem er verschiedene Bereiche unterschiedlich streng regelt, je nachdem, wie viel Risiko ihnen jeweils beigemessen wird. Die Idee ist gut, weil sie von der Zukunft her denkt und einschließt, nicht zu wissen, was in zwei Jahren ist.

Die durch den weiß leuchtenden Schnee trampelnden Mammuts sehen höchstens einen Tick zu sehr nach Videospiel aus

Wie schnell die Entwicklung geht, zeigt das Beispiel Videogeneratoren. Vor drei Wochen hat der US-Konzern OpenAI Ergebnisse seines Text-zu-Video-Modells Sora veröffentlicht. Mit ein paar Zeilen Prompt, das sind die Anweisungen, erstellt er Videos mit bis zu einer Minute Länge. Und auch wenn die durch den weiß leuchtenden Schnee trampelnden Mammuts einen Tick zu sehr nach Videospiel aussehen – dass eine künstliche generierte Kamerafahrt durch ein Museum eben nicht echt ist, ist praktisch nicht zu erkennen. Das heißt: Die Portion Vorsicht, die jetzt schon bei Fotos gilt, ist immer mehr auch bei Videos angebracht.

Trainings-Daten, Haftung und Kontrolle

Für jede Einzelperson ist so eine Überprüfung nicht mehr leistbar. Vertrauen in den Sender wird damit zum wichtigen Wert – und das ist nicht möglich ohne Transparenz. Das gilt gleichermaßen für andere Einsatzzwecke: wenn eine KI-Anwendung Ärz­t:in­nen beim Operieren hilft, wenn ein Unternehmen im Bewerbungsverfahren Lebensläufe mit KI scannt, wenn die Uni Klausuren mit einer KI korrigieren lässt oder die zuständige Behörde Visumsanträge per KI prüfen will. All das sind von der EU als „hochriskant“ eingestufte, aber erlaubte Anwendungen.

Fragen, die heute noch abstrakt wirken, rücken dann ins Zentrum: Welche Daten sind in das Training der KI eingeflossen? Gab es valide Tests, um mögliche Verzerrungen zum Vorschein zu bringen? Wer haftet, wenn die KI einen Fehler macht? Und nickt ein Mensch das Ergebnis der KI nur ab oder überprüft er es? Bleiben solche Fragen ungeklärt, wird es schwierig mit dem Vertrauen.

Das Problem ist, und daran kranken auch Teile der AI Acts: Selbst wenn das Bewusstsein für die Notwendigkeit klarer Rahmenbedingungen wächst – es stößt immer noch auf zu viele Ver­tre­te­r:in­nen der wirtschaftsnahen Maxime. Sie sind der Überzeugung, der Markt werde es schon richten. Zu viel Regulierung schade nur der Innovation, dann leide der Wirtschaftsstandort und damit der Wohlstand. Abgesehen davon, dass auch das Bild vom Wohlstand als primär materiellem Wert immer mehr infrage gestellt werden muss – wenig zu regeln, weil andere möglicherweise auch wenig regeln, ist ein Unterbietungswettbewerb, bei dem alle verlieren. Alle, bis auf die wenigen Konzerne, die es ganz nach oben schaffen.

taz lesen kann jede:r

Als Genossenschaft gehören wir unseren Leser:innen. Und unser Journalismus ist nicht nur 100 % konzernfrei, sondern auch kostenfrei zugänglich. Texte, die es nicht allen recht machen und Stimmen, die man woanders nicht hört – immer aus Überzeugung und hier auf taz.de ohne Paywall. Unsere Leser:innen müssen nichts bezahlen, wissen aber, dass guter, kritischer Journalismus nicht aus dem Nichts entsteht. Dafür sind wir sehr dankbar. Damit wir auch morgen noch unseren Journalismus machen können, brauchen wir mehr Unterstützung. Unser nächstes Ziel: 40.000 – und mit Ihrer Beteiligung können wir es schaffen. Setzen Sie ein Zeichen für die taz und für die Zukunft unseres Journalismus. Mit nur 5,- Euro sind Sie dabei! Jetzt unterstützen

Redakteurin für Wirtschaft und Umwelt
schreibt über vernetzte Welten, digitale Wirtschaft und lange Wörter (Datenschutz-Grundverordnung, Plattformökonomie, Nutzungsbedingungen). Manchmal und wenn es die Saison zulässt, auch über alte Apfelsorten. Bevor sie zur taz kam, hat sie unter anderem für den MDR als Multimedia-Redakteurin gearbeitet. Autorin der Kolumne Digitalozän.
Mehr zum Thema

1 Kommentar

 / 
  • Der Zweckoptimismus vom vollem Glas? Das ist immer zur Hälfte mit Wasser und zur Hälfte mit Luft gefüllt. Uralte Weisheiten: Das Gute oder nur etwas Bessere ist nicht ohne das Schlechte oder etwas weniger Gute zu haben. M.E. bleibt diese banale Sichtweise für einer grundsätzlichere Herausforderung blind.

    KI ist nur ein mächtiges Werkzeug, das zunächst vieles schneller und einfacher, und darum manches auch erst möglich machen kann. Fake News, manipulierte Bilder, Datensammlungen usw. gab es aber schon in vor-digitalen Zeiten. Was sich auch nicht durch die KI ändern wird, ist die Vorherrschaft der marktwirtschaftlichen Zweckrationalität in nahezu allen Lebensbereichen. Das gesellschaftliche, politische, soziale, kulturelle und spirituelle Leben der Menschen und selbst die Natur folgen keinem wirtschaftlichen Zweck, sind aber in ihrer materiellen Basis längst den Prinzipien des Marktes unterworfen. Dementsprechend wird auch die KI vor allem ein mächtiges Werkzeug für die weitere Ökonomisierung der Welt sein: marktkonforme Demokratie, marktkonforme BürgerInnen, marktkonforme Natur usw.