piwik no script img

Kommentar Ethische Leitlinien zu KIZu vorsichtig und industrienah

Kommentar von Svenja Bergt

Die Leitlinien der EU-Kommission zu künstlicher Intelligenz sind nur freundliche Bitten an die Industrie. Längst bräuchte es aber viel mehr.

Wer sagt ihm, dass er nicht töten darf? Foto: Unsplash/ Lukas

D arf eine Maschine, gesteuert von künstlicher Intelligenz (KI) – jemanden töten? Diese Frage hat die EU-Kommission, die diese Woche ethische Leitlinien zur KI vorgestellt hat, nicht mit Nein beantwortet.

Auch nicht mit Ja, was ja schon mal gut ist, aber sie hat die Frage nicht mal explizit gestellt. Denn die Leitlinien sind nicht mehr als freundliche Bitten an die Industrie, dazu geeignet, die Unternehmen möglichst nicht zu verärgern. Längst bräuchte es aber viel mehr.

Nicht nur weil die USA und China, die derzeit wichtigsten Regionen für die Entwicklung und den Einsatz von KI-Technologien, von ethischen Regeln nicht so wahnsinnig viel halten. Sondern weil auch Europa ein Markt ist. Und KI als relativ neue Technologie wäre eine einzigartige Chance: darauf, verbindliche Regeln zu erstellen, bevor das Produkt in Breite verfügbar ist. Und eben weil die EU mit rund 500 Millionen Bürger:innen ein Markt ist, kämen auch US-Konzerne nicht so einfach an den hiesigen Regeln vorbei.

Dass die Kommission also davon spricht, dass es um Vertrauen in und Akzeptanz für die neue Technologie geht, die etwa selbstfahrende Autos ermöglichen soll, ist viel zu vorsichtig gedacht. Das Gegenteil ist richtig: Die Akzeptanz wäre wohl viel höher, wenn die Menschen wüssten, dass in der EU keine Waffensysteme, die kraft ihres Algorithmus Menschen töten können, entwickelt oder verkauft werden dürften. Wenn klar gesetzlich festgelegt wäre, dass informiert werden muss, und zwar bevor eine KI die Entscheidung über eine Bewerbung oder Kreditwürdigkeit trifft.

Weiche Leitlinien statt harter Regeln sind allein im Interesse der Industrie, die in der EU-Expertengruppe auch kräftig mitmischen darf. Deren zweites Interesse: Wenn Regeln, dann möglichst spät. Dann sind die Produkte schon auf dem Markt, dann kann man mit Umsatzzahlen argumentieren, vor Jobverlusten warnen und mit Abwanderung drohen.

Die Chance, all das zu verhindern und einen verbindlichen gesetzlichen Rahmen zu schaffen, wäre: genau jetzt.

taz lesen kann jede:r

Als Genossenschaft gehören wir unseren Leser:innen. Und unser Journalismus ist nicht nur 100 % konzernfrei, sondern auch kostenfrei zugänglich. Texte, die es nicht allen recht machen und Stimmen, die man woanders nicht hört – immer aus Überzeugung und hier auf taz.de ohne Paywall. Unsere Leser:innen müssen nichts bezahlen, wissen aber, dass guter, kritischer Journalismus nicht aus dem Nichts entsteht. Dafür sind wir sehr dankbar. Damit wir auch morgen noch unseren Journalismus machen können, brauchen wir mehr Unterstützung. Unser nächstes Ziel: 40.000 – und mit Ihrer Beteiligung können wir es schaffen. Setzen Sie ein Zeichen für die taz und für die Zukunft unseres Journalismus. Mit nur 5,- Euro sind Sie dabei! Jetzt unterstützen

Redakteurin für Wirtschaft und Umwelt
schreibt über vernetzte Welten, digitale Wirtschaft und lange Wörter (Datenschutz-Grundverordnung, Plattformökonomie, Nutzungsbedingungen). Manchmal und wenn es die Saison zulässt, auch über alte Apfelsorten. Bevor sie zur taz kam, hat sie unter anderem für den MDR als Multimedia-Redakteurin gearbeitet. Autorin der Kolumne Digitalozän.
Mehr zum Thema

4 Kommentare

 / 
  • Wer im Bereich FuE mit Digitalisierung und KI zu tun hat weiß, welche Mengen heißer Luft im Spiel sind. Klar gibt es im Sammelpool der Ahnungslosen keine Richtlinien...

  • Die Frage nach der ethischen Vertretbarkeit einer militärischen Nutzbarmachung von KI ist letztlich kongruent zu der nach etwa der Phosphorchemie oder der Nukleartechnik und entsprechend wird wohl auch die Beantwortung kongruent ausfallen. Zumal Algorithmen eben i.A. nicht per se zivil oder militärisch, sondern typischerweise dual-use Güter sind. Etwa indem man eine KI die für die harmlose Klassifizierung von cat-content entwickelt wurde für die Erkennung feindlicher Panzer und Uniformen trainiert. Die entsprechenden Algorithmen und Frameworks sind längst veröffentlicht und wer Kampfroboter bauen will wird das tun. Die Frage nach der Beteiligung europäischer Firmen wäre weniger KI-spezifisch zu stellen sondern allgemein im Kontext von Rüstungsindustrie und -exporten.



    Positiv ist immerhin zu sehen, dass der gegenwärtige Hype um KI und "Digitalisierung" das tatsächliche Potential der angeblich neuen Technologien maßlos überschätzt und man in ein paar Jahren feststellen wird, dass es zwar ein paar recht beachtliche Durchbrüche und Fortschritte etwa mit den CNNs gegeben hat, die angekündigte technologische Revolution dann aber doch ausgeblieben ist.

    • @Ingo Bernable:

      Ein schöner Beitrag in allen Teilen.

    • @Ingo Bernable:

      Wieder mal ein Beitrag, bei dem mir der "Like"-Button fehlt!