Künstliche Intelligenz: KI außer Kontrolle
Enquetekommission streitet über die Regulierung selbstlernender Maschinen: Braucht man eine Behörde oder nur mehr Transparenz?
Künstliche Intelligenz ist ein Versprechen – und eine Bedrohung. Soziale Netzwerke ermöglichen es, schnell mit vielen Leuten in Kontakt zu treten. Aber wer bestimmt, welche Nachrichten die Adressat:innen zuerst sehen? Diese Auswahl treffen meist Algorithmen – Rechenformeln – in Computerprogrammen.
Einerseits gewinnen die Nutzer:innen Autonomie, andererseits sind sie aber auch ferngesteuert. Die zunehmend mächtigen Maschinen lenken die Wahrnehmung der Individuen, der Öffentlichkeit, der Gesellschaft. Ist es also nötig, die Betreiber der Netzwerke und ihre Programme demokratisch zu kontrollieren?
Mit diesen und verwandten Fragen beschäftigte sich während der vergangenen zwei Jahre die Enquetekommission „Künstliche Intelligenz“ des Bundestages. Am Montag tagt sie zum letzten Mal, am Mittwoch übergibt sie ihren Bericht an Bundestagspräsident Wolfgang Schäuble. Das bislang nicht veröffentlichte Gesamtdokument, das der taz vorliegt, und die ergänzenden Stellungnahmen aller Fraktionen offenbaren teilweise große Einschätzungsunterschiede.
Grundsätzlich muss man sich darauf einstellen, dass die Denkleistung von Rechnern und Maschinen zunimmt, sie mehr und mehr menschliche Tätigkeiten bewältigen und dabei auch selbst neue Problemlösungen entwickeln. Produktionsanlagen in Fabriken können sich wohl bald eigenständig reparieren, indem sie rechtzeitig Verschleißteile ordern und selbst einbauen.
Die Mehrheit der Kommission ist gegen starke Regulierung
Fahrerlose Vehikel wählen die Routen aus, auf denen sie die Passagiere zum Ziel bringen, und intelligente Medizinsysteme nehmen den Ärzt:innen einen Teil der Behandlungen ab. Schon heute beeinflussen Plattformen im Internet das Informations- und Einkaufsverhalten der Nutzer:innen erheblich, indem sie ihnen individualisierte Konsumvorschläge machen.
Verantwortlich dafür sind sogenannte ADM-Systeme, die eigenständig Entscheidungen treffen („algorithmic decision making“). Darüber, wie mit diesen umgegangen werden soll, konnten die Mitglieder der Kommission keine Einigkeit erzielen.
„Diese Systeme werden von Einzelpersonen in privaten Unternehmen mit Blick auf Gewinnmaximierung entwickelt und unterstehen kaum einer institutionalisierten, unabhängigen Kontrolle im öffentlichen Interesse“, schreiben die Grünen in ihrem Sondervotum. „Eine solche Kontrolle ist aber dringend zu empfehlen“, sagt Tabea Rößner als grünes Kommissionsmitglied. Sie spricht sich für „verpflichtende Register und Audits von ADM-Systemen“ aus.
Im Bericht der KI-Kommission spielt das Thema der Regulierung allerdings keine große Rolle. Grund: Die Kommissionsmehrheit, unter anderem die Union, trat auf die Bremse. „Einem pauschalen Algorithmen-TÜV stehen wir skeptisch gegenüber“, betont Ronja Kemmer (CDU). Social-Media-Plattformen sollen zwar unter bestimmten Bedingungen „Schnittstellen öffnen“ und Einblick gewähren, „eine neue Behörde braucht es dafür aber nicht“, so Kemmer.
Dagegen unterstützt der Bundesverband der Verbraucherzentralen die Position der Grünen: „Ein ausgewogener Regulierungsrahmen ist nötig, um die Akzeptanz von künstlicher Intelligenz zu stärken.“
Ein deutsches Silicon Valley?
Noch in diesem Jahr will EU-Kommissarin Margrethe Vestager eine Richtlinie vorlegen, die das Problem aufgreift. So könnte mit der Zeit eine öffentliche Instanz zur Kontrolle der Algorithmen entstehen – ähnlich einer Atomaufsicht oder einem Kartellamt. Ob das eine europäische Digitalagentur oder ein Netzwerk nationaler Behörden sein wird, ist offen.
Florian Butollo, Soziologe
Ebenso wenig einigen konnten sich die Parteien bei der Einstufung von Systemen der künstlichen Intelligenz. „Die Definition von Risikoklassen dient dazu, unterschiedliche Techniken im Hinblick auf potenzielle Gefahren zu klassifizieren, die eventuell von ihnen ausgehen“, erklärt Soziologe Florian Butollo, Sachverständiger der Linken in der Kommission.
Das wäre eine Basis, „Entwicklungen mit riskanten Auswirkungen auf die Gesellschaft zu verhindern oder zu regulieren“. Als Beispiel nennt Butollo Algorithmen, die Emotionen in Gesichtern erkennen. „Eine Einteilung in Risikoklassen halten wir generell für sinnvoll“, sagt auch Grünen-Kommissionsmitglied Anna Christmann. Während die Opposition die Risikobewertung teilweise verpflichtend machen will, reicht der Kommissionsmehrheit eine Sollregelung.
„Die Mehrheit wünscht sich quasi ein zweites Silicon Valley, damit Deutschland global konkurrenzfähige KI-Systeme entwickelt und auf den Markt bringt“, so Linke-Experte Butollo. „Uns geht es dagegen darum, künstliche Intelligenz so einzusetzen, dass sie dem Gemeinwohl und der sozialökologischen Transformation dient.“
taz lesen kann jede:r
Als Genossenschaft gehören wir unseren Leser:innen. Und unser Journalismus ist nicht nur 100 % konzernfrei, sondern auch kostenfrei zugänglich. Texte, die es nicht allen recht machen und Stimmen, die man woanders nicht hört – immer aus Überzeugung und hier auf taz.de ohne Paywall. Unsere Leser:innen müssen nichts bezahlen, wissen aber, dass guter, kritischer Journalismus nicht aus dem Nichts entsteht. Dafür sind wir sehr dankbar. Damit wir auch morgen noch unseren Journalismus machen können, brauchen wir mehr Unterstützung. Unser nächstes Ziel: 40.000 – und mit Ihrer Beteiligung können wir es schaffen. Setzen Sie ein Zeichen für die taz und für die Zukunft unseres Journalismus. Mit nur 5,- Euro sind Sie dabei! Jetzt unterstützen
meistkommentiert
Anschlag in Magdeburg
Bis Freitag war er einer von uns
Elon Musk und die AfD
Die Welt zerstören und dann ab auf den Mars
Magdeburg nach dem Anschlag
Atempause und stilles Gedenken
EU-Gipfel zur Ukraine-Frage
Am Horizont droht Trump – und die EU ist leider planlos
Biden hebt 37 Todesurteile auf
In Haftstrafen umgewandelt
Anschlag von Magdeburg
Aus günstigem Anlass