Debatte um Künstliche Intelligenz: KI für alle

Regulierungen müssen sicherstellen, dass vom KI-Einsatz nicht nur ein paar Unternehmen profitieren, sondern die ganze Gesellschaft.

Zeichnung von einem Menschen, dessen Kopf mit dem eines Roboters netzartig verbunden ist

Gut vernetzt – Mensch mit Maschine Illustration: Katja Gendikova

Dubai führt ein System zur Gesichtserkennung im öffentlichen Nahverkehr ein. In Japan hilft Roboterhund Aibo Menschen durch die Einsamkeit der Coronazeit. Deutschland und Frankreich veröffentlichen eine gemeinsame Förderrichtlinie zur ­Erforschung von Vorhaben im Bereich Künstlicher Intelligenz.

Drei Meldungen aus der aktuellen Woche. Aus der Woche, in der die Enquetekommission Künstliche Intelligenz des Bundestages das letzte Mal tagte und am Mittwoch schließlich ihren Abschlussbericht an Bundestagspräsident Wolfgang Schäuble (CDU) übergab. Drei Meldungen, die ganz exemplarisch skizzieren, wie die Welt bezüglich der Künstlichen Intelligenz (KI) aussieht: In den Industrieländern ist sie längst im Einsatz. In einigen im Alltag präsenter, mit Roboterhunden, mit digitalen Barkeeper:innen oder einem weitgehend von Robotern betriebenen Hotel, wie in einem japanischen Vergnügungspark. Doch auch in Deutschland verwenden Nutzer:innen KI im Alltag. Sie steckt etwa in Sprachassistenten wie Siri oder Alexa. Sie ermöglicht die Bild­erkennung in Onlinenetzwerken und das automatische Optimieren von Fotos in Smartphones. Sie findet sich in Einparkhilfen von Autos, in der Überwachung von Passant:innen, wie bei einem Projekt am Berliner Fernbahnhof Südkreuz, und in medizinischen Diagnosehilfen.

Dass KI-Anwendungen mittlerweile in der Praxis angekommen sind, haben auch die Mitglieder der jeweils zur Hälfte mit Bundestagsabgeordneten und mit externen Expert:innen besetzten Enquetekommission mitbekommen. Was allerdings fehlt: Konsequenzen. Allen voran sperrte sich die Union gegen klare Empfehlungen zur Regulierung von KI-Anwendungen. Dass solche in naher Zukunft auf anderem Weg Eingang in den parlamentarischen Prozess finden werden, ist eher unwahrscheinlich. Eine Fehlentscheidung, deren Folgen die Gesellschaft spätestens in einigen Jahren zu spüren bekommen wird.

Denn auch wenn KI-Anwendungen längst im Alltag angekommen sind – unumgänglich sind sie nicht, noch nicht. Und das betrifft beide Seiten: Sowohl Verbrau­che­r:in­nen und Bürger:innen als auch Unternehmen oder Behörden, die die Anwendungen nutzen wollen, sind aktuell noch nicht auf ihren Einsatz angewiesen. Medizin, Strafverfolgung, Haushalt – kein System wird hierzulande zusammenbrechen, wenn KI strenger reguliert wird. Und das ist eine Chance. Auch wenn seit mehr als 50 Jahren rund um KI geforscht wird – lange ging es dabei um akademisch und technisch spannende, aber praktisch ziemlich nutzlose Projekte. Doch jetzt befinden wir uns in der Anfangsphase der Marktreife. Und die bietet die Möglichkeit, ein paar Fragen zu stellen, zu diskutieren und im besten Fall als Gesellschaft einen möglichst breit getragenen Ansatz für den Umgang mit KI zu finden, bevor sie unverzichtbar wird.

Zum Beispiel: Was wollen wir überhaupt von KI? Was soll sie leisten? Wo können und sollen wir Grenzen setzen? Wie sieht es aus in Sachen Transparenz? Wer überprüft, ob eine KI das macht, was sie soll? Oder das, was ihr Auftraggeber behauptet? Wer haftet, falls das nicht der Fall ist? Wer haftet überhaupt? Wie lässt sich vermeiden, dass KI diskriminiert? Und wie lässt sich das überprüfen? Wie gehen wir mit dem Datenhunger um, den ein guter Teil der KI-Anwendungen mitbringt? Und dem Energiehunger? Und ist KI überhaupt gleich KI? Wäre es nicht sinnvoll, eine KI, die Waldbrände anhand von Satellitenbildern erkennen soll, anders zu behandeln als eine, die entscheidet, ob Bewerber:innen zum Vorstellungsgespräch eingeladen werden?

Stichwort Haftung. Ein Unternehmen programmiert die KI-Anwendung. Der Autokonzern baut sie in sein selbstfahrendes Auto ein. Das verursacht einen Unfall. Wer zahlt nun? Der Hersteller der Software? Oder der Autohersteller? Oder eine Versicherung? Oder der:die Fahrer:in? Und, noch komplizierter: Wie lässt sich überhaupt herausfinden, ob der Fehler in der KI lag? Ist doch das Wesen dieser Anwendungen mitunter das, was als Black Box bezeichnet wird: Was darin passiert, ist auch für die Entwickler:innen längst nicht immer nachvollziehbar.

Stichwort Diskriminierung. Legendär ist das Beispiel von Seifenspendern, deren Sensoren nur dann die Aufforderung zum Seifenspenden erkannten, wenn eine weiße Person ihre Hand darunter hielt. Noch gravierender wird es, wenn Algorithmen selbstfahrender Autos People of Color schlechter erkennen als weiße Menschen. Oder: Ein selbstlernender Algorithmus bevorzugte bei der Bewerberauswahl männliche Kandidaten – einfach deshalb, weil sich in der Vergangenheit vorwiegend Männer beworben hatten. Anhand dieser Trainingsdaten stufte die Software Männer damit als geeigneter ein. Jüngstes Beispiel: Weil Schü­le­r:innen in der Pandemie ihre Abschlussarbeiten nicht schreiben konnten, errechnete in Großbritannien ein Algorithmus die Schulabschlussnoten. Das Nachsehen hatten eigentlich gute Schüler:innen von Schulen, bei denen die Ergebnisse der gesamten Schule in der Vergangenheit unter dem Durchschnitt lagen. Deren durch den Algorithmus errechnete Noten lagen deutlich unter denen, die ihre Lehrer:innen vorhergesagt hatten. Auf öffentlichen Druck hin stoppte die britische Regierung schließlich das Projekt.

Stichwort Transparenz. Automatisierte Entscheidungsfindung ist ein beliebtes Gebiet von KI-Anwendungen. Ob es um den Tarif einer Autoversicherung geht oder die Risikoeinstufung bei einem Kredit oder darum, vorherzusagen, in welcher Region Wohnungseinbrüche zu erwarten sind. Der aktuelle „Automating Society“-Report, den AlgorithmWatch und die Bertelsmann-Stiftung passenderweise ebenfalls diese Woche veröffentlicht haben, kommt zu dem Ergebnis: Transparent geht es bei der automatischen Entscheidungsfindung selten zu. Schon bei der Einführung gebe es meist keine breite gesellschaftliche Debatte. Symptomatisch dafür ist auch, dass es die Enquetekommission Künstliche Intelligenz mit Transparenz nicht so hatte. Die Vorträge waren zwar öffentlich, die – mutmaßlich weitaus interessanteren – Diskussionen aber nicht. Dabei hätten genau die Anstöße geben können zu einer allgemeinen Auseinandersetzung mit Künstlicher Intelligenz.

Denn aktuell verläuft die gesellschaftliche Debatte in Deutschland analog zur Debatte über Technologie allgemein. Diese ist entweder das große Versprechen und die Lösung für alles. Oder aber eine riesige Bedrohung und mindestens der erste Schritt in Richtung Auslöschung der Menschheit. Die Realität liegt üblicherweise ungefähr in der Mitte. Entscheidend ist daher die Umsetzung. Es spricht überhaupt nichts gegen einen Staubsaugerroboter, der saugend lernt, wie die Wohnung zugeschnitten ist, wo er sinnvollerweise häufiger entlangsaugen sollte, weil dort der Küchentisch steht, und wo es seltener nötig ist. Es spricht aber etwas dagegen, dass derart gewonnene Grundrisse und Kundendaten auf den Servern des Herstellers landen und möglicherweise auch noch bei Drittanbietern.

Die genannten Beispiele sind nur ein kleiner Ausschnitt. Es sind die, die erkannt und publik wurden, und es lässt sich vermuten, dass es dahinter ein nennenswertes Dunkelfeld gibt. Die Konsequenz sollte klar sein: Es braucht Regulierung. Und zwar dringend, klar und europaweit einheitlich. Denn was passiert, wenn diese zu spät kommt, ist aktuell beispielsweise bei der Platt­form­öko­nomie sichtbar und dabei, wie Facebook, Amazon oder Google mit persönlichen Daten umgehen. Sinnvolle Regulierungsvorschläge gibt es eine ganze Reihe: von einem Algorithmen-TÜV bis hin zu öffentlich einsehbaren Registern, in denen die Bürger:innen nachschauen können, welche Unternehmen oder Behörden für welche Zwecke auf algorithmische Entscheidungsfindung setzen und welche Modelle dabei zum Einsatz kommen. so geschaffene Transparenz würde gleichzeitig das Wissen über KI in der Gesellschaft erweitern. Und sie würde neue Anreize für Bürger:innen schaffen, sich mehr damit zu beschäftigen – über das Nutzen einer bunten Oberfläche hinaus.

Die Demokratie schneller machen

Denn ein Gegensatz lässt sich derzeit nicht auflösen: Im digitalen Zeitalter gehen die Entwicklung von ­Geschäftsmodellen, neu­en Technologien und der Aufbau riesiger Datensammlungen schnell. Die Demokratie ist aber immer noch so langsam wie in Zeiten, als Faxe als modern und Videotext als fortschrittliche Art, sich zu informieren, galten. Die Demokratie schneller zu machen, wäre sicher häufig wünschenswert, aber keine flächendeckende Lösung. Was daher schneller sein muss: das Denken in der Demokratie. Und hier sind wir wieder bei der Künstlichen Intelligenz: Regulierung zu einem späteren Zeitpunkt zurückzunehmen oder abzuschwächen ist viel einfacher, als sie zu verstärken. Denn dann schreit die Lobby der Unternehmen, die schon Geschäftsmodelle auf der problematischen Basis aufgebaut haben.

Vermutlich wünschen sich Teile der Regierungskoalition, allen voran der Union, insgeheim ein Silicon Valley in Deutschland. Dass das Facebook des KI-Zeitalters aus Dresden kommt statt aus Menlo Park. Und scheuen daher Regulierung. Aber der kapitalismuszentrierte KI-Ansatz mit milliardenschweren Risikoinvestoren ist schon an die USA vergeben. Und der staatliche Ansatz der digitalen Totalüberwachung an China.

Dass die EU und Deutschland nur mit einem eigenen, menschenfreundlichen Ansatz punkten können, hat sich auch schon bis zur Enquetekommission rumgesprochen. Doch es reicht nicht, ihn zu proklamieren. Man muss ihn auch ausgestalten. Dabei sollte Technik immer so realisiert sein, dass nicht nur bestimmte Gruppen – Wohlhabende, technisch Versierte oder anderweitig Privilegierte – von ihr profitieren. Sondern die gesamte Gesellschaft. Das mitzudenken ist die Basis, um das Zeitalter der Künstlichen Intelligenz auf ethische, ökologische, soziale Weise zu realisieren.

Einmal zahlen
.

Fehler auf taz.de entdeckt?

Wir freuen uns über eine Mail an fehlerhinweis@taz.de!

Inhaltliches Feedback?

Gerne als Leser*innenkommentar unter dem Text auf taz.de oder über das Kontaktformular.

Wir würden Ihnen hier gerne einen externen Inhalt zeigen. Sie entscheiden, ob sie dieses Element auch sehen wollen.

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.

Ihre inhaltlichen Schwerpunkte sind Themen aus dem Bereich Netzökonomie und Verbraucherschutz. Zuvor hat sie unter anderem für den MDR als Multimedia-Redakteurin gearbeitet.

Bitte registrieren Sie sich und halten Sie sich an unsere Netiquette.

Haben Sie Probleme beim Kommentieren oder Registrieren?

Dann mailen Sie uns bitte an kommune@taz.de

Ihren Kommentar hier eingeben