Debatte Künstliche Intelligenz: Wir können noch Frühstück machen
Stelbstfahrende Autos und Pflegeroboter – KIs machen oft Angst. Dem können wir entgegenwirken: mit Regeln und dem Fokus auf menschliche Fähigkeiten.
E s ist nicht leicht in diesen Tagen, künstliche Intelligenz zu mögen. Ein autonom fahrendes Auto des Fahrdienstanbieters Uber tötete vor Kurzem eine Frau in den USA, als sie im Dunkeln eine Straße überquerte. Dass ein Mensch einen Pkw in vielen Situationen nicht kontrollieren kann, das wissen wir. Aber ein digitales Programm? Das sollte doch bitte schön unfehlbar sein.
Ähnliche Schockwellen löste das Online-Netzwerk Facebook aus. Der US-Konzern lässt Daten sammeln und beeinflusst damit offenbar die Entscheidungen der Nutzer*. Wenn uns online Produkte vorgeschlagen oder Dienstleistungen angeboten werden, mag uns das gefallen oder auch ärgern. Aber wir haben immer noch das Gefühl, selbst über Kauf oder Ablehnung entscheiden zu können. Dieses Empfinden wurde durch die Enthüllungen über die Kooperation von Facebook mit der Datenanalysefirma Cambridge Analytica erschüttert. Schließlich geht es um mutmaßliche Manipulationen im US-Wahlkampf und bei der Brexit-Abstimmung.
Auf die Vorfälle folgen verzweifelt wirkende Reaktionen. Tests mit autonom fahrenden Autos wurden in etlichen US-Bundesstaaten verboten. Und die Forderung, den Tech-Giganten Facebook zu zerschlagen, wird auch hierzulande lauter. Der Tenor: Die Macht künstlicher Intelligenz, kurz KI, müsse eingedämmt werden, bevor sie außer Kontrolle gerate. Die Akzeptanz für lernende Systeme, für digitale Programme, die eigenständig Probleme bearbeiten, schwindet.
Die Skepsis ist berechtigt – aber nur teilweise. Beim Einsatz künstlicher Intelligenz geht es in der Regel darum, den wirtschaftlichen Wettbewerb anzufeuern, also um Innovationsfähigkeit, wie es so schön heißt. Es geht schlicht ums Geld. Denn: KI sei die Zukunft, mahnen Wissenschaftler*, Unternehmer*, Politiker*. Ja, das ist sie. Doch nicht, weil die Technologie Jobs schafft und die Kassen der Unternehmen füllt. Sondern weil sie unseren Lebensalltag entscheidend verbessert.
Jede Menge freie Zeit – dank künstlicher Intelligenz
Zum Beispiel, wenn es um unsere Gesundheit geht. Künstliche Intelligenz analysiert und bewertet Röntgenbilder schneller und präziser als jeder Arzt. Komplizierte Operationen übernehmen digitale Programme. Bei der Auswertung medizinischer Daten helfen lernende Systeme den Menschen, die beste Therapie für die Patienten* zu finden. Dass der Robo-Pfleger im Altenheim eingesetzt werden könnte, wirkt einerseits befremdlich. Aber er kann kranke und alte Menschen unermüdlich aus dem Bett hieven, Essen verteilen, Wäsche sortieren, Personalpläne aufstellen, die Pflegedokumentation erledigen und nebenbei Medikamente nachbestellen. Das Pflegepersonal könnte sich dann auf die Dinge konzentrieren, die die KI nicht kann: menschlich sein.
Auch unsere Mobilität und Logistik verbessert das lernende System. Derzeit wird getestet, wie mithilfe einer autonom fahrenden Lkw-Kolonne Waren von einem Ort zum anderen gebracht werden. Tempo und Fahrverhalten sind gleich, es gibt weniger Staus und keine übermüdeten Fahrer* mehr. Auch im öffentlichen Nahverkehr der Zukunft soll KI eine Rolle spielen. Je nach Lebenslage und Ziel denkt das digitale System mit und macht passende Vorschläge. Dank der Technologie wird jede Menge Zeit frei. Zeit, nach der sich so viele Menschen sehnen.
Die Angst muss raus aus der Debatte, nicht aber die Sorglosigkeit. Ganz gleich, wer über künstliche Intelligenz debattiert, Wirtschaft, Politik und Wissenschaft fordern dasselbe: mehr Forschung und mehr Aufklärung. Die künstliche Intelligenz ist nicht unfehlbar. Das haben die Vorfälle der vergangenen Wochen auf eindrückliche Weise gezeigt. Ja, es mangelt an der Sicherheit vieler Anwendungen. Und auch beim Schutz der Daten der Nutzer* nehmen es viele Unternehmen nicht so genau.
Wir brauchen eine Art Kodex, ein gemeinsames Grundverständnis, das Verbraucher* schützt und Dos und Don’ts definiert, wenn künstliche Intelligenz zum Einsatz kommt. Wissen die Nutzer*, dass ein Chatbot ihre Beschwerde aufnimmt? Oder ein lernender Algorithmus ihr Röntgenbild auswertet? Das sollte transparent sein – am besten per Gesetz verordnet. Wenn die Nutzer* wissen, mit wem sie es zu tun haben, handeln sie bewusster. Und: Entscheidungen, die auf der Basis von lernenden Systemen getroffen wurden, sind anfechtbar. Das bedeutet, es zählt ausnahmslos der menschliche Widerspruch.
Bessere Regeln schaffen mehr Vertrauen
Doch wie könnte ein solcher KI-Kodex aussehen und wer soll ihn aufschreiben? Vor wenigen Tagen haben Frankreich und Deutschland gemeinsam den Startschuss für ein Zentrum für künstliche Intelligenz gegeben. Die Beteiligten wollen Forschungsergebnisse austauschen, den Einsatz von KI kontrollieren und die ethisch-moralischen Anforderungen an solche Systeme prüfen. Außerdem ist eine Ethikkommission auf Bundesebene geplant, die sich mit der künstlichen Intelligenz befasst. Das steht sogar im Koalitionsvertrag. Die Politik schafft also Gremien, die sich abseits von wirtschaftlichen Interessen mit der KI auseinandersetzen sollen.
Das alles ist ein Anfang, um die diffuse Furcht zu schmälern, der Technik ausgeliefert zu sein. Regeln schaffen Vertrauen. Die Kernbotschaft: Intelligente Systeme unterstützen die Menschen. Sie bereiten Entscheidungen vor, die dann von Menschen getroffen werden. Aber eben nur in dem Bereich, in dem sie trainiert wurden. Der Mensch ist nach wie vor derjenige, der mehr als eine Fähigkeit hat.
Eine künstliche Intelligenz mag in Sekundenschnelle medizinische Befunde auswerten, ein Roboter kann unermüdlich und präzise komplizierte Bauteile prüfen, Ersatzteile bestellen oder Schach spielen. Der Mensch kann all das auch, zwar nicht so gut wie das Maschinenprogramm. Aber er kann auch noch Frühstück machen, seinen Kindern eine Geschichte erzählen und sich über gutes Wetter freuen. Die künstliche Intelligenz ist eben nur ein Helfer in einer immer komplizierter werdenden Welt.
taz lesen kann jede:r
Als Genossenschaft gehören wir unseren Leser:innen. Und unser Journalismus ist nicht nur 100 % konzernfrei, sondern auch kostenfrei zugänglich. Texte, die es nicht allen recht machen und Stimmen, die man woanders nicht hört – immer aus Überzeugung und hier auf taz.de ohne Paywall. Unsere Leser:innen müssen nichts bezahlen, wissen aber, dass guter, kritischer Journalismus nicht aus dem Nichts entsteht. Dafür sind wir sehr dankbar. Damit wir auch morgen noch unseren Journalismus machen können, brauchen wir mehr Unterstützung. Unser nächstes Ziel: 40.000 – und mit Ihrer Beteiligung können wir es schaffen. Setzen Sie ein Zeichen für die taz und für die Zukunft unseres Journalismus. Mit nur 5,- Euro sind Sie dabei! Jetzt unterstützen
meistkommentiert
Exklusiv: RAF-Verdächtiger Garweg
Meldung aus dem Untergrund
Anschlag in Magdeburg
Auto rast in eine Menschenmenge auf dem Weihnachtsmarkt
Wahlprogramm von CDU und CSU
Der Zeitgeist als Wählerklient
Anschlag auf Magdeburger Weihnachtsmarkt
Bestürzung und erste Details über den Tatverdächtigen
Elon Musk torpediert Haushaltseinigung
Schützt die Demokratien vor den Superreichen!
Streit um Russland in der AfD
Chrupalla hat Ärger wegen Anti-Nato-Aussagen