Lernende Maschinen: Entscheiden muss der Mensch
Noch kratzen Forscher:innen bei der Künstlichen Intelligenz an der Oberfläche. Vieles ist bisher nur Wunsch und Utopie.
Elon Musk ist nicht nur ein geschäftstüchtiger Pionier in der Autoindustrie. Er hat auch Visionen im Bereich der Künstlichen Intelligenz (KI). 2016 gründete er das Neurotechnologie-Unternehmen Neuralink mit dem Ziel, die Vernetzung von menschlichem Gehirn und Computer entscheidend voranzutreiben. Das Unternehmen wirbt mit Neuroprothesen, die es ermöglichen sollen, mittels im Gehirn implantierter Elektroden etwa Symptome der Parkinson- oder Alzheimer-Krankheit zu lindern. Am Ende jedoch steht Musks Idee einer posthumanistischen Verschmelzung von Mensch und Maschine.
Nicht alles, was sich selbst ernannte Utopisten ausdenken, ist derzeit auch schon machbar. Deepart, eine Plattform für kreative Bildintelligenz, oder die selbst trainierende Spieleplattform AlphaZero, mit der man beim Go-Spiel inzwischen als Verlierer hervorgehen kann, weisen zwar in eine spielerisch-leichtsinnige Zukunft, aber noch, sagt der Tübinger Spezialist für Adaptive Intelligenz, Matthias Bethge, funktioniere das maschinelle Lernen weitgehend nach dem Prinzip Input-Output. Bisher seien Maschinen nicht in der Lage, eigenständig Modelle zu bilden, also eben das, was wissensbasierte Intelligenz ausmacht.
Doch schon der Begriff Intelligenz wirft eine Menge Fragen auf, wie Ende Februar eine Anhörung des Deutschen Ethikrats zum Thema „Künstliche Intelligenz und Mensch-Maschinen-Schnittstelle“ erkundete. Bethge umschreibt sie als Fähigkeit, erfahrungsgesättigt mit Situationen umzugehen, die sich von anderen unterscheiden und daraus Generalisierungen abzuleiten.
So gesehen ist eine intelligente Maschine zwar in der Lage, Muster zu erkennen und neu zu komponieren, jedoch ohne tieferes Verständnis dessen, was sie hervorbringt. Kreativität und Empathie, aber auch „divergentes“, querständiges Denken als exklusiver „Überschuss“ menschlicher Intelligenz sind die immer wieder umkreisten abgrenzenden Begriffe.
Die in Tübingen lehrende Informatikerin Ulrike von Luxburg spricht deshalb vorläufig auch lieber nur von Maschinellem Lernen als von KI und bricht das Vorhaben auf eine Bastelwerkstatt herunter: große Datenmengen plus Optimierung und Statistik, „nichts Mysteriöses, jeder kann es, der mal Informatik studiert hat“.
Abgreifen der Gehirnaktivitäten
Erholsames Understatement war überhaupt ein Grundzug dieser ausgesprochen selbstreflexiven und kritischen Expert:innenrunde. Die Bremer Informatikerin Tanja Schultz etwa, die auf dem Feld akustischer Signale arbeitet, führte sehr anschaulich in die aktuellen Entwicklungen kognitiver Systeme ein. Mittlerweile demonstrieren uns die Amazon-Spracherkennungs-App Alexa oder das Apple-Pendant Siri im täglichen Alltag, wie mühelos Maschinen durch integrierte, teilweise schon unter die Haut implantierbare Kleinstmikrofone Sprache erkennen und verarbeiten. Überraschend und auch verstörend ist jedoch die sich abzeichnende Möglichkeit, durch die Abbildung von Gehirnaktivitäten „lautlose“, also im Gehirn gebildete Sprache zu „übersetzen“. „Wir können dem Gehirn beim Sprechen zuschauen“, so Tanja Schultz. Wie lange sind dann die Gedanken noch frei?
In faszinierenden Gehirnwindungen ist auch der Magdeburger Neurowissenschaftler Stefan Remy unterwegs. Der Flaschenhals der Hirnforschung seien heutzutage nicht mehr die Daten, sondern das Aufspüren und die Identifizierung von verborgenen Datenstrukturen im Gehirn, die uns das Denken ermöglichen und unser Gedächtnis ordnen. „Wir kratzen dabei noch ganz an der Oberfläche“, erklärt er demütig und setzt sich explizit von den Human Enhancement-Projekten eines Elon Musk ab.
Remy sieht die Gefahr, dass die möglichen medizinischen Einsatzmöglichkeiten des Computer Brain Interface technologische Entwicklungen rechtfertigen, die nur einer Nutzerschicht zugute kämen. Jede Intervention in die Plastizität des Gehirns berge jedoch die Gefahr nicht auslotbarer Veränderungen.
Das medizinische Potenzial dieser Forschung ist andererseits elektrisierend, wie die diesbezüglichen Nachfragen des Altersforschers und Ethikrats Andreas Kruse zeigten. Könnte man mittels derartiger Interventionen nicht Ordnung in die Gedächtniswelt von Alzheimer-Patienten bringen oder durch Tiefenstimulation bewegungsgestörten Menschen helfen? Die Anwendungsgebiete sind vielfältig und könnten das Leben von Betroffenen, Angehörigen und Pfleger:innen erleichtern, etwa, wenn dadurch eine bessere Kommunikation möglich werden kann. Doch was, wenn intelligente Maschinen Entscheidungen übernehmen, etwa ob ein Straffälliger aus der Haft entlassen oder ein Kredit vergeben wird? Können sie moralisch entscheiden?
Die Philosophin Janina Loh hat in ihrem Buch „Roboterethik“ nachdrücklich auf die Herausforderungen beim Bau von Robotern aufmerksam gemacht und die Vorgängigkeit der menschlichen Bewertungen und auf Vorurteile, die in die Systeme eingehen, hingewiesen.
Die Bias, also die kognitiven Verzerrungen von KI-Systemen, bringt auch Luxburg in Anschlag. „KI ist nicht neutral, und es gibt keine technischen Lösungen, die die Biases korrigieren könnten.“ Neben der Fairness, etwa bei den oben genannten Vorentscheidungen, stellt sich für Luxburg auch das Problem der Erklärbarkeit, denn beim Maschinellen Lernen handle es sich um eine Black Box.
Wer ist verantwortlich?
Loh erklärt das am Beispiel des autonomen Fahrens: Warum sollte ein System sich nicht dafür entscheiden können, gegen eine Wand zu fahren? Im menschlichen Kontext nennt man das Probehandeln, mit der immer inhärenten Möglichkeit, Fehler zu machen. Aber wie ist das bei einer lernfähigen Maschine? Ist sie verantwortlich für das, was sie tut?
Keinen Zweifel lassen die Befragten aber daran, dass nicht die Künstliche Intelligenz, sondern der Mensch der Schlüssel für die künftige Entwicklungen ist. „Wie wollen wir den Weg weiter gestalten, wenn Facebook und Google die Entwicklung weiter in der Hand hat?“, gibt Schultz zu bedenken und konstatiert: „Wir haben schon viel Boden verloren.“
Luxburg findet es dabei weniger wichtig, „wie die Ethik in die KI kommt“, sondern dass wir für ausreichend Transparenz und angemessene Regulierungen sorgen. Wenn sie an autonome Waffen, Überwachung oder Polizeiarbeit denke, so ihr Auftakt, drehe sich ihr persönlich der Magen um.
Und Bethge wiederholt mehrmals seine Hoffnung, dass sich nicht der Mensch an die Maschine anzupassen habe, sondern diese umgekehrt an Natur, Umwelt und Mensch. Die Welt, die wir erfinden wollen, müsse auch in Afrika Bestand haben. Der Kontinent sei mittels KI-Technologien in einen Zustand zu versetzen, der die Menschen ermutige, dort zu bleiben.
Im Silicon Valley, wo Elon Musk und die vielen anderen Brain-Visionäre unterwegs sind, geht es allerdings um ein ganz anderes Projekt, die Optimierung und perspektivisch unendliche Ausweitung der Lebenszeit der Privilegierten, und um die Kontrolle all der anderen, die mittels Künstlicher Intelligenz besser arbeiten und mehr konsumieren sollen.
taz lesen kann jede:r
Als Genossenschaft gehören wir unseren Leser:innen. Und unser Journalismus ist nicht nur 100 % konzernfrei, sondern auch kostenfrei zugänglich. Texte, die es nicht allen recht machen und Stimmen, die man woanders nicht hört – immer aus Überzeugung und hier auf taz.de ohne Paywall. Unsere Leser:innen müssen nichts bezahlen, wissen aber, dass guter, kritischer Journalismus nicht aus dem Nichts entsteht. Dafür sind wir sehr dankbar. Damit wir auch morgen noch unseren Journalismus machen können, brauchen wir mehr Unterstützung. Unser nächstes Ziel: 40.000 – und mit Ihrer Beteiligung können wir es schaffen. Setzen Sie ein Zeichen für die taz und für die Zukunft unseres Journalismus. Mit nur 5,- Euro sind Sie dabei! Jetzt unterstützen
meistkommentiert
Erfolg gegen Eigenbedarfskündigungen
Gericht ebnet neue Wege für Mieter, sich zu wehren
Stockender Absatz von E-Autos
Woran liegt es?
Grünes Wahlprogramm 2025
Wirtschaft vor Klima
Tod des Fahrradaktivisten Natenom
Öffentliche Verhandlung vor Gericht entfällt
Parteiprogramme für die Bundestagswahl
Die Groko ist noch nicht gesetzt
Foltergefängnisse in Syrien
Den Kerker im Kopf