Lernende Maschinen: Entscheiden muss der Mensch

Noch kratzen For­sche­r:in­nen bei der Künstlichen Intelligenz an der Oberfläche. Vieles ist bisher nur Wunsch und Utopie.

Ein Roboter in einem Seniorenheim

Erste Anwendungen aus der Welt des Maschinellen Lernens sind bereits im Alltag zu finden Foto: Murat Tueremis

Elon Musk ist nicht nur ein geschäftstüchtiger Pionier in der Auto­industrie. Er hat auch Visionen im Bereich der Künstlichen Intelligenz (KI). 2016 gründete er das Neu­ro­tech­no­lo­gie-Un­ter­neh­men Neuralink mit dem Ziel, die Vernetzung von menschlichem Gehirn und Computer entscheidend voranzutreiben. Das Unternehmen wirbt mit Neuroprothesen, die es ermöglichen sollen, mittels im Gehirn implantierter Elektroden etwa Symptome der Parkinson- oder Alzheimer-Krankheit zu lindern. Am Ende jedoch steht Musks Idee einer posthumanistischen Verschmelzung von Mensch und Maschine.

Nicht alles, was sich selbst ernannte Utopisten ausdenken, ist derzeit auch schon machbar. Deepart, eine Plattform für kreative Bildintelligenz, oder die selbst trainierende Spieleplattform AlphaZero, mit der man beim Go-Spiel inzwischen als Verlierer hervorgehen kann, weisen zwar in eine spielerisch-leichtsinnige Zukunft, aber noch, sagt der Tübinger Spezialist für Adaptive Intelligenz, Matthias Bethge, funktioniere das maschinelle Lernen weitgehend nach dem Prinzip Input-Output. Bisher seien Maschinen nicht in der Lage, eigenständig Modelle zu bilden, also eben das, was wissensbasierte Intelligenz ausmacht.

Doch schon der Begriff Intelligenz wirft eine Menge Fragen auf, wie Ende Februar eine Anhörung des Deutschen Ethikrats zum Thema „Künstliche Intelligenz und Mensch-Maschinen-Schnittstelle“ erkundete. Bethge umschreibt sie als Fähigkeit, erfahrungsgesättigt mit Situationen umzugehen, die sich von anderen unterscheiden und daraus Generalisierungen abzuleiten.

So gesehen ist eine intelligente Maschine zwar in der Lage, Muster zu erkennen und neu zu komponieren, jedoch ohne tieferes Verständnis dessen, was sie hervorbringt. Krea­ti­vi­tät und Empathie, aber auch „divergentes“, querständiges Denken als exklusiver „Überschuss“ menschlicher Intelligenz sind die immer wieder umkreisten abgrenzenden Begriffe.

Die in Tübingen lehrende Informatikerin Ulrike von Luxburg spricht deshalb vorläufig auch lieber nur von Maschinellem Lernen als von KI und bricht das Vorhaben auf eine Bastelwerkstatt herunter: große Datenmengen plus Optimierung und Statistik, „nichts Mysteriöses, jeder kann es, der mal Informatik studiert hat“.

Abgreifen der Gehirnaktivitäten

Erholsames Understatement war überhaupt ein Grundzug dieser ausgesprochen selbstreflexiven und kritischen Expert:innenrunde. Die Bremer Informatikerin Tanja Schultz etwa, die auf dem Feld akustischer Signale arbeitet, führte sehr anschaulich in die aktuellen Entwicklungen kognitiver Systeme ein. Mittlerweile demonstrieren uns die Amazon-Spracherkennungs-App Alexa oder das Apple-Pendant Siri im täglichen Alltag, wie mühelos Maschinen durch integrierte, teilweise schon unter die Haut implantierbare Kleinstmikrofone Sprache erkennen und verarbeiten. Überraschend und auch verstörend ist jedoch die sich abzeichnende Möglichkeit, durch die Abbildung von Gehirnaktivitäten „lautlose“, also im Gehirn gebildete Sprache zu „übersetzen“. „Wir können dem Gehirn beim Sprechen zuschauen“, so Tanja Schultz. Wie lange sind dann die Gedanken noch frei?

In faszinierenden Gehirnwindungen ist auch der Magdeburger Neurowissenschaftler Stefan Remy unterwegs. Der Flaschenhals der Hirnforschung seien heutzutage nicht mehr die Daten, sondern das Aufspüren und die Identifizierung von verborgenen Datenstrukturen im Gehirn, die uns das Denken ermöglichen und unser Gedächtnis ordnen. „Wir kratzen dabei noch ganz an der Oberfläche“, erklärt er demütig und setzt sich explizit von den Human Enhancement-Projekten eines Elon Musk ab.

Remy sieht die Gefahr, dass die möglichen medizinischen Einsatzmöglichkeiten des Computer Brain Interface technologische Entwicklungen rechtfertigen, die nur einer Nutzerschicht zugute kämen. Jede Intervention in die Plastizität des Gehirns berge jedoch die Gefahr nicht auslotbarer Veränderungen.

Das medizinische Potenzial dieser Forschung ist andererseits elektrisierend, wie die diesbezüglichen Nachfragen des Altersforschers und Ethik­rats Andreas Kruse zeigten. Könnte man mittels derartiger Interventionen nicht Ordnung in die Gedächtniswelt von Alzheimer-Patienten bringen oder durch Tiefen­stimulation bewegungsgestörten Menschen helfen? Die Anwendungsgebiete sind vielfältig und könnten das Leben von Betroffenen, Angehörigen und Pfle­ge­r:innen erleichtern, etwa, wenn dadurch eine bessere Kommunikation möglich werden kann. Doch was, wenn intelligente Maschinen Entscheidungen übernehmen, etwa ob ein Straffälliger aus der Haft entlassen oder ein Kredit vergeben wird? Können sie moralisch entscheiden?

Die Philosophin Janina Loh hat in ihrem Buch „Roboterethik“ nachdrücklich auf die Herausforderungen beim Bau von Robotern aufmerksam gemacht und die Vorgängigkeit der menschlichen Bewertungen und auf Vorurteile, die in die Systeme eingehen, hingewiesen.

Die Bias, also die kognitiven Verzerrungen von KI-Systemen, bringt auch Luxburg in Anschlag. „KI ist nicht neutral, und es gibt keine technischen Lösungen, die die Biases korrigieren könnten.“ Neben der Fairness, etwa bei den oben genannten Vorentscheidungen, stellt sich für Luxburg auch das Problem der Erklärbarkeit, denn beim Maschinellen Lernen handle es sich um eine Black Box.

Wer ist verantwortlich?

Loh erklärt das am Beispiel des autonomen Fahrens: Warum sollte ein System sich nicht dafür entscheiden können, gegen eine Wand zu fahren? Im menschlichen Kontext nennt man das Probehandeln, mit der immer inhärenten Möglichkeit, Fehler zu machen. Aber wie ist das bei einer lernfähigen Maschine? Ist sie verantwortlich für das, was sie tut?

Keinen Zweifel lassen die Befragten aber daran, dass nicht die Künstliche Intelligenz, sondern der Mensch der Schlüssel für die künftige Entwicklungen ist. „Wie wollen wir den Weg weiter gestalten, wenn Facebook und Google die Entwicklung weiter in der Hand hat?“, gibt Schultz zu bedenken und konstatiert: „Wir haben schon viel Boden verloren.“

Luxburg findet es dabei weniger wichtig, „wie die Ethik in die KI kommt“, sondern dass wir für ausreichend Transparenz und angemessene Regulierungen sorgen. Wenn sie an autonome Waffen, Überwachung oder Polizeiarbeit denke, so ihr Auftakt, drehe sich ihr persönlich der Magen um.

Und Bethge wiederholt mehrmals seine Hoffnung, dass sich nicht der Mensch an die Maschine anzupassen habe, sondern diese umgekehrt an Natur, Umwelt und Mensch. Die Welt, die wir erfinden wollen, müsse auch in Afrika Bestand haben. Der Kontinent sei mittels KI-Technologien in einen Zustand zu versetzen, der die Menschen ermutige, dort zu bleiben.

Im Silicon Valley, wo Elon Musk und die vielen anderen Brain-Vi­sio­nä­re unterwegs sind, geht es allerdings um ein ganz anderes Projekt, die Optimierung und perspektivisch unendliche Ausweitung der Lebenszeit der Privilegierten, und um die Kontrolle all der anderen, die mittels Künstlicher Intelligenz besser arbeiten und mehr konsumieren sollen.

Einmal zahlen
.

Fehler auf taz.de entdeckt?

Wir freuen uns über eine Mail an fehlerhinweis@taz.de!

Inhaltliches Feedback?

Gerne als Leser*innenkommentar unter dem Text auf taz.de oder über das Kontaktformular.

Bitte registrieren Sie sich und halten Sie sich an unsere Netiquette.

Haben Sie Probleme beim Kommentieren oder Registrieren?

Dann mailen Sie uns bitte an kommune@taz.de