piwik no script img

Lernende MaschinenEntscheiden muss der Mensch

Noch kratzen For­sche­r:in­nen bei der Künstlichen Intelligenz an der Oberfläche. Vieles ist bisher nur Wunsch und Utopie.

Erste Anwendungen aus der Welt des Maschinellen Lernens sind bereits im Alltag zu finden Foto: Murat Tueremis

Elon Musk ist nicht nur ein geschäftstüchtiger Pionier in der Auto­industrie. Er hat auch Visionen im Bereich der Künstlichen Intelligenz (KI). 2016 gründete er das Neu­ro­tech­no­lo­gie-Un­ter­neh­men Neuralink mit dem Ziel, die Vernetzung von menschlichem Gehirn und Computer entscheidend voranzutreiben. Das Unternehmen wirbt mit Neuroprothesen, die es ermöglichen sollen, mittels im Gehirn implantierter Elektroden etwa Symptome der Parkinson- oder Alzheimer-Krankheit zu lindern. Am Ende jedoch steht Musks Idee einer posthumanistischen Verschmelzung von Mensch und Maschine.

Nicht alles, was sich selbst ernannte Utopisten ausdenken, ist derzeit auch schon machbar. Deepart, eine Plattform für kreative Bildintelligenz, oder die selbst trainierende Spieleplattform AlphaZero, mit der man beim Go-Spiel inzwischen als Verlierer hervorgehen kann, weisen zwar in eine spielerisch-leichtsinnige Zukunft, aber noch, sagt der Tübinger Spezialist für Adaptive Intelligenz, Matthias Bethge, funktioniere das maschinelle Lernen weitgehend nach dem Prinzip Input-Output. Bisher seien Maschinen nicht in der Lage, eigenständig Modelle zu bilden, also eben das, was wissensbasierte Intelligenz ausmacht.

Doch schon der Begriff Intelligenz wirft eine Menge Fragen auf, wie Ende Februar eine Anhörung des Deutschen Ethikrats zum Thema „Künstliche Intelligenz und Mensch-Maschinen-Schnittstelle“ erkundete. Bethge umschreibt sie als Fähigkeit, erfahrungsgesättigt mit Situationen umzugehen, die sich von anderen unterscheiden und daraus Generalisierungen abzuleiten.

So gesehen ist eine intelligente Maschine zwar in der Lage, Muster zu erkennen und neu zu komponieren, jedoch ohne tieferes Verständnis dessen, was sie hervorbringt. Krea­ti­vi­tät und Empathie, aber auch „divergentes“, querständiges Denken als exklusiver „Überschuss“ menschlicher Intelligenz sind die immer wieder umkreisten abgrenzenden Begriffe.

Die in Tübingen lehrende Informatikerin Ulrike von Luxburg spricht deshalb vorläufig auch lieber nur von Maschinellem Lernen als von KI und bricht das Vorhaben auf eine Bastelwerkstatt herunter: große Datenmengen plus Optimierung und Statistik, „nichts Mysteriöses, jeder kann es, der mal Informatik studiert hat“.

Abgreifen der Gehirnaktivitäten

Erholsames Understatement war überhaupt ein Grundzug dieser ausgesprochen selbstreflexiven und kritischen Expert:innenrunde. Die Bremer Informatikerin Tanja Schultz etwa, die auf dem Feld akustischer Signale arbeitet, führte sehr anschaulich in die aktuellen Entwicklungen kognitiver Systeme ein. Mittlerweile demonstrieren uns die Amazon-Spracherkennungs-App Alexa oder das Apple-Pendant Siri im täglichen Alltag, wie mühelos Maschinen durch integrierte, teilweise schon unter die Haut implantierbare Kleinstmikrofone Sprache erkennen und verarbeiten. Überraschend und auch verstörend ist jedoch die sich abzeichnende Möglichkeit, durch die Abbildung von Gehirnaktivitäten „lautlose“, also im Gehirn gebildete Sprache zu „übersetzen“. „Wir können dem Gehirn beim Sprechen zuschauen“, so Tanja Schultz. Wie lange sind dann die Gedanken noch frei?

In faszinierenden Gehirnwindungen ist auch der Magdeburger Neurowissenschaftler Stefan Remy unterwegs. Der Flaschenhals der Hirnforschung seien heutzutage nicht mehr die Daten, sondern das Aufspüren und die Identifizierung von verborgenen Datenstrukturen im Gehirn, die uns das Denken ermöglichen und unser Gedächtnis ordnen. „Wir kratzen dabei noch ganz an der Oberfläche“, erklärt er demütig und setzt sich explizit von den Human Enhancement-Projekten eines Elon Musk ab.

Remy sieht die Gefahr, dass die möglichen medizinischen Einsatzmöglichkeiten des Computer Brain Interface technologische Entwicklungen rechtfertigen, die nur einer Nutzerschicht zugute kämen. Jede Intervention in die Plastizität des Gehirns berge jedoch die Gefahr nicht auslotbarer Veränderungen.

Das medizinische Potenzial dieser Forschung ist andererseits elektrisierend, wie die diesbezüglichen Nachfragen des Altersforschers und Ethik­rats Andreas Kruse zeigten. Könnte man mittels derartiger Interventionen nicht Ordnung in die Gedächtniswelt von Alzheimer-Patienten bringen oder durch Tiefen­stimulation bewegungsgestörten Menschen helfen? Die Anwendungsgebiete sind vielfältig und könnten das Leben von Betroffenen, Angehörigen und Pfle­ge­r:innen erleichtern, etwa, wenn dadurch eine bessere Kommunikation möglich werden kann. Doch was, wenn intelligente Maschinen Entscheidungen übernehmen, etwa ob ein Straffälliger aus der Haft entlassen oder ein Kredit vergeben wird? Können sie moralisch entscheiden?

Die Philosophin Janina Loh hat in ihrem Buch „Roboterethik“ nachdrücklich auf die Herausforderungen beim Bau von Robotern aufmerksam gemacht und die Vorgängigkeit der menschlichen Bewertungen und auf Vorurteile, die in die Systeme eingehen, hingewiesen.

Die Bias, also die kognitiven Verzerrungen von KI-Systemen, bringt auch Luxburg in Anschlag. „KI ist nicht neutral, und es gibt keine technischen Lösungen, die die Biases korrigieren könnten.“ Neben der Fairness, etwa bei den oben genannten Vorentscheidungen, stellt sich für Luxburg auch das Problem der Erklärbarkeit, denn beim Maschinellen Lernen handle es sich um eine Black Box.

Wer ist verantwortlich?

Loh erklärt das am Beispiel des autonomen Fahrens: Warum sollte ein System sich nicht dafür entscheiden können, gegen eine Wand zu fahren? Im menschlichen Kontext nennt man das Probehandeln, mit der immer inhärenten Möglichkeit, Fehler zu machen. Aber wie ist das bei einer lernfähigen Maschine? Ist sie verantwortlich für das, was sie tut?

Keinen Zweifel lassen die Befragten aber daran, dass nicht die Künstliche Intelligenz, sondern der Mensch der Schlüssel für die künftige Entwicklungen ist. „Wie wollen wir den Weg weiter gestalten, wenn Facebook und Google die Entwicklung weiter in der Hand hat?“, gibt Schultz zu bedenken und konstatiert: „Wir haben schon viel Boden verloren.“

Luxburg findet es dabei weniger wichtig, „wie die Ethik in die KI kommt“, sondern dass wir für ausreichend Transparenz und angemessene Regulierungen sorgen. Wenn sie an autonome Waffen, Überwachung oder Polizeiarbeit denke, so ihr Auftakt, drehe sich ihr persönlich der Magen um.

Und Bethge wiederholt mehrmals seine Hoffnung, dass sich nicht der Mensch an die Maschine anzupassen habe, sondern diese umgekehrt an Natur, Umwelt und Mensch. Die Welt, die wir erfinden wollen, müsse auch in Afrika Bestand haben. Der Kontinent sei mittels KI-Technologien in einen Zustand zu versetzen, der die Menschen ermutige, dort zu bleiben.

Im Silicon Valley, wo Elon Musk und die vielen anderen Brain-Vi­sio­nä­re unterwegs sind, geht es allerdings um ein ganz anderes Projekt, die Optimierung und perspektivisch unendliche Ausweitung der Lebenszeit der Privilegierten, und um die Kontrolle all der anderen, die mittels Künstlicher Intelligenz besser arbeiten und mehr konsumieren sollen.

taz lesen kann jede:r

Als Genossenschaft gehören wir unseren Leser:innen. Und unser Journalismus ist nicht nur 100 % konzernfrei, sondern auch kostenfrei zugänglich. Texte, die es nicht allen recht machen und Stimmen, die man woanders nicht hört – immer aus Überzeugung und hier auf taz.de ohne Paywall. Unsere Leser:innen müssen nichts bezahlen, wissen aber, dass guter, kritischer Journalismus nicht aus dem Nichts entsteht. Dafür sind wir sehr dankbar. Damit wir auch morgen noch unseren Journalismus machen können, brauchen wir mehr Unterstützung. Unser nächstes Ziel: 40.000 – und mit Ihrer Beteiligung können wir es schaffen. Setzen Sie ein Zeichen für die taz und für die Zukunft unseres Journalismus. Mit nur 5,- Euro sind Sie dabei! Jetzt unterstützen

Mehr zum Thema

5 Kommentare

 / 
  • "Im Silicon Valley, wo Elon Musk und die vielen anderen Brain-Vi­sio­nä­re unterwegs sind, geht es allerdings um ein ganz anderes Projekt, die Optimierung und perspektivisch unendliche Ausweitung der Lebenszeit der Privilegierten, und um die Kontrolle all der anderen, die mittels Künstlicher Intelligenz besser arbeiten und mehr konsumieren sollen."

    Danke für diesen letzten Satz.

  • 1G
    17900 (Profil gelöscht)

    Eine Einsatzmöglichkeiten für KI sehe ich in der Politik. Vielleicht hört das dann auf, dass so viel Mist gebaut wird.

  • Liggers. In einem schwarzen Raum eine nicht vorhandene 🐈‍⬛ “fangen“!



    Und ab & an rufen: “Ich hab sie!“



    Damit die Forschungsgelder fließen

    kurz - Steinalter Trick & genau deswegen wurde KI erfunden.



    Ergo: What makes them tick & How they made it - 😱 -



    Normal •

    • 2G
      27393 (Profil gelöscht)
      @Lowandorder:

      Die ich rief, die Geister



      werd ich nun nicht los.

      Mensch kann den Stand der Dinge belächeln und als Marketinggeschwätz abtun. Dass ich es mangels Vorbildung nicht begreifen kann, heißt aber nicht, dass es nicht da ist. Für die Jurist:innen in der Politik ist das mal wieder Neuland - doch bis die‘s begriffen haben, ist‘s womöglich zu spät. Und ausgelöffelt werden muss die Suppe schließlich auch bloß von unseren Kindern und Kindeskindern usw.

      Das iPhone hat als (scheinbares!) Gimmick begonnen mit einer Technologie, die vor dreißig Jahren die meisten Menschen wohl nicht für möglich gehalten hätten in so naher Zukunft. Heute bereits ist es die nicht mehr wegzudenkende (noch außerhalb des Körpers befindliche) Schnittstelle des Individuums in die allgegenwärtige Netzwelt. Auf der einen Seite ein äußerst nützliches Ding; auf der anderen aber auch mit Fähigleiten ausgestattet, von der die Stasi nicht zu träumen gewagt hätte; viele davon bis heute unreguliert. In einer Welt, in der ein Unternehmen wie Amazon aus Gründen selbst entscheiden kann, was es an Steuern zu entrichten hat, kann mensch erahnen, was von der Staatsgewalt, die vom Volke ausgeht, noch zu erwarten ist. Was also interessiert den surveillance capitalism letzten Endes ein kleiner Ethikrat, wenn man unvorstellbare Geldmengen, also Einfluss mit dem „Wachstumsmarkt“ der Zukunft, neuen Technologien gewinnen kann. Es müssen nur genügend angenehme Features ersonnen werden, angefangen mit sicher nicht zu verneinendem medizinischen Nutzen; der zieht immer.

      Ja, noch weiß mensch womöglich zu wenig über sich selbst um künstliche Intelligenz, die diesen Namen verdient, zu erschaffen. Aber wenn der Golem eines Tages Atem eingehaucht bekommen hat, ist es vielleicht zu spät. Daher setze ich mich lieber eher als später damit auseinander.

      • @27393 (Profil gelöscht):

        Sorry. Aber Sie halten hoffentlich einen - der genausogut hätte Dipl.Ing (mein Lieblingslehrer math.nat.-Zug zu seinem Lieblingsschüler) & mit Mathe-Physik gestarteten - nicht für einen Maschinenstürmer. Gellewelle?! Danke.



        But. Das eine von Ihnen fulminant aufgeworfene - hat mit “Gibt’s KI?“ allenfalls peripher zu tun.



        Denn. Eine ganz andere Frage aber ist:



        “Es denkt nicht“ - wie es z.B. Rudolf Seising launig zur Geschichte der künstlichen Intelligenz umschreibt.



        & let‘s go -



        Inside KI: Künstliche Intelligenz und Ethik



        Wie lässt sich sicherstellen, dass Künstliche Intelligenz ethischen Prinzipien folgt? Wir sprechen mit Dr. Leon R. Tsvasman über KI und Ethik.



        intelligente-welt....lligenz-und-ethik/



        “ Vom Kantschen Imperativ zu kybernetischen Ethik-Regeln für Künstliche Intelligenz



        Der zu meiner Freude so fortfährt:



        “Dazu möchte ich einen anderen Autor vorstellen: Heinz von Foerster, der unter Kennern als „Sokrates des kybernetischen Denkens“ gelobt wird. Er hat in Anlehnung an Immanuel Kant den ethischen Imperativ für die „Kybernetik zweiter Ordnung“ begründet. Dieser gilt für Menschen, aber auch für alle selbst-regulierenden autonomen Systeme, und lautet sinngemäß: „Handle stets so, dass die Anzahl der Wahlmöglichkeiten größer wird“. Die ethische Handlungsmaxime betont für mich die Eigenverantwortung und Individualität und wertet dabei die Orientierungsfreiheit des Anderen in einer Gemeinschaft auf. Später hat von Foerster noch den ästhetischen Imperativ nachgelegt: „Willst du sehen, so lerne zu handeln“. Das ist wohl evolutionsbiologisch zu verstehen, denn was wir sehen, hat mehr mit unserer Entstehung als mit „Objektivität“ zu tun. Dieser Gedanke bestimmt auch den Titel des Gesprächebands „Wahrheit ist die Erfindung eines Lügners“ von Heinz von Foerster und Bernhard Pörksen aus dem Jahr 2003.…“



        & Däh!



        Der gerade nicht nur zur Erheiterung diesen feinen Satz zitiert - der als Titel einen Aufsatzes in “ Advanced Studies“ ziert.