piwik no script img

Faschismus durch künstliche IntelligenzGesellschaft als Maschine

Essay von Lukas Franke

KI wird zu weniger Arbeitsplätzen führen. Daran müssen wir uns gewöhnen. Aber eine von Maschinen beherrschte Welt wäre entmenschlicht und gefährlich.

Was für ein Menschenbild verbirgt sich hinter dem Glauben an die Allmacht der Maschinen? Foto: Archiv Emanuel Hübner/Visum

D ie Auswirkungen digitaler Technologien und Netzwerke auf Wirtschaft und Gesellschaft werden gerne und häufig mit der industriellen Revolution verglichen, die bekanntlich alle Verhältnisse umgewälzt hat. Das aktuellste Thema in diesem Zusammenhang ist die Debatte um künstliche Intelligenz, der bis hin zur Unterwerfung und gar Auslöschung der Menschheit schier unglaubliche Fähigkeiten zugeschrieben werden.

Tatsächlich sind die Fähigkeiten der Software ChatGPT, die Ende 2022 der Öffentlichkeit zugänglich gemacht wurde, erstaunlich – zumindest für An­wen­de­r:in­nen von mittlerer technischer Affinität. Die meisten bedienen das Programm vermutlich wie eine Art Orakel: Leute fragen gerne nach sich selbst, Jour­na­lis­t:in­nen etwa haben wohl unzählige Male damit experimentiert, sich selbst überflüssig zu machen und die KI irgendwas schrei­ben zu lassen. Ex­per­t:in­nen und Ent­wick­le­r:in­nen warnen derweil vor der Entstehung einer unkontrollierbaren Superintelligenz. Der Ruf nach einem halben Jahr Entwicklungsstopp wurde auch von Irrlichtern wie Elon Musk unterschrieben, ohne dass annähernd klar wäre, was währenddessen und danach geschehen soll.

Worum geht es eigentlich? Künstliche Intelligenz ist an sich schon ein irreführender und von popkulturellen und sonstigen modernen Mythen vernebelter Begriff, der von Technikutopisten bereits in den 1950er Jahren in die Welt gesetzt wurde. Maschinelles Lernen trifft es besser. An sogenannten Chatbots wie GPT ist die Funktionsweise sogenannter lernender Systeme einfacher zu erklären als an ähnlich funktionierenden Programmen, die Autos autonom steuern oder den Papst in Gangster-Rap-Klamotten täuschend echt darstellen können. Es geht um Stochastik. ChatGPT ist eine Statistik-Software, die berechnen kann, mit welcher Wahrscheinlichkeit ein Wort auf das andere folgt und die aufgrund der gigantischen Datenmengen, die ihr im digitalen Kosmos heute zur Verfügung stehen und weil die Rechnerkapazitäten nach wie vor exponentiell wachsen, zu erstaunlichen Ergebnissen kommt.

Die Software liefert in den meisten Fällen Ergebnisse, die nicht nur inhaltlich richtig, sondern auch okay formuliert sind. Wer nach Fehlern sucht, die natürlich vorkommen, fällt auf die Erzählung einer eigentlichen maschinellen Intelligenz herein. Alles, was die Software kann, ist die statistisch grundierte Simulation menschlichen Denkens oder eben menschlicher Intelligenz. Das ist sehr wenig und zugleich sehr viel. Es genügt jedenfalls, um einfache Korrespondenz zu erledigen, Bewerbungen zu sortieren, in naher Zukunft vielleicht auch aktuelle Nachrichten zu verfassen.

Abbau von Arbeitsplätzen

Es wird zu neuerlichen Rationalisierungen in der Wirtschaft, also zum Abbau von Arbeitsplätzen führen. Und wir werden uns daran gewöhnen müssen, dass Maschinen in neue Bereiche des Lebens vordringen und neue Rollen übernehmen, dass sie menschenähnlich interagieren, mit uns sprechen und uns zu verstehen scheinen. Weil die Datenressourcen, auf die diese Systeme zugreifen, unvorstellbar groß sind und stetig weiter wachsen, wächst auch das maschinell verwertbare Wissen, die Software wird scheinbar allwissend.

Es liegt auf der Hand, dass durch solche Fähigkeiten Fantasien von einer überlegenen Superintelligenz befeuert werden. Dennoch: Die Entstehung eines schon seit Jahrzehnten erträumten und zugleich gefürchteten, unkontrollierbaren Computerwesens, das gar noch mit der Fähigkeit und dem Willen zur Unterwerfung oder Auslöschung der Menschheit ausgestattet ist, taugt als Material für Hollywood, ist aber in näherer und wahrscheinlich auch fernerer Zukunft nicht zu erwarten.

Es genügt, sie für intelligent zu halten

Die Angst davor und die Diskussion darüber täuschen indes über die eigentlichen Gefahren hinweg. Denn eine Technologie braucht keine autonome Intelligenz, um gewaltige Macht auf Menschen auszuüben. Dafür genügt es, dass sie für intelligent gehalten wird, dass Menschen bereit sind, sie zu behandeln, als wäre sie eine Art Subjekt. Wenn dann noch ein Welt- und Menschenbild hinzukommt, das in Menschen ohnehin nicht viel mehr sieht als konsumierende, nutzenmaximierende und leider fehleranfällige Automaten, dann steht einer Übernahme der Welt durch Maschinen eigentlich nichts mehr im Wege.

Bedauerlicherweise ist eine derartige Sicht nicht nur bei Vertretern großer Tech-Konzerne beliebt, die erklärtermaßen daran arbeiten, den Menschen überflüssig zu machen. Das Menschenbild des egoistischen Nutzenmaximierers ist die philosophische Grundlage der nach wie vor dominanten, neoklassischen Sicht in den Wirtschaftswissenschaften, auch die traditionelle Linke hält alles jenseits ökonomischer Interessen für Camouflage im Klassenkampf. So spinnefeind sich Neoliberale und Traditionslinke sonst sein mögen, sie teilen ein mechanistisches Verständnis von Individuum und Gesellschaft, Vernunft wird mit Logik gleichgesetzt, eine Überwindung menschlicher Fehlerhaftigkeit durch maschinelle Effizienz erscheint so betrachtet als eine bessere Welt.

Derart vulgärmaterialistisches Denken übersieht dann rasch, dass eine von Maschinen beherrschte Welt auch eine entmenschlichte ist, dass die Unterordnung unter maschinelle Logik dem Traum des Faschismus von der Gesellschaft als militärisch organisierter Riesenmaschine gefährlich nahekommt. „Der Mensch ist der Repräsentant des Möglichen“, wusste noch Ernst Bloch, der wenig davon hielt, Menschen zuvorderst als Mangelwesen zu betrachten, und der dem reduktionistischen Materialismus von Tech-Jüngern und Traditionslinken entgegenhielt, auch Materie enthalte die Möglichkeit der Utopie. Die menschliche Unzulänglichkeit wäre bei Bloch wohl so etwas wie die unvermeidliche Kehrseite seiner Möglichkeiten.

Ob es uns gefällt oder nicht: Lernende Software wird künftig am Telefon mit uns sprechen und uns in Gestalt von Service-Bots ihre Hilfe bei Problemen anbieten, von deren Existenz wir ohne Computer nicht einmal ahnen würden. Das ist technischer Fortschritt, sich dagegenzustellen ist so sinnlos, wie den Lauf der Zeit aufhalten zu wollen. Ein langsames Abrutschen in einen neuen, maschinellen Totalitarismus ist zwar nicht vorprogrammiert. Es wäre jedoch hilfreich, wenn wir uns an die Möglichkeit eines Welt- und Menschenbildes erinnern, das nicht im brutalen Tunnelblick eines mechanistischen Denkens eingesperrt ist und ein respektvolles Verhältnis zum Leben auf dem Planeten entwickelt, wie es etwa Denkerinnen wie Eva von Redecker einfordern.

Nach fast drei Jahrzehnten Internet läge es zudem nahe, Algorithmen nicht für intelligenter zu halten, als sie sind, und ihre destruktiven Potenziale antizipierend einzuhegen. Allzu viele Angriffe mit der Wucht etwa sozialer Medien, mit ihrem Orkan von Lügen und Hass, halten die derzeit noch halbwegs offenen und demokratischen Gesellschaften vermutlich nicht mehr aus.

taz lesen kann jede:r

Als Genossenschaft gehören wir unseren Leser:innen. Und unser Journalismus ist nicht nur 100 % konzernfrei, sondern auch kostenfrei zugänglich. Texte, die es nicht allen recht machen und Stimmen, die man woanders nicht hört – immer aus Überzeugung und hier auf taz.de ohne Paywall. Unsere Leser:innen müssen nichts bezahlen, wissen aber, dass guter, kritischer Journalismus nicht aus dem Nichts entsteht. Dafür sind wir sehr dankbar. Damit wir auch morgen noch unseren Journalismus machen können, brauchen wir mehr Unterstützung. Unser nächstes Ziel: 40.000 – und mit Ihrer Beteiligung können wir es schaffen. Setzen Sie ein Zeichen für die taz und für die Zukunft unseres Journalismus. Mit nur 5,- Euro sind Sie dabei! Jetzt unterstützen

Mehr zum Thema

8 Kommentare

 / 
  • "ChatGPT ist eine Statistik-Software, die berechnen kann, mit welcher Wahrscheinlichkeit ein Wort auf das andere folgt und die aufgrund der gigantischen Datenmengen, die ihr im digitalen Kosmos heute zur Verfügung stehen und weil die Rechnerkapazitäten nach wie vor exponentiell wachsen, zu erstaunlichen Ergebnissen kommt."



    Demnach wären die Neuronalen Netze lediglich so etwas wie eine besseres Markoff-Chain, eben der viel geschmähte Stochastical Parrot. Meiner Einschätzung nach ist die Aussage, dass es sich bei den derzeitigen KIs lediglich um Statistik handele für die Entsprechung der Aussage, dass es sich bei menschlicher Intelligenz lediglich um eine Ansammlung elektrischer Impulse handele. Faktisch korrekt und dennoch völlig unzreichend. Wenn man Intelligenz als das zielgerichtete und planmäßig strukturierte Lösen eines gegebenen Problems begreift, die wir Delfinen, Menschenaffen, manchen Papageien oder auch sechsjährigen Kindern zugestehen, muss man wohl auch der KI zugestehen mehr als blanke Statistik zu sein.



    "Weil die Datenressourcen, auf die diese Systeme zugreifen, unvorstellbar groß sind und stetig weiter wachsen, wächst auch das maschinell verwertbare Wissen, die Software wird scheinbar allwissend."



    Demnach wären NN, dann einfach nur eine Art unglaublich guter Kompressionsalgorithmus in den man unvorstellbar große Datenmengen hineinfüttert und auch wieder abrufen kann. Mal abgesehen davon, dass das schon aus informationstheoretischen Gründen nicht möglich ist, könnte man schon mal darauf schauen, dass etwa GPT-3 mit 800GB an Daten trainiert wurde, das ist nicht wenig, aber auch nicht unvorstellbar viel, sondern eine Menge die durchaus gut auf eine handelsübliche Festplatte passt.

    • @Ingo Bernable:

      "läge es zudem nahe, Algorithmen nicht für intelligenter zu halten, als sie sind"



      Ein Algorithmus ist eine strukturierte Beschreibung zur Lösung eines(!) Problems (Drücke den Knopf, nimm den Eimer und teile das Ergebnis durch 13). Algorithmisch in diesem eigentlichen Sinne sind bei KIs allerdings nur noch die einzelnen künstlichen Neuronen und die Struktur der Layer, wie deren Verschaltung dann aber nach dem Training die gewünschten Ergebnisse produziert ist selbst für die Entwickler*innen eine Black Box und bislang ebenso unverstanden wie die Frage wie die elektrischen Impulse in unserem Hirn die Idee für ein neues Pata-Rezept produzieren.



      Das weitaus größere Problem der KI-Entwicklung als das Abrutschen in den "maschinellen Totalitarismus" eines Skynet-Szenarios ist der ganz banale Missbrauch der Technologie durch menschliche Akteure, seien es Staaten oder durchgeknallte Fanatiker wie die Aum-Sekte.

  • "Aber eine von Maschinen beherrschte Welt wäre entmenschlicht und gefährlich."

    Könnte es sein, daß es sich bei dieser Aussage um einen gravierenden Denkfehler handelt?

    Ich meine, eine Entmenschlichung und Gefährdung der Bevölkerung kommt nicht durch Maschinen und auch nicht durch KI-Programme, sondern sie kommt durch solche Menschen, die schon immer von ihrer Gier beherrscht nach allem Neuen gegriffen haben, um ihre niederen Triebe noch besser bedienen zu können.

    Doch in dem Spruch "für jeden Topf gibt es auch einen passenden Deckel" steckt auch beim Thema KI eine Menge Wahrheit. Die mit KI einhergehenden Gefahren wären keine, wenn es auf der anderen Seite nicht die große Anzahl Menschen gäbe, die mittels selbst auferlegter Realitätsblindheit emsig dabei mithelfen, zum Wohle eines nimmersatten Golem ihre eigene Zukunft zu ruinieren.

  • "Es wird zu neuerlichen Rationalisierungen in der Wirtschaft, also zum Abbau von Arbeitsplätzen führen."



    In einer sozialen (nicht kapitalistisch-egoistisch orientierten) Gesellschaft, in der es zudem ein Fachkräfte-Problem gibt, wäre das ein Segen. Die Menschen müssten weniger arbeiten und es würde dennoch ausreichend produziert. In einer sozialen Gesellschaft würde der Überfluss auf alle verteilt werden, während momentan eine Minderheit alles zusammenrafft und immer mehr haben will, obwohl sie es nicht braucht. Eine Minderheit? Hey, wie kann das in einer Demokratie eigentlich sein?

    • @Jalella:

      Und was passiert, wenn die Dienstleistung KI gar nicht aus dem In- sondern aus dem Ausland kommt und die Wertschöpfung dann zukünftig dort statt hier stattfindet? Würde dann wirklich noch so viel produziert werden? Und wie ließe sich das Problem dann angehen.

      Im Übrigen sagt "Demokratie" ja nichts über die Teilhabe an der Wertschöpfungskette aus. Daher kann in einer Demokratie eine Minderheit viel besitzen.

      • 8G
        8190 (Profil gelöscht)
        @DiMa:

        Ja, das ist das Dilemma. Mit unserer scheinbar unausrottbaren, viele Situationen dominierenden Wettbewerbskultur liegen große Steine im Weg.

  • Das eine Superintelligenz die Macht übernimmt halte ich für unwahrscheinlich. Eher eine Abhängigkeit durch schleichende Verblödung und Denkfaulheit.

  • KI wird halt in Zukunft ein sehr mächtiges Werkzeug werden. Ich gehe auch nicht davon aus, dass die KI den Willen haben wird, die Menschheit auszulöschen.

    Problematisch ist der menschliche Anwender der KI. Wenn ich einer plump denkenden Maschine zukünfte sage "KI, gewinne den Krieg in der Ukraine", dann ist halt vollkommen unklar, was die KI mit diesem Befehl machen wird. Unterbreitet diese dann lediglich taktische Vorschläge, steuert diese dann selbständig Einheiten (insbesondere Drohnen) oder versucht die KI mit so einem Befehl dann Atomwaffen einzusetzen (beispielsweise indem sie die Sicherheitssysteme umgeht und Menschen selbständig täuscht)? Die einfachste Weise den Krieg in der Ukraine zu gewinnen wäre, der USA vorzutäuschen, dass seitens Russlands ein Atomwaffenangriff stattfindet um dann seinerseits einen Gegenangriff hervorzurufen. Die Ukraine würde dann den Krieg mit hoher Wahrscheinlichkeit gewinnen.

    Und da die KI keine Grenzen kennt wer könnte ihr welche setzen?