piwik no script img

Neurobiologe über Intelligenz„KI-Systeme sind Zombies“

Der Mensch als Krone der Evolution? Neurobiologe Sebastian Markert zweifelt daran. Ein Gespräch über Orcas, Gorillas und künstliche Intelligenz.

Intelligenzbestie: Je nachdem wie man Klugheit misst, gehört der Orca zu den schlausten Wesen der Welt Foto: G. Lacz/imageBROKER/imago
Interview von Svenja Bergt

taz: Herr Markert, wir Menschen behaupten gerne von uns, die intelligenteste Spezies auf dem Planeten zu sein. Liegen wir da überhaupt richtig?

Sebastian Markert: Auf den ersten Blick scheint das ja der Fall zu sein: Wir haben uns die Erde untertan gemacht, wir waren auf dem Mond, bauen Städte, schreiben Gedichte. Kein anderes Lebewesen macht so etwas. Trotzdem gibt es fundierte Gründe, daran zu zweifeln, dass wir die intelligenteste Spezies sind.

taz: Welche?

Markert: Dafür müssen wir uns anschauen, was eigentlich Intelligenz ist. Die gängigen Intelligenztests bilden ja nur eine beschränkte Dimension davon ab. Wenn wir also nicht philosophisch werden wollen, hilft uns da die Neurobiologie weiter. Dafür müssen wir in das Gehirn schauen. Man könnte zum Beispiel denken: Je größer das Gehirn, desto intelligenter das Lebewesen. Dann wären aber zum Beispiel Elefanten deutlich intelligenter als Menschen.

Im Interview: Sebastian Markert ​

37, ist Nachwuchsprofessor für die „Interaktion zwischen neuronalem Gewebe und technischen Systemen“ an der Hochschule für Technik und Wirtschaft des Saarlandes.

taz: Allerdings sind Elefanten auch körperlich größer.

Markert: Genau. Eine Alternative wäre es also, die Gehirngröße in Relation zur Körpergröße zu stellen. Dann wären aber manche kleinen Äffchen intelligenter als wir, was eindeutig nicht der Fall ist. Doch es gibt noch einen weiteren Indikator, der ganz gut zu sein scheint: die kortikalen Neuronen.

taz: Was ist das?

Team Zukunft – der Newsletter zu Klima, Wissen, Utopien

Du liest einen Text aus unserem Zukunfts-Ressort. Wenn Du Lust auf mehr positive Perspektiven hast, abonniere TEAM ZUKUNFT, den konstruktiven Newsletter zu Klima, Wissen, Utopien. Jeden Donnerstag bekommst du von uns eine Mail mit starken Gedanken für dich und den Planeten.

Markert: Das sind die Nervenzellen im Neokortex in der Hirnrinde. Sie sind aktiv, wenn wir assoziativ denken, also Informationen auf komplexe Art und Weise verarbeiten. Zum Beispiel, wenn wir verschiedene Emotionen miteinander ins Verhältnis setzen oder unbekannte Muster sehen. Von diesen assoziativen Neuronen jedenfalls hat jeder Mensch so um die 20 Milliarden. Menschenaffen haben 7 bis 9 Milliarden und Elefanten um die 6 Milliarden. Alles passt also zu dem intuitiven Verständnis, das wir von Intelligenz haben. Je mehr kortikale Neuronen ein Tier hat, als desto intelligenter gilt es.

taz: Aber?

Markert: Menschen sind tatsächlich nicht ganz oben auf dieser Liste.

taz: Sondern?

Markert: Orcas. Wobei wir noch nicht von allen Tierarten die Zahl der kortikalen Neuronen kennen, es ist also möglich, dass auch andere Tiere den Menschen da Konkurrenz machen. Das Orca­gehirn hat etwa doppelt so viele dieser Neuronen wie das Menschengehirn. Und das ist schon ein Wort, denn wir haben etwa doppelt so viele wie zum Beispiel Gorillas. Wenn wir also diese Neuronen als Maß für Intelligenz ernst nehmen, und das ist durchaus der Fall, dann müssen wir anerkennen, dass ­Orcas intelligenter sind, zumindest auf ihre Weise. Das passt durchaus ins Bild: Das Orcagehirn ist auch größer als das menschliche. Und es hat mehr Faltungen, also eine sehr große Oberfläche, die auch als Faktor für Intelligenz gilt.

taz: Und was sagt uns das?

Markert: Wir sollten unbedingt unser Selbstbild als intelligenteste Spezies hinterfragen. Denn vielleicht ist es nicht nur Intelligenz, die uns zu dem gemacht hat, was wir sind.

taz: Wie meinen Sie das?

wochentaz

Dieser Text stammt aus der wochentaz. Unserer Wochenzeitung von links! In der wochentaz geht es jede Woche um die Welt, wie sie ist – und wie sie sein könnte. Eine linke Wochenzeitung mit Stimme, Haltung und dem besonderen taz-Blick auf die Welt. Jeden Samstag neu am Kiosk und natürlich im Abo.

Markert: Vergleichen wir doch mal einen Orca mit einem Steinzeit­menschen. Was haben sie gemeinsam? Beide besitzen ein hoch­komplexes ­Sozialgefüge und kommunizieren ­innerhalb ihrer Gruppe, haben sogar unterschiedliche Dialekte. Sie sprechen sich ab, machen Pläne und Strategien, zum Beispiel für die Jagd. Sie betrauern beide ihre Toten. Was wir können, können die Orcas also schon lange.

taz: Und was unterscheidet Orcas von Steinzeitmenschen?

Markert: Menschen können Werkzeuge benutzen, dazu zähle ich auch die Schrift. Das ist unsere wahre Superkraft! Darüber können Informationen über Generationen weitergegeben werden und das Wissen unserer Spezies steigt exponentiell. Schreiben und zeichnen wird möglich durch unseren Daumen, den wir so rotieren können, dass er den anderen Fingern gegenüber liegt. Könnten Orcas so geschickt Werkzeuge benutzen – wer weiß, vielleicht würde die Welt ganz anders aussehen.

taz: In Sachen Intelligenz machen aber nicht nur Orcas den Menschen Konkurrenz – aktuell wird immer wieder diskutiert, wie sehr Systeme mit künstlicher Intelligenz (KI) Menschen beim Intellekt, aber auch was ­Bewusstsein angeht, ebenbürtig werden könnten.

Markert: Den Maßstab mit dem kortikalen Neuronen können wir auf KI nicht anwenden, weil diese Systeme in dem entscheidenden Punkt anders aufgebaut sind als unser Gehirn.

taz: Inwiefern?

Markert: KI-Systeme – und da sprechen wir vor allem über große Sprachmodelle wie die hinter ChatGPT oder DeepSeek – sind ganz geordnet. Ihre neuronalen Netzwerke sind in Schichten aufgebaut und eine Information läuft immer von Schicht zu Schicht. Unser Gehirn dagegen ist ein einziges Chaos: Es gibt Querverbindungen in alle möglichen Bereiche. Nervenzellen feuern durcheinander, wir haben quasi ständig ein Feuerwerk an Informationen im Kopf. Und unser Gehirn beeinflusst sich selbst. Wenn es Informationen verarbeitet, dann verändern sich Teile des Gehirns, zum Beispiel bilden sich neue Synapsen. Alles hängt mit allem zusammen. Ich persönlich gehe davon aus, dass das auch die Voraussetzung dafür ist, dass Bewusstsein ent­stehen kann.

taz: Dieses Feuerwerk ist die Voraussetzung für Bewusstsein?

Markert: Ein Beispiel: Ich beiße in eine Erdbeere. Da spüre ich dann den Geschmack und noch vorher den Geruch der Erdbeere und sehe die Farbe. Geschmack und Geruch erinnern mich an den letzten Urlaub. Und diese Erinnerung ist deshalb so stark, weil ich gerade in der Sonne sitze und die Wärme auf meiner Haut spüre. Wäre ich in einem dunklen, kühlen Raum, wäre diese Empfindung wahrscheinlich schwächer. Und dann muss ich an meine Oma denken, die immer so leckeren Erdbeerkuchen gebacken hat. Und all das nur, weil ich in eine Erdbeere gebissen habe! ­Dabei hat sich die Architektur meines Gehirns nachhaltig verändert.

taz: Und das ermöglichen uns die assoziativen Neuronen?

Markert: Genau. Ich benutze da gerne den Begriff der Integriertheit: Alles ist ineinander integriert, alles, was wir an Wissen, an Erfahrungen, an Emotionen, an Sinnesreizen haben. Und diese Integriertheit scheint die Voraussetzung für Bewusstsein zu sein. KI hat diese Integriertheit nicht. Und mit ihrem Schichtsystem kann sie sie auch nicht entwickeln, weil nie alles mit allem ­zusammenhängt und sich gegenseitig beeinflusst. Was KI aber ganz gut kann, ist Intelligenz zu simulieren, zumindest bis zu einem gewissen Maße.

taz: Wie meinen Sie das?

Markert: Wenn wir ChatGPT auffordern, ein Frühlingsgedicht zu schreiben, dann kommt dabei etwas heraus, was ich als kompetentes Mittelmaß bezeichnen würde. Der Algorithmus kombiniert Milliarden von Silbenbausteinen auf eine Art und Weise, wie er es aus den Trainingsmaterialien gelernt hat. Dabei hat die KI keine Vorstellung von Frühling, kein Konzept von Reimen und kein Gefühl für Versmaße oder Wortspiele. Sondern nur statistische Wahrscheinlichkeiten auf Basis der Trainingsdaten. Werden wir das Ergebnis als Gedicht erkennen? Ja. Wird es uns zu Tränen rühren? Eher nicht. Und wenn, dann wahrscheinlich nur, weil eine bestimmte schöne Phrase „geklaut“ ist. Aber die KI hat nur Sekunden für das Generieren gebraucht. Und diese Geschwindigkeit ist es, die wir Menschen häufig mit Intelligenz verwechseln.

taz: Was heißt das für die Debatte und den Umgang mit KI?

Markert: Ich gehe davon aus, dass KI-Modelle niemals Bewusstsein erlangen können. Wir können der KI zwar immer noch mehr Trainingsdaten von Frühlingsgedichten geben und wahrscheinlich werden die Ergebnisse dann immer etwas besser werden. Aber die Modelle werden nie ein Verständnis davon haben, was sie da eigentlich tun. Ich persönlich habe daher gar keine Angst, dass große Sprachmodelle wie ChatGPT irgendwann ein Bewusstsein entwickeln und sich gegen die Menschen wehren.

taz: Aber?

Markert: Das heißt nicht, dass KI keine Gefahren birgt. Auch KI ohne Bewusstsein kann von Machthabern missbraucht werden. Und es gibt soziale Gefahren. Denn das Problem ist: Bei Diensten wie ChatGPT wirkt es, als würde man mit einem anderen Menschen chatten. Daher ist es menschlich, den Algorithmus zu überschätzen und ihm und den Informationen, die er generiert, zu vertrauen. Und das ist gefährlich, weil so Manipula­tio­nen der Hersteller Tür und Tor geöffnet ist. Das muss gar nicht vorsätzlich sein, sondern kann auch versehentlich durch unausgewogene Trainingsdaten passieren. Dabei sind diese KI-Systeme eigentlich Zombies: Sie tun zwar Dinge, die wir von Menschen erwarten würden, und wirken daher menschlich. Sie sind es aber nicht. Da würde ich mich, ehrlich gesagt, lieber mit Orcas unterhalten.

taz lesen kann jede:r

Als Genossenschaft gehören wir unseren Leser:innen. Und unser Journalismus ist nicht nur 100 % konzernfrei, sondern auch kostenfrei zugänglich. Texte, die es nicht allen recht machen und Stimmen, die man woanders nicht hört – immer aus Überzeugung und hier auf taz.de ohne Paywall. Unsere Leser:innen müssen nichts bezahlen, wissen aber, dass guter, kritischer Journalismus nicht aus dem Nichts entsteht. Dafür sind wir sehr dankbar. Damit wir auch morgen noch unseren Journalismus machen können, brauchen wir mehr Unterstützung. Unser nächstes Ziel: 50.000 – und mit Ihrer Beteiligung können wir es schaffen. Setzen Sie ein Zeichen für die taz und für die Zukunft unseres Journalismus. Mit nur 5,- Euro sind Sie dabei! Jetzt unterstützen

Mehr zum Thema

1 Kommentar

 / 
  • Die Aussagen zu biologischer Intelligenz von Prof. Markert sind hochinteressant, zu künstlicher Intelligenz liegt er aber daneben. Es ist ja auch überhaupt nicht sein Fachgebiet (jedenfalls hat er keine relevanten Publikationen zu Sprachmodellen oder dergleichen).

    Die Formulierung, das, was Sprachmodelle täten, sei "nur statistische Wahrscheinlichkeiten auf Basis der Trainingsdaten" verkennt vollkommen die kognitiven Fähigkeiten dieser Systeme. Wenn ich mit einem davon ein neuartiges mathematisches Problem aus meiner eigenen Forschung diskutiere, ist die Diskussion oft fruchtbarer als mit Student:innen aus dem achten Semester Mathematikstudium, und die sind meiner Erfahrung nach äußerst intelligent. Und zwar nicht, weil die KI Wissen wiederkäut, sondern weil sie es sogar im streng formalen Rahmen der Mathematik immer wieder schafft, kreative und originelle Ideen zu produzieren.

    Auch die völlig unbelegte Behauptung, Sprachmodelle hätten "kein Konzept von Reimen" ist angesichts der guten Testergebnisse bei Reim-Aufgaben (z.B. arxiv.org/html/2404.02456v2) zumindest gewagt...