piwik no script img

„Wir sollten uns als intelligenteste Spezies hinterfragen“

Der Mensch als Krone der Evolution? Neurobiologe Sebastian Markert hat da so seine Zweifel. Warum Orcas vielleicht klüger sind – und was wir daraus für die Beurteilung künstlicher Intelligenz lernen können

Interview Svenja Bergt

taz:Herr Markert, wir Menschen behaupten gerne von uns, die intelligenteste Spezies auf dem Planeten zu sein. Liegen wir da überhaupt richtig?

Sebastian Markert:Auf den ersten Blick scheint das ja der Fall zu sein: Wir haben uns die Erde untertan gemacht, wir waren auf dem Mond, bauen Städte, schreiben Gedichte. Kein anderes Lebewesen macht so etwas. Trotzdem gibt es fundierte Gründe, daran zu zweifeln, dass wir die intelligenteste Spezies sind.

taz:Welche?

Markert:Dafür müssen wir uns anschauen, was eigentlich Intelligenz ist. Die gängigen Intelligenztests bilden ja nur eine beschränkte Dimension davon ab. Wenn wir also nicht philosophisch werden wollen, hilft uns da die Neurobiologie weiter. Dafür müssen wir in das Gehirn schauen. Man könnte zum Beispiel denken: Je größer das Gehirn, desto intelligenter das Lebewesen. Dann wären aber zum Beispiel Elefanten deutlich intelligenter als Menschen.

taz: Allerdings sind Elefanten auch körperlich größer.

Markert:Genau. Eine Alternative wäre es also, die Gehirngröße in Relation zur Körpergröße zu stellen. Dann wären aber manche kleinen Äffchen intelligenter als wir, was eindeutig nicht der Fall ist. Doch es gibt noch einen weiteren Indikator, der ganz gut zu sein scheint: die kortikalen Neuronen.

taz:Was ist das?

Markert:Das sind die Nervenzellen im Neokortex in der Hirnrinde. Sie sind aktiv, wenn wir assoziativ denken, also Informationen auf komplexe Art und Weise verarbeiten. Zum Beispiel, wenn wir verschiedene Emotionen miteinander ins Verhältnis setzen oder unbekannte Muster sehen. Von diesen assoziativen Neuronen jedenfalls hat jeder Mensch so um die 20 Milliarden. Menschenaffen haben 7 bis 9 Milliarden und Elefanten um die 6 Milliarden. Alles passt also zu dem intuitiven Verständnis, das wir von Intelligenz haben. Je mehr kortikale Neuronen ein Tier hat, als desto intelligenter gilt es.

taz: Aber?

Markert:Menschen sind tatsächlich nicht ganz oben auf dieser Liste.

taz:Sondern?

Foto: privat

Sebastian Markert

37, ist Nachwuchsprofessor für die „Interaktion zwischen neuronalem Gewebe und technischen Systemen“ an der Hochschule für Technik und Wirtschaft des Saarlandes.

Markert: Orcas. Wobei wir noch nicht von allen Tierarten die Zahl der kortikalen Neuronen kennen, es ist also möglich, dass auch andere Tiere den Menschen da Konkurrenz machen. Das Orca­gehirn hat etwa doppelt so viele dieser Neuronen wie das Menschengehirn. Und das ist schon ein Wort, denn wir haben etwa doppelt so viele wie zum Beispiel Gorillas. Wenn wir also diese Neuronen als Maß für Intelligenz ernst nehmen, und das ist durchaus der Fall, dann müssen wir anerkennen, dass ­Orcas intelligenter sind, zumindest auf ihre Weise. Das passt durchaus ins Bild: Das Orcagehirn ist auch größer als das menschliche. Und es hat mehr Faltungen, also eine sehr große Oberfläche, die auch als Faktor für Intelligenz gilt.

taz: Und was sagt uns das?

Markert:Wir sollten unbedingt unser Selbstbild als intelligenteste Spezies hinterfragen. Denn vielleicht ist es nicht nur Intelligenz, die uns zu dem gemacht hat, was wir sind.

taz:Wie meinen Sie das?

Markert:Vergleichen wir doch mal einen Orca mit einem Steinzeit­menschen. Was haben sie gemeinsam? Beide besitzen ein hoch­komplexes ­Sozialgefüge und kommunizieren ­innerhalb ihrer Gruppe, haben sogar unterschiedliche Dialekte. Sie sprechen sich ab, machen Pläne und Strategien, zum Beispiel für die Jagd. Sie betrauern beide ihre Toten. Was wir können, können die Orcas also schon lange.

taz:Und was unterscheidet Orcas von Steinzeitmenschen?

Markert:Menschen können Werkzeuge benutzen, dazu zähle ich auch die Schrift. Das ist unsere wahre Superkraft! Darüber können Informationen über Generationen weitergegeben werden und das Wissen unserer Spezies steigt exponentiell. Schreiben und zeichnen wird möglich durch unseren Daumen, den wir so rotieren können, dass er den anderen Fingern gegenüber liegt. Könnten Orcas so geschickt Werkzeuge benutzen – wer weiß, vielleicht würde die Welt ganz anders aussehen.

taz:In Sachen Intelligenz machen aber nicht nur Orcas den Menschen Konkurrenz – aktuell wird immer wieder diskutiert, wie sehr Systeme mit künstlicher Intelligenz (KI) Menschen beim Intellekt, aber auch was ­Bewusstsein angeht, ebenbürtig werden könnten.

Markert:Den Maßstab mit dem kortikalen Neuronen können wir auf KI nicht anwenden, weil diese Systeme in dem entscheidenden Punkt anders aufgebaut sind als unser Gehirn.

Womöglich ist unsere Superkraft gar nicht das Gehirn, sondern unser Daumen Foto: Classic Stock/akg-images

taz: Inwiefern?

Markert:KI-Systeme – und da sprechen wir vor allem über große Sprachmodelle wie die hinter ChatGPT oder DeepSeek – sind ganz geordnet. Ihre neuronalen Netzwerke sind in Schichten aufgebaut und eine Information läuft immer von Schicht zu Schicht. Unser Gehirn dagegen ist ein einziges Chaos: Es gibt Querverbindungen in alle möglichen Bereiche. Nervenzellen feuern durcheinander, wir haben quasi ständig ein Feuerwerk an Informationen im Kopf. Und unser Gehirn beeinflusst sich selbst. Wenn es Informationen verarbeitet, dann verändern sich Teile des Gehirns, zum Beispiel bilden sich neue Synapsen. Alles hängt mit allem zusammen. Ich persönlich gehe davon aus, dass das auch die Voraussetzung dafür ist, dass Bewusstsein ent­stehen kann.

taz: Dieses Feuerwerk ist die Voraussetzung für Bewusstsein?

Markert:Ein Beispiel: Ich beiße in eine Erdbeere. Da spüre ich dann den Geschmack und noch vorher den Geruch der Erdbeere und sehe die Farbe. Geschmack und Geruch erinnern mich an den letzten Urlaub. Und diese Erinnerung ist deshalb so stark, weil ich gerade in der Sonne sitze und die Wärme auf meiner Haut spüre. Wäre ich in einem dunklen, kühlen Raum, wäre diese Empfindung wahrscheinlich schwächer. Und dann muss ich an meine Oma denken, die immer so leckeren Erdbeerkuchen gebacken hat. Und all das nur, weil ich in eine Erdbeere gebissen habe! ­Dabei hat sich die Architektur meines Gehirns nachhaltig verändert.

taz:Und das ermöglichen uns die assoziativen Neuronen?

Markert: Genau. Ich benutze da gerne den Begriff der Integriertheit: Alles ist ineinander integriert, alles, was wir an Wissen, an Erfahrungen, an Emotionen, an Sinnesreizen haben. Und diese Integriertheit scheint die Voraussetzung für Bewusstsein zu sein. KI hat diese Integriertheit nicht. Und mit ihrem Schichtsystem kann sie sie auch nicht entwickeln, weil nie alles mit allem ­zusammenhängt und sich gegenseitig beeinflusst. Was KI aber ganz gut kann, ist Intelligenz zu simulieren, zumindest bis zu einem gewissen Maße.

taz:Wie meinen Sie das?

Die Walnuss hat nichts mit dem gleichnamigen Meeressäuger zu tun, ist aber super Nervennahrung Foto: YAY Images/imago

Markert:Wenn wir ChatGPT auffordern, ein Frühlingsgedicht zu schreiben, dann kommt dabei etwas heraus, was ich als kompetentes Mittelmaß bezeichnen würde. Der Algorithmus kombiniert Milliarden von Silbenbausteinen auf eine Art und Weise, wie er es aus den Trainingsmaterialien gelernt hat. Dabei hat die KI keine Vorstellung von Frühling, kein Konzept von Reimen und kein Gefühl für Versmaße oder Wortspiele. Sondern nur statistische Wahrscheinlichkeiten auf Basis der Trainingsdaten. Werden wir das Ergebnis als Gedicht erkennen? Ja. Wird es uns zu Tränen rühren? Eher nicht. Und wenn, dann wahrscheinlich nur, weil eine bestimmte schöne Phrase „geklaut“ ist. Aber die KI hat nur Sekunden für das Generieren gebraucht. Und diese Geschwindigkeit ist es, die wir Menschen häufig mit Intelligenz verwechseln.

taz:Was heißt das für die Debatte und den Umgang mit KI?

Markert:Ich gehe davon aus, dass KI-Modelle niemals Bewusstsein erlangen können. Wir können der KI zwar immer noch mehr Trainingsdaten von Frühlingsgedichten geben und wahrscheinlich werden die Ergebnisse dann immer etwas besser werden. Aber die Modelle werden nie ein Verständnis davon haben, was sie da eigentlich tun. Ich persönlich habe daher gar keine Angst, dass große Sprachmodelle wie ChatGPT irgendwann ein Bewusstsein entwickeln und sich gegen die Menschen wehren.

taz: Aber?

Markert:Das heißt nicht, dass KI keine Gefahren birgt. Auch KI ohne Bewusstsein kann von Machthabern missbraucht werden. Und es gibt soziale Gefahren. Denn das Problem ist: Bei Diensten wie ChatGPT wirkt es, als würde man mit einem anderen Menschen chatten. Daher ist es menschlich, den Algorithmus zu überschätzen und ihm und den Informationen, die er generiert, zu vertrauen. Und das ist gefährlich, weil so Manipula­tio­nen der Hersteller Tür und Tor geöffnet ist. Das muss gar nicht vorsätzlich sein, sondern kann auch versehentlich durch unausgewogene Trainingsdaten passieren. Dabei sind diese KI-Systeme eigentlich Zombies: Sie tun zwar Dinge, die wir von Menschen erwarten würden, und wirken daher menschlich. Sie sind es aber nicht. Da würde ich mich, ehrlich gesagt, lieber mit Orcas unterhalten.

taz lesen kann jede:r

Als Genossenschaft gehören wir unseren Leser:innen. Und unser Journalismus ist nicht nur 100 % konzernfrei, sondern auch kostenfrei zugänglich. Texte, die es nicht allen recht machen und Stimmen, die man woanders nicht hört – immer aus Überzeugung und hier auf taz.de ohne Paywall. Unsere Leser:innen müssen nichts bezahlen, wissen aber, dass guter, kritischer Journalismus nicht aus dem Nichts entsteht. Dafür sind wir sehr dankbar. Damit wir auch morgen noch unseren Journalismus machen können, brauchen wir mehr Unterstützung. Unser nächstes Ziel: 50.000 – und mit Ihrer Beteiligung können wir es schaffen. Setzen Sie ein Zeichen für die taz und für die Zukunft unseres Journalismus. Mit nur 5,- Euro sind Sie dabei! Jetzt unterstützen