piwik no script img

Neurobiologe über Intelligenz„KI-Systeme sind Zombies“

Der Mensch als Krone der Evolution? Neurobiologe Sebastian Markert zweifelt daran. Ein Gespräch über Orcas, Gorillas und künstliche Intelligenz.

Intelligenzbestie: Je nachdem wie man Klugheit misst, gehört der Orca zu den schlausten Wesen der Welt Foto: G. Lacz/imageBROKER/imago
Interview von Svenja Bergt

taz: Herr Markert, wir Menschen behaupten gerne von uns, die intelligenteste Spezies auf dem Planeten zu sein. Liegen wir da überhaupt richtig?

Sebastian Markert: Auf den ersten Blick scheint das ja der Fall zu sein: Wir haben uns die Erde untertan gemacht, wir waren auf dem Mond, bauen Städte, schreiben Gedichte. Kein anderes Lebewesen macht so etwas. Trotzdem gibt es fundierte Gründe, daran zu zweifeln, dass wir die intelligenteste Spezies sind.

taz: Welche?

Markert: Dafür müssen wir uns anschauen, was eigentlich Intelligenz ist. Die gängigen Intelligenztests bilden ja nur eine beschränkte Dimension davon ab. Wenn wir also nicht philosophisch werden wollen, hilft uns da die Neurobiologie weiter. Dafür müssen wir in das Gehirn schauen. Man könnte zum Beispiel denken: Je größer das Gehirn, desto intelligenter das Lebewesen. Dann wären aber zum Beispiel Elefanten deutlich intelligenter als Menschen.

Im Interview: Sebastian Markert ​

37, ist Nachwuchsprofessor für die „Interaktion zwischen neuronalem Gewebe und technischen Systemen“ an der Hochschule für Technik und Wirtschaft des Saarlandes.

taz: Allerdings sind Elefanten auch körperlich größer.

Markert: Genau. Eine Alternative wäre es also, die Gehirngröße in Relation zur Körpergröße zu stellen. Dann wären aber manche kleinen Äffchen intelligenter als wir, was eindeutig nicht der Fall ist. Doch es gibt noch einen weiteren Indikator, der ganz gut zu sein scheint: die kortikalen Neuronen.

taz: Was ist das?

Team Zukunft – der Newsletter zu Klima, Wissen, Utopien

Du liest einen Text aus unserem Zukunfts-Ressort. Wenn Du Lust auf mehr positive Perspektiven hast, abonniere TEAM ZUKUNFT, den konstruktiven Newsletter zu Klima, Wissen, Utopien. Jeden Donnerstag bekommst du von uns eine Mail mit starken Gedanken für dich und den Planeten.

Markert: Das sind die Nervenzellen im Neokortex in der Hirnrinde. Sie sind aktiv, wenn wir assoziativ denken, also Informationen auf komplexe Art und Weise verarbeiten. Zum Beispiel, wenn wir verschiedene Emotionen miteinander ins Verhältnis setzen oder unbekannte Muster sehen. Von diesen assoziativen Neuronen jedenfalls hat jeder Mensch so um die 20 Milliarden. Menschenaffen haben 7 bis 9 Milliarden und Elefanten um die 6 Milliarden. Alles passt also zu dem intuitiven Verständnis, das wir von Intelligenz haben. Je mehr kortikale Neuronen ein Tier hat, als desto intelligenter gilt es.

taz: Aber?

Markert: Menschen sind tatsächlich nicht ganz oben auf dieser Liste.

taz: Sondern?

Markert: Orcas. Wobei wir noch nicht von allen Tierarten die Zahl der kortikalen Neuronen kennen, es ist also möglich, dass auch andere Tiere den Menschen da Konkurrenz machen. Das Orca­gehirn hat etwa doppelt so viele dieser Neuronen wie das Menschengehirn. Und das ist schon ein Wort, denn wir haben etwa doppelt so viele wie zum Beispiel Gorillas. Wenn wir also diese Neuronen als Maß für Intelligenz ernst nehmen, und das ist durchaus der Fall, dann müssen wir anerkennen, dass ­Orcas intelligenter sind, zumindest auf ihre Weise. Das passt durchaus ins Bild: Das Orcagehirn ist auch größer als das menschliche. Und es hat mehr Faltungen, also eine sehr große Oberfläche, die auch als Faktor für Intelligenz gilt.

taz: Und was sagt uns das?

Markert: Wir sollten unbedingt unser Selbstbild als intelligenteste Spezies hinterfragen. Denn vielleicht ist es nicht nur Intelligenz, die uns zu dem gemacht hat, was wir sind.

taz: Wie meinen Sie das?

wochentaz

Dieser Text stammt aus der wochentaz. Unserer Wochenzeitung von links! In der wochentaz geht es jede Woche um die Welt, wie sie ist – und wie sie sein könnte. Eine linke Wochenzeitung mit Stimme, Haltung und dem besonderen taz-Blick auf die Welt. Jeden Samstag neu am Kiosk und natürlich im Abo.

Markert: Vergleichen wir doch mal einen Orca mit einem Steinzeit­menschen. Was haben sie gemeinsam? Beide besitzen ein hoch­komplexes ­Sozialgefüge und kommunizieren ­innerhalb ihrer Gruppe, haben sogar unterschiedliche Dialekte. Sie sprechen sich ab, machen Pläne und Strategien, zum Beispiel für die Jagd. Sie betrauern beide ihre Toten. Was wir können, können die Orcas also schon lange.

taz: Und was unterscheidet Orcas von Steinzeitmenschen?

Markert: Menschen können Werkzeuge benutzen, dazu zähle ich auch die Schrift. Das ist unsere wahre Superkraft! Darüber können Informationen über Generationen weitergegeben werden und das Wissen unserer Spezies steigt exponentiell. Schreiben und zeichnen wird möglich durch unseren Daumen, den wir so rotieren können, dass er den anderen Fingern gegenüber liegt. Könnten Orcas so geschickt Werkzeuge benutzen – wer weiß, vielleicht würde die Welt ganz anders aussehen.

taz: In Sachen Intelligenz machen aber nicht nur Orcas den Menschen Konkurrenz – aktuell wird immer wieder diskutiert, wie sehr Systeme mit künstlicher Intelligenz (KI) Menschen beim Intellekt, aber auch was ­Bewusstsein angeht, ebenbürtig werden könnten.

Markert: Den Maßstab mit dem kortikalen Neuronen können wir auf KI nicht anwenden, weil diese Systeme in dem entscheidenden Punkt anders aufgebaut sind als unser Gehirn.

taz: Inwiefern?

Markert: KI-Systeme – und da sprechen wir vor allem über große Sprachmodelle wie die hinter ChatGPT oder DeepSeek – sind ganz geordnet. Ihre neuronalen Netzwerke sind in Schichten aufgebaut und eine Information läuft immer von Schicht zu Schicht. Unser Gehirn dagegen ist ein einziges Chaos: Es gibt Querverbindungen in alle möglichen Bereiche. Nervenzellen feuern durcheinander, wir haben quasi ständig ein Feuerwerk an Informationen im Kopf. Und unser Gehirn beeinflusst sich selbst. Wenn es Informationen verarbeitet, dann verändern sich Teile des Gehirns, zum Beispiel bilden sich neue Synapsen. Alles hängt mit allem zusammen. Ich persönlich gehe davon aus, dass das auch die Voraussetzung dafür ist, dass Bewusstsein ent­stehen kann.

taz: Dieses Feuerwerk ist die Voraussetzung für Bewusstsein?

Markert: Ein Beispiel: Ich beiße in eine Erdbeere. Da spüre ich dann den Geschmack und noch vorher den Geruch der Erdbeere und sehe die Farbe. Geschmack und Geruch erinnern mich an den letzten Urlaub. Und diese Erinnerung ist deshalb so stark, weil ich gerade in der Sonne sitze und die Wärme auf meiner Haut spüre. Wäre ich in einem dunklen, kühlen Raum, wäre diese Empfindung wahrscheinlich schwächer. Und dann muss ich an meine Oma denken, die immer so leckeren Erdbeerkuchen gebacken hat. Und all das nur, weil ich in eine Erdbeere gebissen habe! ­Dabei hat sich die Architektur meines Gehirns nachhaltig verändert.

taz: Und das ermöglichen uns die assoziativen Neuronen?

Markert: Genau. Ich benutze da gerne den Begriff der Integriertheit: Alles ist ineinander integriert, alles, was wir an Wissen, an Erfahrungen, an Emotionen, an Sinnesreizen haben. Und diese Integriertheit scheint die Voraussetzung für Bewusstsein zu sein. KI hat diese Integriertheit nicht. Und mit ihrem Schichtsystem kann sie sie auch nicht entwickeln, weil nie alles mit allem ­zusammenhängt und sich gegenseitig beeinflusst. Was KI aber ganz gut kann, ist Intelligenz zu simulieren, zumindest bis zu einem gewissen Maße.

taz: Wie meinen Sie das?

Markert: Wenn wir ChatGPT auffordern, ein Frühlingsgedicht zu schreiben, dann kommt dabei etwas heraus, was ich als kompetentes Mittelmaß bezeichnen würde. Der Algorithmus kombiniert Milliarden von Silbenbausteinen auf eine Art und Weise, wie er es aus den Trainingsmaterialien gelernt hat. Dabei hat die KI keine Vorstellung von Frühling, kein Konzept von Reimen und kein Gefühl für Versmaße oder Wortspiele. Sondern nur statistische Wahrscheinlichkeiten auf Basis der Trainingsdaten. Werden wir das Ergebnis als Gedicht erkennen? Ja. Wird es uns zu Tränen rühren? Eher nicht. Und wenn, dann wahrscheinlich nur, weil eine bestimmte schöne Phrase „geklaut“ ist. Aber die KI hat nur Sekunden für das Generieren gebraucht. Und diese Geschwindigkeit ist es, die wir Menschen häufig mit Intelligenz verwechseln.

taz: Was heißt das für die Debatte und den Umgang mit KI?

Markert: Ich gehe davon aus, dass KI-Modelle niemals Bewusstsein erlangen können. Wir können der KI zwar immer noch mehr Trainingsdaten von Frühlingsgedichten geben und wahrscheinlich werden die Ergebnisse dann immer etwas besser werden. Aber die Modelle werden nie ein Verständnis davon haben, was sie da eigentlich tun. Ich persönlich habe daher gar keine Angst, dass große Sprachmodelle wie ChatGPT irgendwann ein Bewusstsein entwickeln und sich gegen die Menschen wehren.

taz: Aber?

Markert: Das heißt nicht, dass KI keine Gefahren birgt. Auch KI ohne Bewusstsein kann von Machthabern missbraucht werden. Und es gibt soziale Gefahren. Denn das Problem ist: Bei Diensten wie ChatGPT wirkt es, als würde man mit einem anderen Menschen chatten. Daher ist es menschlich, den Algorithmus zu überschätzen und ihm und den Informationen, die er generiert, zu vertrauen. Und das ist gefährlich, weil so Manipula­tio­nen der Hersteller Tür und Tor geöffnet ist. Das muss gar nicht vorsätzlich sein, sondern kann auch versehentlich durch unausgewogene Trainingsdaten passieren. Dabei sind diese KI-Systeme eigentlich Zombies: Sie tun zwar Dinge, die wir von Menschen erwarten würden, und wirken daher menschlich. Sie sind es aber nicht. Da würde ich mich, ehrlich gesagt, lieber mit Orcas unterhalten.

taz lesen kann jede:r

Als Genossenschaft gehören wir unseren Leser:innen. Und unser Journalismus ist nicht nur 100 % konzernfrei, sondern auch kostenfrei zugänglich. Texte, die es nicht allen recht machen und Stimmen, die man woanders nicht hört – immer aus Überzeugung und hier auf taz.de ohne Paywall. Unsere Leser:innen müssen nichts bezahlen, wissen aber, dass guter, kritischer Journalismus nicht aus dem Nichts entsteht. Dafür sind wir sehr dankbar. Damit wir auch morgen noch unseren Journalismus machen können, brauchen wir mehr Unterstützung. Unser nächstes Ziel: 50.000 – und mit Ihrer Beteiligung können wir es schaffen. Setzen Sie ein Zeichen für die taz und für die Zukunft unseres Journalismus. Mit nur 5,- Euro sind Sie dabei! Jetzt unterstützen

Mehr zum Thema

24 Kommentare

 / 
  • "KI" ist schon lange ein Menschheitstraum. Joseph Weizenbaum hat bereits 1966 mit Eliza demonstriert, wie bereitwillig Menschen einer Maschine Intelligenz zusprechen, die doch immer nur simuliert wurde. Forschungsinstitute und Firmen konnten sicher sein, dass mit "KI" ordentlich Gelder einzuwerben waren. Das ist heute noch viel schlimmer. Die Hauptprobleme von "KI" sind:

    - fehlende Nachvollziehbarkeit: Wenn man die korrekte Antwort nicht bereits kennt, ist es nicht möglich zu beurteilen, ob man gerade Quatsch serviert bekommt.

    - die endgültige Abschaffung von Verantwortlichkeit: Schon bisher hieß es bei komplexen technischen Problemen oft "Softwareproblem, kann man nichts machen", obwohl es eine Ausrede war, für Managementversagen. Das wird mit "KI" der default.

    Aus diesen Gründen ist "KI" für sämtliche Tech-Oligarchen auch so wichtig, sie aktualisieren gerade ihr Geschäftsmodell. Aus den gleichen Gründen springt auch die Politik auf den Zug auf - die Bereitschaft, Verantwortung für selbst verursachte Schäden zu übernehmen, ist auch dort traditionell gering ausgeprägt, Mit "KI" ist das dann endgültig vom Tisch.

  • „Ich persönlich habe daher gar keine Angst, dass große Sprachmodelle (…) irgendwann ein Bewusstsein entwickeln und sich gegen die Menschen wehren.”

    „Das heißt nicht, dass KI keine Gefahren birgt. Auch KI ohne Bewusstsein kann von Machthabern missbraucht werden. Und es gibt soziale Gefahren“

    „Dabei sind diese KI-Systeme eigentlich Zombies (…)“

    Meines Erachtens nach gibt hier grundlegenden Fehlannahmen, die zum Fehlschluss führen, dass KI ein Art Tool sei, das zwar missbraucht werden könne, damit aber lediglich gesellschaftliche Gefahren bergen würden. Gefahren, die sich noch ausreichend lange managen ließen.

    KI muss nicht bewusst sein, um aus sich heraus existenziell gefährlich werden zu können!



    Stichworte: Subgoals und Alignment-Problem

    Und auch nur als Tool kann es extrem gefährlich werden



    Stichwort: Synthetische Biologie (Spiegelbakterien), Technofeudalism

    Weiterführendes:



    - Geoffrey Hinton (Physiknobelpreis),



    - Mustafa Suleyman (The Coming Wave),



    - The Ezra Klein Show: www.youtube.com/re...New+york+times+agi



    - lesswrong.com

  • Die große Gefahr bei der KI besteht darin, dass ihr vielleicht zu viel Entscheidungsgewalt über Menschen eingeräumt wird / werden wird - besonders verheerend im militärischen Bereich und in der Überwachung.

    • @Andreas Kirchhof:

      Exactly.

  • Ich finde die Furcht vor der KI und der Vorstellung das sie doch irgendwann Wach wird sehr amüsant. Denn wollte sie uns Schaden so müsste Sie nur eins tun, sich zurück lehnen und zuschauen. Ich denke eher das eine erwachende KI ein große Hilfe beim lösen der vielen hausgemachten Probleme wäre. Für den Untergang der Menschheit brauchen wir keine Hilfe, das bekommen wir mit Gier und Dummheit auch so hin.

    • @Demorian:

      Es geht nicht darum, dass KI uns schaden will oder "wach" wird. Es geht darum, dass manche Menschen anderen Menschen schaden oder einfach nur nach Macht streben wollen, und das werden sie bald dank KI sehr viel besser können als bisher. Ich empfehle, sich einmal in die einschlägige Literatur dazu einzulesen. Z.B. thecompendium.ai oder den offiziellen international AI safety report (arxiv.org/abs/2501.17805)

  • Wenn ich gängige KI generierte Texte lese, Beispiele auf Google und Co. gibt es ja genug, dann zweifle ich sehr stark an Intelligenz und Geist....ich assoziieren das nicht mit einem Menschen....wenn das , was da getextet wird einem Menschen entspringt....dieser Person würde ich definitiv aus dem Weg gehen....

  • Ein sehr interessantes Interview, vielen Dank!



    Ich fürchte, den Orcas steht nicht nur ein Mangel an Händen zur weiteren Entwicklung im Weg - ihr Lebensraum lässt viele Entwicklungen einfach nicht zu, man denke nur an die Entdeckung des Feuers. Darüber hinaus dürfte diesen Wesen auch der Anpassungsdruck fehlen.

    Ich teile die Auffassung, dass K.I.-Systeme Intelligenz nur simulieren. Die größte Gefahr gwht dabei davon aus, wenn Entscheidungen allein auf den Ergebnissen der Rechenmaschinen getroffen werden, oder ihnen die Entscheidung gar selbst überlässt.

    • @Samvim:

      Letzterem stimme ich voll zu. Das müssen wir verhindern. Leider sieht es aber momentan nicht so aus, als würde die Politik das verstehen. Macron hat ja im Februar erst den eigentlich als KI-Sicherheits-Gipfel geplanten Gipfel zu einem KI-Aktions-Gipfel umgewidmet und gemahnt, Europa dürfe auf keinen Fall beim Wettrennen um "starke" KI ins Hintertreffen geraten. Wenn wir Pech haben, werden die Errungenschaften des EU AI Acts bald wieder einkassiert. Immerhin steht im Koalitionsvertrag der Begriff "KI-Sicherheit". Mal sehen, wie ernst man es damit meint. Wenn Sie besorgt sind: Man kann sich gut und sehr einfach engagieren, z.B. bei PauseAI oder ControlAI.

  • KI versus Schwarmintelligenz in der Praxis:



    "Diagnosesysteme mit Künstlicher Intelligenz (KI) sind beim Erkennen und Klassifizieren verbreiteter und eindeutig ausgeprägter Hauterkrankungen häufig treffsicher. Sobald eine Hauterkrankung jedoch seltener oder aber in ungewöhnlichen Konstellationen auftritt, ist die KI der menschlichen Schwarmintelligenz (Mehrheitsvotum einer Gruppe von Dermatologinnen und Dermatologen) und auch den Ergebnissen einzelner Ärztinnen und Ärzte unterlegen. Das zeigt eine aktuell in der Fachzeitschrift JDDG veröffentlichte Studie."



    Quelle derma.de



    Konsil unter Fachleuten statt Smartphone, eine sinnvolle Alternative nicht nur in der Medizin.



    Das richtige Netzwerk ist immer eine gute Idee.

    • @Martin Rees:

      So so, ein Dermatologenverein schreibt also, dass "die KI" Dermatologen unterliegen ist. Bei der aktuellen Geschwindigkeit der Weiterentwicklung von KI-Modellen und -Anwendungen, war vermutlich jede Studie, auf die sich die Aussage bezieht, schon bei ihrer Veröffentlichung veraltet.

  • Mit KI wird versucht, Intelligenz als Geist erscheinen zu lassen. Das ist schon ziemlich nah am menschlichen Potenzial. ;-)

  • Wenn Wale wirklich so intelligent sind, warum konnten sie die Walfänger vergangener Tage nicht durch weites, statt tiefes Tauchen austricksen?



    Sie sind zwar vor den Walfangbooten auf schützende Tiefe gegangen, aber brav in ihrer Nähe wieder aufgetaucht. Fertig zum Fertigmachen.



    Intelligent war das nicht! Und trug erheblich zu ihrer Dezimierung bei.



    Einfach weil es am Ende doch nur wenig intelligente Tiere sind.



    Das muss man einfach mal anerkennen, anstatt romantisierend menschliche Intelligenz hinein zu geheimnissen.

    • @Chris Teuber:

      Das wird ja auch erklärt: Die Orcas können ihr Wissen nicht sammeln, speichern und weitergeben. Ein toter Wal wird betrauert, aber nicht daraus gelernt, schon gar nicht so, dass es an andere Generationen und Gruppen weitergegeben werden könnte.



      Wenn das stimmt, dann sind Menschen dann besonders wenig menschlich, wenn sie sich in ihrer eigenen Gruppe einigeln und den Kontakt mit anderen ablehnen, also Rechte: Klingt plausibel, oder?

    • @Chris Teuber:

      Haben Menschen in ihrer Geschichte immer schlau entschieden? Ihre Schlächter meistens selbst zum großen Führer erwählt? Zu spät erkannt das sie einem Fänger auf dem Leim gegangen sind? Sind wir heute intelligent? Rotten Arten aus, sind gierig (Kapitalismus) kriegen kein halbwegs vernünfiges globales nachhaltiges Zusammenleben auf die Reihe...können eigentlich nichts, ausser techologischen Unfug erfinden, der auch noch den letzten Funken Verstand klaut? Mal ganz unromantisch



      Von einem Menschen....der solche Orcaverhalten Tagtäglich an der eignen Spezie erkennt....sich selbst natürlich eingeschlossen.

    • @Chris Teuber:

      War es von Menschen intelligent Hitler an die Macht zu wählen?

  • Die Aussagen zu biologischer Intelligenz von Prof. Markert sind hochinteressant, zu künstlicher Intelligenz liegt er aber daneben. Es ist ja auch überhaupt nicht sein Fachgebiet (jedenfalls hat er keine relevanten Publikationen zu Sprachmodellen oder dergleichen).

    Die Formulierung, das, was Sprachmodelle täten, sei "nur statistische Wahrscheinlichkeiten auf Basis der Trainingsdaten" verkennt vollkommen die kognitiven Fähigkeiten dieser Systeme. Wenn ich mit einem davon ein neuartiges mathematisches Problem aus meiner eigenen Forschung diskutiere, ist die Diskussion oft fruchtbarer als mit Student:innen aus dem achten Semester Mathematikstudium, und die sind meiner Erfahrung nach äußerst intelligent. Und zwar nicht, weil die KI Wissen wiederkäut, sondern weil sie es sogar im streng formalen Rahmen der Mathematik immer wieder schafft, kreative und originelle Ideen zu produzieren.

    Auch die völlig unbelegte Behauptung, Sprachmodelle hätten "kein Konzept von Reimen" ist angesichts der guten Testergebnisse bei Reim-Aufgaben (z.B. arxiv.org/html/2404.02456v2) zumindest gewagt...

    • @Jobst Heitzig:

      Herr Markert hat schon recht - alle Untersuchungen was so ein Algorithmus bei der Lösung komplexerer Sachverhalt macht zeigten, dass der Lösungsweg nur in Ausnahmefällen irgendetwas mit der Fragestellung zu tun hatte. Diese Programme werten große Datenbestände statistisch aus und nähern sich so dem Ergebnis, nicht mehr. Das klappt in der Mathematik verständlicherweise sehr gut, in anderen Bereichen eher nicht so. Dass das Userinterface dieser Programme mittlerweile sehr gut ist sollte uns nicht zu der Fehlannahme verleiten, dass es dort irgendwelche kognitiven Fähigkeiten gibt.

      • @Samvim:

        Die "Fehlannahme [...], dass es dort irgendwelche kognitiven Fähigkeiten gibt". Na, Sie scheinen sich ja bestens auszukennen, wenn Sie da – im Gegensatz zu den meisten Experten für KI – so sicher sind...

    • @Jobst Heitzig:

      Vielen Dank für Ihren Kommentar :)

      Und Ihre Kritik ist durchaus berechtigt. Das hier war aber auch nur ein sehr kurzes Interview zu gleich mehreren sehr komplexen Themen. Sie haben offenbar ein tieferes Verständnis von LLMs und da wäre eigentlich eine ausführlichere Diskussion angebracht.

      Auf jeden Fall kann ich klarstellen, dass ich nicht sagen wollte, LLMs könnten nicht reimen. Sie schreiben ja offensichtlich kompetente Gedichte. Was ich damit sagen wollte war, dass sie auch Gedichte schreiben und reimen können, ohne wirklich zu verstehen, was ein Reim ist und was daran "schön" ist. Dafür braucht es Bewusstsein und subjektive Empfindung. Sie erzeugen ja auch Bilder ohne zu verstehen, was abgebildet ist.

      Und sicherlich kann man mit LLMs intelligente und sogar kreative Gespräche führen. Aber das basiert ja tatsächlich "nur" auf statistischen Wahrscheinlichkeiten, wo jedes neue Wort aus dem bisher erzeugten Text generiert wird. Das sollte gar nicht unbedingt geringschätzig klingen. So kam es bei Ihnen scheinbar rüber. Aber eigentlich ist es ja erstaunlich, dass man damit einen Menschen so gut simulieren kann! Täuschend echt. Aber eben ohne Verständnis und Bewusstsein.

      • @Sebastian Markert:

        Danke für die Klarstellung!



        Bzgl. der Frage, ob ein System, das auf Aufforderung gut reimen kann (obwohl es *nicht explizit* darauf trainiert wurde, zu reimen!), "versteht", was reimen ist, sind wir offenbar unterschiedlicher Meinung. Um zu prüfen, ob jemand nach meiner Definition "versteht, was Reimen ist", würde ich denjenigen fragen, ob sie oder er eine Beschreibung von "Reimen" angeben kann, und die Person bitten, das mal vorzuführen. Ich würde vielleicht auch Beispiele von Reimen und Nicht-Reimen angeben und jeweils fragen, ob es sich um Reime handelt. Wenn die Person all dies zufriedenstellend tun kann, wäre ich sehr geneigt, dies als "Verständnis von Reimen" durchgehen zu lassen. Offenbar haben Sie aber ein anderes Verständnis von "Verständnis". Welches denn?

        • @Jobst Heitzig:

          Noch ein Nachtrag: Alle LLM-basierten Chatbots sind übrigens nicht allein darauf trainiert, Wort für Wort (oder Token für Token) jeweils ein plausibles nächstes Wort (oder Token) auszuspucken. Das ist nur das "Pre-Training". Die meisten jetzigen Modelle, insbesondere die "Reasoning" Modelle, sind nach dem Pre-Training in einer ganzen Reihe weiterer Phasen weiter trainiert worden, die nichts mit statistischen Wahrscheinlichkeiten von Wörtern zu tun haben, sondern darauf basieren, dass Menschen und andere KI-Systeme immer wieder ganze Antworten oder Zwischen-"Gedanken", oder gar ganze Chat- oder Gedankenverläufe anhand einer Reihe von Kriterien (wie hilfreich, harmlos, wahrheitsgemäß, norm-folgend, etc.) bewerten und das "Verhalten" des Systems auf Basis dieser Bewertungen ähnlich wie bei der Abrichtung von Tieren "belohnt" oder "bestraft" wurde (das nennt man dann "Reinforcement Learning"-basiertes "Post-Training" oder "Fine-Tuning").

      • @Sebastian Markert:

        Auch von meiner Seite vielen Dank für das spannende Interview.

        Der philosophische Ansatz zur Definition von Intelligenz im Interview erinnert mich stark an die IIT (Integrated Information Theory) – stimmt dieser Eindruck? Für die Leser wäre es sicher hilfreich gewesen, die verwendete Intelligenzdefinition klarer herauszuarbeiten, auch wenn die Kürze des Formats das vielleicht erschwert hat.

        Die Diskussion hier in den Kommentaren bestärkt meine Tendenz, Intelligenz – ähnlich wie Joscha Bach – primär als die Fähigkeit zur Modellerstellung zu betrachten, was ja eher in den Bereich der Kybernetik fällt. Das Interview unterstreicht aber auch schön, dass hohe Intelligenz allein nicht genügt; entscheidend ist ebenso, was modelliert wird.

        Bei den Orcas zum Beispiel, die für ihre komplexen sozialen Strukturen bekannt sind, könnte man durchaus hochentwickelte Modelle des Soziallebens und der Emotionen vermuten. Gleichzeitig fehlt ihnen aber wahrscheinlich eine ausreichend komplexe Sprache und die Mittel, um Wissen über Generationen hinweg systematisch weiterzugeben und zu speichern.

        • @top1:

          Tatsächlich stütze ich mich sehr stark auf die IIT! Für mich das spannendste und "wissenschaftlichste" Modell von Bewusstsein, das es gerade gibt. Leider wurden einige dieser Nuancen und Zusatzinformationen gekürzt. So ein Interview kann eben eine Diskussion nur anregen, aber nicht ersetzen :)

          Wie komplex die Sprache der Orcas tatsächlich ist, ist noch nicht so ganz klar. Es mangelt an guten Daten. Ich wünschte, für solche Projekte würde mal mehr Forschungsgeld locker gemacht. Vielleicht kann man da auf Crowd Funding setzen? Wäre interessant.