: Who's talking? Von Mathias Bröckers
Was Noam Chomsky berühmter gemacht hat – seine Theorie der Sprache oder seine Kritik des Vietnam-Engamenents und der US-amerikanischen Kultur – ist schwer zu entscheiden. Fest steht nur, daß kaum ein Bereich der Wissenschaft derart von der Idee einer einzigen Person dominiert wird wie die Linguistik von Chomskys „generativer Grammatik“. Nicht die Eltern bringen uns unser Gefühl für Grammatik und Satzbau bei, wie der Behaviorismus behauptete, sondern die Gene; unsere Sprachbegabung, so Chomskys These, ist genetisch vorprogrammiert. Allen Sprachen liegen gemeinsame Regeln zugrunde, die Kinder nicht einfach durch Zuhören lernen können. Sie müssen über angeborene Fähigkeiten verfügen, die sie in die Lage versetzen, aus einer begrenzten Zahl von Beispielen eine unendliche Zahl richtiger Sätze zu produzieren. Diese Idee wurde schnell zur neuen Orthodoxie der Linguistik und Chomsky zum Klassiker zu Lebzeiten – in dem uralten Streit zwischen Rationalisten und Empirizisten schienen erstere damit einen Sieg davongetragen zu haben: Chomskys angeborene Grammatik schien klar dafür zu sprechen, daß Wissen nicht allein durch Lernen zustande kommt. Liegt uns also der Verstand, oder zumindest einige seiner zentralen Regeln, im Blut? Noch ist die Forschung weit davon entfernt, so etwas wie eine biologische Spur der Grammatik oder gar ein Sprach-Gen entdeckt zu haben. Und eine Gruppe von Neuro- und Computerwissenschaftlern, die sogenannten Konnektionisten, behauptet sogar, daß es ziemlicher Unsinn sei, danach zu suchen, weil Sprache durchaus auch ohne angeborene Regeln zu lernen sei. Zu diesem kühnen Schluß kamen sie bei ihren Versuchen, Computer so zu vernetzen wie die Neuronen eines Gehirns und ihnen den korrekten Gebrauch von Sprache beizubringen. Der Sprachforscher Jeffrey Ellman von der Universität San Diego etwa fütterte ein neuronales Netzwerk aus 212 Rechnereinheiten mit 40.000 Sätzen, und es gab, ohne irgendeine eingebaute Regel, fortan korrekte Grammatik von sich – wenn auch nur mit einem Wortschatz von 23 Worten. Das Wunder beruht auf der Eigenart solcher konnektionistischer Maschinen, Information nicht zu speichern, sondern sie als ein bestimmtes Schaltungsmuster ständig durch das ganze System kreisen zu lassen. Jedes Folgewort eines neuen Satzes wird mit den Mustern richtiger Sätze verglichen und entsprechend bewertet. „Ellman's Netzwerk zeigt“, so der New Scientist (Nr. 1858), „daß das grammatische Wissen eines Kindes statt auf Regeln lediglich auf statistischen Informationen über die Beziehungen zwischen verschiedenen Wortarten beruhen könnte.“ Informationen, wie sie durchaus aus den Beispielsätzen gezogen werden könnten, die Mama und Papa den Kleinen vorplappern. Noch sind die connection-machines zu tumb, um Chomskys einfacher Lösung des Wunders der Sprache wirklich Paroli zu bieten. Je realistischer diese Netzwerke aber werden, und je mehr sie sich der Rechengeschwindigkeit des formidablen Bio-Computers Gehirn annähern, desto spannender wird die Debatte werden. Who's talking? Wir wissen es neuerdings wieder ein bißchen weniger.
taz lesen kann jede:r
Als Genossenschaft gehören wir unseren Leser:innen. Und unser Journalismus ist nicht nur 100 % konzernfrei, sondern auch kostenfrei zugänglich. Texte, die es nicht allen recht machen und Stimmen, die man woanders nicht hört – immer aus Überzeugung und hier auf taz.de ohne Paywall. Unsere Leser:innen müssen nichts bezahlen, wissen aber, dass guter, kritischer Journalismus nicht aus dem Nichts entsteht. Dafür sind wir sehr dankbar. Damit wir auch morgen noch unseren Journalismus machen können, brauchen wir mehr Unterstützung. Unser nächstes Ziel: 40.000 – und mit Ihrer Beteiligung können wir es schaffen. Setzen Sie ein Zeichen für die taz und für die Zukunft unseres Journalismus. Mit nur 5,- Euro sind Sie dabei! Jetzt unterstützen