: Energiewende in der Künstlichen Intelligenz
KI-Systeme brauchen viel Energie. Wissenschaftler der Universität Kiel haben nun Hardware konstruiert, die ebenso sparsam arbeiten soll wie das menschliche Gehirn
Von Leopold Pelizaeus
Was unser Gehirn besonders macht, ist nicht unbedingt seine Rechenleistung. Ein echtes Alleinstellungsmerkmal ist sein Energieverbrauch. Das chinesische Brettspiel Go ist ein gutes Beispiel. Ähnlich wie Schach ist es hochkomplex und bedarf Jahre der Übung. 2015 gelang es dem von Google entwickelten KI-Programm „AlphaGo“ erstmals, einen Menschen zu besiegen. Doch während des menschliche Gehirn etwa 25 Watt für solche Denkaufgaben benötigt, verbraucht ein gleichstarkes Computerprogramm rund drei- bis viermal so viel Energie.
Dass künstliche Intelligenz so viel Energie verbraucht, hat mit der Hardware zu tun, auf der sie läuft: große Mengen enorm leistungsstarker Siliziumchips. Die sind zwar für Rechenaufgaben gut geeignet, brauchen aber für Mustererkennung oder Textgenerierung viel Energie. Unser Gehirn hingegen arbeitet nach
Millionen Jahren Evolution hocheffizient. Von 86 Milliarden Neuronen im Gehirn sind nie alle gleichzeitig aktiv, sondern nur diejenigen, die für Informationsverarbeitung zentral und unverzichtbar sind.
„Unser Gehirn vereint Speicher und CPU und ist flüssigkeitsdurchströmt. Das hat zwei Vorteile: die Kühlung und die Energieversorgung“, sagt Rainer Adelung, Professor für Funktionale Nanomaterialien an der Uni Kiel. „Alle Neuronen sind direkt mit Energie versorgt und können Spannungen durch ein fluides Medium weitergeben. Im Grunde müssten wir Speicherchips und CPUs pürieren und in die Batterie stopfen, dann hätten wir auch kein Temperaturproblem im PC mehr.“
Wissenschaftler der Uni Kiel haben nun ein Paper vorgelegt, in dem sie erstmals Hardware-Komponenten vorstellen, die sich am menschlichen Gehirn orientieren. Sogenannte „Memristoren“ – gebildet aus „Memory“ und „Resistor“ – sind Speicher und elektrischer Widerstand in einem. Sie sollen ähnlich effizient arbeiten wie das menschliche Gehirn. Die Hardware ist eine Art künstliche Synapse.
Doch um das Gehirn nachzubauen, muss man erst verstehen, wie es arbeitet. Das Forscherteam hat sieben Dimensionen ausgemacht, die das menschliche Gehirn beschreiben. Zunächst werden Informationen in einem dreidimensionalen Netzwerk aus Neuronen verarbeitet. Diese Neuronen verknüpfen sich untereinander selbstständig und fortlaufend. Diese sogenannte Plastizität, also das Formen und Auflösen von synaptischen Verbindungen dort, wo sie nötig sind, ist zentrale Voraussetzung für Erinnern.
Im Optimalzustand arbeitet das Gehirn an der Schwelle zwischen chaotischer Unordnung und rigider Starre. An diesem Übergang, der „Kritikalität“, hat es genug Stabilität und Gestaltungsraum zugleich, um synaptische Verbindungen zu bauen. Weiterhin synchronisieren sich Neuronenimpulse, bei Sinneswahrnehmung aus der Umgebung.
Maik-Ivo Terasa, Hauptautor der Kieler Studie
Zuletzt ist das Nervensystem hierarchisch und modular aufgebaut, viele kleine Netzwerke ergeben also ein großes. Diese Bauart macht es relativ unempfindlich gegenüber Verletzungen. „Das sind Gegenpole“, sagt Hermann Kohlstedt, „man will etwas Robustes haben, dass gleichzeitig auf die Umgebung reagieren kann. Das können biologische Systeme extrem gut.“ Kohlstedt ist Professor für Nanoelektronik und Sprecher des Forschungsprojektes.
Wie übersetzt man diese Prinzipien in Hardware? Die Kieler Forscher wählten mehrere Experimente, um möglichst viele der sieben Hirnfunktionen abzudecken. In einem Test maßen sie die Leitfähigkeit von Silber-Gold-Nanopartikeln in einer Flüssigkeit: Als die Forscher ein elektrisches Signal anlegten, ordneten sich die Partikel selbstständig, um es weiterzuleiten. Ähnlich wie die Synapsen im Gehirn fanden die Partikel einen Weg, Informationswege zu legen – und ähnlich wie das Gehirn taten sie dies nahe der Kritikalität.
In weiteren Experimenten wurden Zinkoxid-Nanopartikel und elektrochemisch gebildete Metallfilamente untersucht: Erstere erwiesen sich als besonders robust, letztere synchronisierten ihre elektrischen Signale und waren modular aufgebaut. „Es gibt noch kein System, das alles kann. Jetzt ist die Aufgabe, eines zu bauen, das so viele Kriterien wie möglich erfüllt“, sagt Maik-Ivo Terasa. Er promoviert in dem Projekt und ist Hauptautor der Studie. „Es geht darum, etwas Neues zu schaffen, dass die siliziumbasierten Architekturen ergänzen kann und Dinge tun kann, die Siliziumrechner nicht gut können.“
Die neuen Hardware-Teile könnten in KI-Systemen im Auto verbaut werden oder den Weg zu humanoiden Robotern ebnen. „Als Nächstes könnten wir bei Chatbots mit Armen und Beinen ankommen“, sagt Adelung. „Die Menschheit hat es fast geschafft, körperliche Arbeit auszulagern. Dann können wir über philosophische Fragen, nach dem Lebenssinn nachdenken. Das ist ein bisschen wie bei ‚Per Anhalter durch die Galaxis‘: Wir haben die Antwort, jetzt können wir über die Frage nachdenken.“
taz lesen kann jede:r
Als Genossenschaft gehören wir unseren Leser:innen. Und unser Journalismus ist nicht nur 100 % konzernfrei, sondern auch kostenfrei zugänglich. Texte, die es nicht allen recht machen und Stimmen, die man woanders nicht hört – immer aus Überzeugung und hier auf taz.de ohne Paywall. Unsere Leser:innen müssen nichts bezahlen, wissen aber, dass guter, kritischer Journalismus nicht aus dem Nichts entsteht. Dafür sind wir sehr dankbar. Damit wir auch morgen noch unseren Journalismus machen können, brauchen wir mehr Unterstützung. Unser nächstes Ziel: 40.000 – und mit Ihrer Beteiligung können wir es schaffen. Setzen Sie ein Zeichen für die taz und für die Zukunft unseres Journalismus. Mit nur 5,- Euro sind Sie dabei! Jetzt unterstützen