piwik no script img

Künstliche IntelligenzDie Deutschen waren früh dran

1988 entstand das Deutsche Forschungszentrum für KI – also lange Zeit vor Google, Amazon und Meta. Warum wurde ChatGPT dennoch in den USA entwickelt?

Deutsche waren mal führend: Ein Mitarbeiter des Forschungszentrums für KI demonstriert im Jahr 1995 ein Sprachmodell Foto: Norbert Försterling/dpa/picture alliance

Berlin taz | Donald Trump steht und hebt die Faust, nachdem er den Mordanschlag im Juli 2024 knapp überlebt hat. Die Leibwächter drumherum machen amüsierte Gesichter. Ist dieses Foto wahr oder gefälscht? Ein KI-Programm findet es schnell heraus. In diesem Fall stammt die Künstliche-Intelligenz-Software aus Deutschland – und mal nicht aus den USA oder China.

Um die Frage zu beantworten, sucht das Programm zum Beispiel weitere Fotos vom Attentat im Internet, vergleicht sie, prüft die Aufnahme-, Bearbeitungsdaten, Quellen und präsentiert die Ergebnisse auf einer übersichtlichen Seite. Das ist eine große Hilfe für Journalist:innen, die schnell die Echtheit von Fotos kontrollieren müssen. Das Ergebnis lautet „Fake“. Denn auf diesem Foto wurden die freudigen Gesichter manipuliert und Personen hinzugefügt, die tatsächlich nicht da waren.

Gretchen AI (Artificial Intelligence) heißt die Firma, die das Programm entwickelt. Inspiriert von Goethes Faust soll es Gretchenfragen beantworten wie „Lüge oder Wirklichkeit?“ Dafür stellt Sprind, die Bundesagentur für Sprunginnovationen, bis zu 700.000 Euro Fördermittel zur Verfügung. Das Rechercheprodukt zur Aufdeckung von schwer zu erkennenden Desinformationen – sogenannten Deepfakes – basiert auf längerer Zusammenarbeit mit der Deutschen Presseagentur. Ende dieses Jahres soll es wohl marktreif sein.

„Aber unsere Technik kann man auch für weitere Zwecke verwenden“, sagt Co-Gründer Tim Polzehl. „Schließlich geht es grundsätzlich um das Finden und Verifizieren von Texten, Fotos, Tönen und anderen Medieninhalten.“ Gelingt es zum Beispiel dem Kunden eines In­ter­net­an­bie­ters nicht, seinen neuen Rooter anzuschließen, könnte die jeweilige Firmen-Hotline anhand eines hochgeladenen Fotos automatisiert feststellen, dass das Datenkabel in der falschen Buchse steckt. Mit solchen und anderen Anwendungen will Gretchen AI von 2026 an am Markt Geld verdienen.

Warum hinkt Europa so hinterher?

Komplett selbst ausgedacht hat sich die Firma ihr Programm nicht. Es ist abgeleitet von sogenannten Großen Sprachmodellen aus den USA, die ähnlich wie ChatGPT selbstständig sinnvolle Texte produzieren können. Auf dieser Grundlage entstand mittels einer speziell trainierten Datenarchitektur ein kleineres Expertenmodell, wie Daniel Röder erklärt, ein anderer Co-Gründer des Berliner Start-ups.

Damit stellen sich weitere Gretchenfragen: Warum kommen die großen Sprachmodelle aus den USA oder China, nicht aber aus Europa? Angesichts der wirtschaftlichen und politischen Neuaufteilung der Welt könnte es durchaus Vorteile für die ökonomische Unabhängigkeit und die technologische Souveränität des Kontinents bieten, wenn hier eigene Modelle entwickelt würden.

Die Deutschen waren bei KI früh dran

Bei der Suche nach Antworten hilft das Deutsche Forschungszentrum für Künstliche Intelligenz mit seiner Niederlassung am Berliner Spreeufer weiter. Das DFKI, an dem etwa 1.500 Forschende überwiegend mit öffentlichen Mitteln arbeiten, wurde schon 1988 gegründet. Damit waren die Deutschen bei dem Thema eigentlich früh dran. Die heutigen Hard- und Softwareriesen Microsoft und Apple waren noch klein, Google, Amazon und Facebook gab es gar nicht.

Als Expertin für maschinelles Lernen braucht DFKI-Forscherin Vera Schmitt bei ihrer Arbeit immer wieder extrem leistungsstarke Computer. Deshalb kooperiert sie oft mit dem ebenfalls vorwiegend staatlich finanzierten Forschungszentrum Jülich. „Dort muss man die Nutzung von Rechenleistung allerdings beantragen“, berichtet Schmitt. Die Nutzungszeiten sind beschränkt. Klappt irgendetwas nicht, kann es beim neuen Antrag zu Wartezeiten kommen. Das Rechenzentrum Jülich ist technisch zwar auf modernstem Stand, seine Rechenkapazität aber oft ausgebucht, weil es so viele Forschende nutzen wollen.

Es fehlt an Kapital und Rechenleistung

Um bei der Künstlichen Intelligenz mithalten zu können, mangelt es in Deutschland also anscheinend an Rechenkapazität, nicht nur in den teilweise öffentlich bezahlten Einrichtungen. Auch die Datenzentren von Unternehmen weisen eine deutlich geringere Rechenleistung auf, als sie Forschenden und Ent­wick­le­r:in­nen in den USA und China zur Verfügung steht.

Der Grund dafür? „Hierzulande fehlt es oft an Kapital“, sagt Andreas Schepers, Sprecher des DFKI in Berlin. Bevor ein Unternehmen ein Programm wie ChatGPT auf die Welt loslässt, sind Milliarden US-Dollar in Entwicklung, Rechnerleistung und Datentraining geflossen. Diese großen Summen investieren Kapitalgeber in den USA offenbar eher als Finanziers in Europa. Hier reichen die Mittel nur für kleinere Modelle und Programme, die Spezialaufgaben erledigen – wie etwa die Deepfake-Erkennung von Gretchen.

Hunderte Unternehmen entwickeln KI

Jörg Bienert, Vorstand des KI-Bundesverbands, teilt die Analyse. „In den USA stehen KI-Unternehmen mehr Kapital und Rechnerleistung zur Verfügung.“ Seiner Einschätzung nach „hat das teilweise mit der mangelnden Risikobereitschaft europäischer Investoren zu tun“. In dieser Lesart sind US-Firmen und Geldgeber bereit, größere Summen lockerzumachen, selbst wenn das Risiko des Verlusts nicht von der Hand zu weisen ist. Gedeckt wird die Einschätzung durch eine Untersuchung der Unternehmensberatung EY von 2024, derzufolge die Forschungs- und Entwicklungsausgaben großer US-Aktiengesellschaften deutlich über denen entsprechender EU-Firmen liegen.

Trotz des Rückstandes gegenüber den USA und neuerdings auch China arbeiten hierzulande aber Hunderte, wahrscheinlich Tausende kleine und mittlere Unternehmen, die von modernen KI-Produkten gut leben. Zum Beispiel die Merantix Gruppe in Berlin, die unter anderem als Investor, Entwickler und Beratungsfirma agiert. In der weitläufigen Besprechungsetage, wo sich die Sitzgruppen zwischen großen grünen Pflanzeninseln verstecken, erklärt Medizininformatiker Thomas Wollmann ein Beispielprojekt.

Europäer interessieren sich für spezielle Anwendungen

Für das Pharmaunternehmen Boehringer Ingelheim entwickelte Merantix ein KI-Programm, das stundenlange Tiervideos auf das Verhalten von Mäusen hin analysiert, denen Wirkstoffe für neue Arzneimittel verabreicht wurden. „Der KI-Algorithmus kann manche Aufgaben schnell und gut erledigen und den Menschen massiv unterstützen“, sagt Wollmann. Für ihn zeigt das gleichzeitig, wie europäische Unternehmen mit KI umgehen. Sie interessierten sich besonders für „spezielle Endanwendungen, und nicht nur für breite Grundlagentechnologien“.

KI-Verbandsvorstand Bienert, der auch Partner bei der Merantix-Tochter Momentum ist, betrachtet eine solche Haltung allerdings skeptisch. „Dass europäische Unternehmen keine großen KI-Modelle entwerfen, aber mit Spezialanwendungen Geld verdienen wollen, halte ich für eine Ausrede und einen Fehler.“ Denn die großen Modelle seien „die Basis für die nächsten Schritte, etwa die humanoide Robotik“ – Maschinen, die menschliche Bewegungen und Verhaltensweisen kopieren. „Europa braucht so etwas wie ein Airbus-Projekt für die KI“, fordert Bienert.

Das europäische Airbus-Konsortium ist neben US-Konkurrent Boeing der führende ­Flugzeugbauer weltweit. Vielleicht hatte EU-Kommissionspräsidentin Ursula von der Leyen auch dieses Vorbild im Kopf, als sie im Februar 2025 den neuen Fonds für sogenannte KI-Gigafabriken in Höhe von 20 Milliarden Euro ankündigte. Ein solches extrem leistungsstarkes Rechenzentrum geht demnächst in Jülich in Betrieb – die „Jupiter“ genannte KI-Fabrik. Viele For­sche­r:in­nen hoffen darauf, dass sich die Knappheit an Rechenkapazität damit zumindest vorläufig verringert.

taz lesen kann jede:r

Als Genossenschaft gehören wir unseren Leser:innen. Und unser Journalismus ist nicht nur 100 % konzernfrei, sondern auch kostenfrei zugänglich. Texte, die es nicht allen recht machen und Stimmen, die man woanders nicht hört – immer aus Überzeugung und hier auf taz.de ohne Paywall. Unsere Leser:innen müssen nichts bezahlen, wissen aber, dass guter, kritischer Journalismus nicht aus dem Nichts entsteht. Dafür sind wir sehr dankbar. Damit wir auch morgen noch unseren Journalismus machen können, brauchen wir mehr Unterstützung. Unser nächstes Ziel: 50.000 – und mit Ihrer Beteiligung können wir es schaffen. Setzen Sie ein Zeichen für die taz und für die Zukunft unseres Journalismus. Mit nur 5,- Euro sind Sie dabei! Jetzt unterstützen

Mehr zum Thema

12 Kommentare

 / 
  • Es ist eigentlich nichts Neues, dass Grundlagen und Voraussetzungen der jetzigen "KI" in den deutschen 80ern geschafffen worden waren, z.B. Jähne, Digitale Bildverarbeitung, 1. Auflage 1989. Es ist aber ganz gut, dass mal breiter darüber berichtet wird.



    de.wikipedia.org/wiki/Bernd_Jähne

  • Das ist besonders ernüchternd, wenn man das mal mit den vorherigen industriellen Revolutionen vergleicht, wo Deutschland ganz vorne dabei war und wovon wir bis heute noch zehren.

    Nur: Das dünnt sich immer weiter aus und es kommt heute schlicht nichts mehr nach.

    Die Risikoscheu ist nicht auf die Geldgeber beschränkt, sondern zieht sich durch die ganze Gesellschaft. Sieht man auch hier in den Kommentaren immer wieder.

  • Es gibt noch einen weiteren Grund für das Hinterherhinken. Hierzulande stürtzt man sich in der öffentlichen Wahrnehmung und Verbreitung immer auf den erstbesten Aufschneider, der einem das Blaue vom Himmel verspricht oder eine auf Checker macht (in diesem Fall Aleph Alpha und Jonas Andrulis). Woran das liegt, ist mir ein Schleier. Aber da enorm viele journalistische Erzählungen den Satz "Mathe war nie so meins" (manchmal auch Naturwissenschaften), schwant mir was. (erst gestern zwei mal in einem Bericht über den Lehrer des Jahres gehört)...

  • Ich erinnere an Helge Ritter (Uni Bielefeld) et al., deren Forschungen zu neuronalen Netzen ich schon in den 1980ern verfolgt habe. Die Konzepte waren alle schon da, inzwischen sind die Algorithmen lediglich verfeinert worden und es gibt mehr Rechenpower.

    • @PeterArt:

      Ich ebenso. Wie auch Raúl Rojas an der TU Berlin... Allerdings stimmt nicht, dass die Konzepte "lediglich verfeinert worden" sind. Es ist schon ein qualitativer Fortschritt dazu gekommen...

  • Die Frage ist doch: Warum ist Risikokapital in den USA leichter zu bekommen?



    Die Antwort gebe ich gerne: Weil die Renditeerwartungen in größeren Einheiten und zudem englischsprachig größer sind, weniger besteuert werden und wirtschaftliche Erfolge von der Gesellschaft honoriert werden. Geradezu angestrebt werden: 60% der US Amerikaner sind Aktionäre und freuen sich über steigende Kurse von ehemaligen Startups und etablierten Gesellschaften.



    Das ist bei uns alles nicht gegeben. Daher sind unsere Startups auf (viel bescheidenere) öffentliche Gelder angewiesen, sprich Forschungsanträge schreiben die begutachtet werden müssen. In größeren Maßstäben denken und global erfolgreich sein ist daher kaum möglich. Folge: Gute Ideen wandern ab, Talente wandern ab.... in die USA. Wo nochmal ist die deutsche Biontech an der Börse gelistet, da dort das Kapitalumfeld vorteilig ist?



    Solange wir hier diesbezüglich keinen Mentalitätswechsel hinbekommen, dass (wirtschaftlicher) Erfolg was Cooles ist und auch Steuereinnahmen erhöht, wird das nicht besser.

  • Weil Europäer*innen auf isntitutionellen Ebenen Datenschutz und Copyright ernster nehmen als die USA.

    Dort wurde korrekterweise die Welt so gesehen, dass, wenn es klappt oder Geld bringt Fremdaten massenhaft zu verarbeiten und zu sammeln keine Konsequenzen zu tragen wären.

    Ein von sich aus freies Netz hätte ChatGPT auch entwickeln können, dafür wäre allerdings der Ausschluss von Kommerz in den Lizenzen essenziell gewesen.

    Nun gibt es viele "Walled Gardens" die mit der Arbeit der Nutzer*innen gepflanzt worden sind, aber Paywallschranken Dividende verlangen, ChatGPT hat diese allerdings auch schon alle durchsucht.

    Ebenso sind "Schattenbibliotheken" vom Wissen der Welt ein Zugang für LLMs, wie ChatGPT richtig gennant werden müsste. Diese existieren durch Menschen wie Aaron Schwartz, Anna & PiLiMi, und jene die Bücher oder Journals digitalisiert haben.

    Jene offenen Daten sind was den Fundus des Wissensfortschritt ausmachen könnte, würde das FBI, das LG Hamburg, die Tribunale für Welthandel nicht die Dominanz der Datenkonzerne aufrecht erhalten.

  • "1988 entstand das Deutsche Forschungszentrum für KI – also lange Zeit vor Google, Amazon und Meta. Warum wurde ChatGPT dennoch in den USA entwickelt?"



    Hohe Steuern, viel zu viel Regulierung/ behördliche Hürden/ unendlich lange Genehmigungswege - und: in Deutschland wird einem Erfolg geneidet. Statt erfolgreiche Menschen zu loben und als Vorbild anzuerkennen wird hier immer sofort gemeckert, höhere Steuern für sie gefordert, etc...



    Da herrscht in den USA - und noch mehr in Asien - eine völlig andere Wertschätzung. Da wirst du für Erfolg bewundert, hier kannst du dir noch drei Kameras mehr ums Haus hängen und der Porsche muss nachts in die Garage...



    Das war nicht immer so, die Neidkultur hat in den letzten Jahrzehnten stark an Fahrt aufgenommen - hier müsste mal wieder ein gesundes Wertebild von Medien und Politik gesetzt werden.

    • @Farang:

      Sieht man ja, was in den USA der unregulierte Reichtum so alles hinbekommen hat. Trump, Musk und Co ... Nein danke, auf sowas kann ich gerne verzichten.



      Die Definition von "Erfolg" müsste mal überarbeitet werden ...

  • „Warum wurde ChatGPT dennoch in den USA entwickelt? "



    taz.de/picture/771...Gaza-Israel-1.jpeg

  • Na so klein war Apple 1988 nun auch nicht, mit 3 Milliarden Börsenwert (ähnlich Microsoft). Steve Jobs war damals jedenfalls schon Milliardär ... beim DFKI bis heute vermutlich niemand. ;)