Ethik für Künstliche Intelligenz: Wo Schwaben Kalifornien sein will

Das Tübinger Cyber Valley will transparent und fair künstliche Intelligenz entwickeln – Hand in Hand mit Milliardenkonzernen wie Amazon und BMW.

Ein Roboterarm liegt auf einem grünen Tisch

Das Modell eines Roboterarms im Labor des Max-Planck-Instituts für intelligente Systeme in Tübingen Foto: Wolfram Kastl/dpa/picture alliance

Der Ort, an dem die Zukunft entstehen soll, sieht ziemlich trist aus. An einem regnerischen Morgen kurz vor Weihnachten versprüht das Zentrum der europäischen Forschung für künstliche Intelligenz (KI) nicht den Innovationsgeist, den man sich hier verspricht. Wer bei dem Namen Cyber Valley an riesige Glasgebäude und Tesla-Fuhrparks denkt, der wird im Tübinger Stadtteil Waldhäuser-Ost enttäuscht. Grimmige Parkplatzwächter mustern vorbeifahrende E-Smarts, Baukräne flankieren die leeren Straßen.

Hier, auf einer ehemaligen Viehweide in der schwäbischen Stadt mit ihren 90.000 Einwohnern, will Europa in der KI-Forschung schnellstmöglich zu den USA und China aufschließen. Und eine Sache grundlegend anders machen: Im Ländle soll möglichst transparent, im Diskurs mit der Gesellschaft und mit Weitsicht für ethische Konflikte geforscht werden. Aber wie kriegt man gesellschaftliche Werte und Normen in eine Maschine? Ist dieser Anspruch in einem Feld, in dem es hochkompetitiv zugeht und kaum So­zi­al­wis­sen­schaft­le­r:in­nen arbeiten, überhaupt realistisch?

Gegründet wurde das selbsternannte Ökosystem Cyber Valley vor etwa sechs Jahren vom Land Baden-Württemberg, zusammen mit den Universitäten Tübingen und Stuttgart sowie der Max-Planck-Gesellschaft. Mit an Bord waren von Beginn an auch sieben Konzerne, darunter Amazon, BMW und Bosch.

Dieser Text stammt aus der wochentaz. Unserer Wochenzeitung von links! In der wochentaz geht es jede Woche um die Welt, wie sie ist – und wie sie sein könnte. Eine linke Wochenzeitung mit Stimme, Haltung und dem besonderen taz-Blick auf die Welt. Jeden Samstag neu am Kiosk und natürlich im Abo.

Über 1.000 Forschende arbeiten an den beiden Standorten. Dabei soll es nicht bleiben: Die Stiftung des SAP-Gründers Hans-Werner Hector investiert 100 Millionen in ein weiteres KI-Labor, die schwarz-grüne Landesregierung schießt noch 180 Millionen Euro in die Initiative. Danyal Bayaz, baden-württembergischer Finanzminister der Grünen, sagt: „Wir wollen Quellen künftigen Wohlstands erschließen.“ Das Land investiere, „damit Baden-Württemberg das Kalifornien Europas wird.“

Schwarzwald-Retreat und Yoga auf dem Dach

Im Tübinger Max-Planck-Institut für Intelligente Systeme kommt bereits die Tech-Start-Up-Stimmung auf, von der im Silicon Valley so gerne gesprochen wird. Auf Glaswänden in den Küchenecken stehen handgeschriebene Formeln. Im Aufzug hängt die Einladung zu einem mehrtägigen Retreat im Schwarzwald, und auf der Dachterrasse mit Panoramablick auf die schwäbische Alb kann man sich eine Yogamatte vom Ständer greifen.

Ein paar Stockwerke tiefer sitzt Wieland Brendel, Fleecejacke, Dreitagebart, auf einem Barhocker und nippt an einem Espresso. Die Wörter schießen nur so aus dem 36-Jährigen, der besonders herzlich über makabre Witze lacht. Brendel leitet eine Forschungsgruppe, die Maschinen menschliches Sehen beibringen will. Eines seiner Projekte wurde dieses Jahr auf der Klimakonferenz in Ägypten vorgestellt: Ein vollautomatischer Roboter, der sich in unbekannter Umgebung bewegen, Äpfel pflücken oder Unkraut jäten kann. Was hat das mit Ethik und Moral zu tun? „Ich kann den Roboter als persönlichen Gärtner halten, aber natürlich kann da auch jemand ein Gewehr draufpacken“, sagt Brendel. Ob und wie seine Ergebnisse eines Tages zweckentfremdet werden, könne er als Forscher zum jetzigen Zeitpunkt kaum beeinflussen. KI und Machine Learning sind für Brendel eine Basistechnologie, ähnlich wie ein Motor: „Damit kann ein Krankenwagen genauso fahren wie ein Panzer.“ Die Folgen solch grundlegender Forschung in zehn oder zwanzig Jahren könne man heute noch nicht absehen, sagt er.

Um die Forschenden im Cyber Valley anzuregen, sich mit den gesellschaftlichen Folgen ihrer Arbeit auseinanderzusetzen, wurde vor drei Jahren extra ein Gremium geschaffen: Das Public Advisory Board, einberufen vom baden-württembergischen Wissenschaftsministerium. Der Beirat bewertet die eingereichten Forschungsanträge.

„Wir sind keine Forschungspolizei“

Bevor die Anträge genehmigt werden, landen sie im Postfach von Regina Ammicht Quinn. Die Ethik-Professorin der Uni Tübingen ist Sprecherin des neunköpfigen Gremiums. Gleich zu Beginn des Videogesprächs stellt die 65-Jährige klar: „Wir sind keine Forschungspolizei.“ In dem ehrenamtlichen Beirat sitzen Ethiker:innen, ein Lehramtsstudent, eine Tech-Aktivistin und eine Grünen-Gemeinderätin aus Tübingen. Fast 60 Anträge haben sie in drei Jahren gelesen und in den meisten Fällen bei den Forschenden nachgehakt: In welchem Feld sollte die Forschung am besten angewendet werden? Wo auf keinen Fall?

Unter den 21 finanzierten Projekten finden sich ein intelligenter Lernassistent für Schü­le­r:in­nen oder künstliche Organe, die Berührungen spüren können und Me­di­zi­ne­r:in­nen in der Ausbildung helfen sollen. Welche Anträge abgelehnt wurden oder zu großen Bedenken im Ethik-Beirat führten, will das Cyber Valley aber nicht sagen.

Interessant ist ein anderes Projekt. Hier hatte der Ethik-Beirat nach taz-Informationen Sorgen – und dennoch wurde es gefördert. Denn die finale Entscheidung über Fördergelder liegt beim Fund-Board des Cyber Valleys. Jeweils sechs Ver­tre­te­r:in­nen aus Wissenschaft und Industrie sitzen darin. Der Ethik-Beirat hat dabei kein Stimm- oder Vetrorecht, sondern eine rein beratende Funktion. In dem Projekt ging es um autonome Drohnen, die Bewegungsmuster von Wildtieren in der Natur erfassen. Der Ethik-Beirat äußerte Bedenken, weil mit der Technik theoretisch auch Menschen aus der Luft präzise und automatisiert überwacht werden könnten.

Ist der Ethik-Beirat nicht mehr als ein nettes Aushängeschild? „Unsere Wirkung auf das gesamte Ökosystem war bisher schwach“, sagt Ammicht Quinn. Von Anfang an habe die Öffentlichkeit den Einfluss des Ethik-Beirats überschätzt. Im KI-Bereich würden extrem kluge junge Leute arbeiten, die auch politisch interessiert seien. „Aber oft ist ihnen in der alltäglichen Arbeit nicht wirklich klar, dass ihre eigene Forschung auch politisch ist und ethische Fragen aufwirft“, sagt Ammicht Quinn.

Nicht alle Tü­bin­ge­r:in­nen wollten das Cyber Valley

Viele Tü­bin­ge­r:in­nen sind sich dieses Zusammenhangs offenbar bewusst. Kundgebungen wurden abgehalten, ein Hörsaal besetzt, Diskussionsrunden veranstaltet. Nicht alle freuten sich auf das Cyber Valley. Ammicht Quinn sagt, die anfänglichen Proteste hätten zur Bildung des Ethik-Beirats beigetragen.

Mehrere Jahre protestierte das von Studierenden gegründete Bündnis #NoCyberValley gegen die Initiative, allen voran gegen die Ansiedlung von Amazon in Tübingen. Sie befürchteten nicht nur eine Explosion der Mieten, sondern sahen auch die Unabhängigkeit der Forschung in Gefahr. Ein Beispiel nannten die Geg­ne­r:in­nen immer wieder: Vier Jahre lang arbeitete Matthias Bethge, Neurowissenschaftler am KI-Zentrum der Uni im Cyber Valley, an einem Projekt, das von der Forschungsbehörde IARPA der US-Geheimdienste in Auftrag gegeben wurde. Bethge forschte an neurowissenschaftlichen Modellen, die mit Hilfe von Algorithmen die Funktionsweise des Gehirns darstellen.

Ein Großteil der damaligen Kritik richtete sich gegen ein Forschungszentrum von Amazon, das mittlerweile fertig gebaut wurde. Es steht in unmittelbarer Nachbarschaft des Cyber Valleys. Praktisch ist das insbesondere für einen Mann: Max-Planck-Direktor Bernhard Schölkopf, ein Star im Cyber Valley. In unter fünf Minuten kann er von seinem Arbeitsplatz zum Amazon-Gebäude spazieren, sein zweiter Arbeitsplatz. Seit 2017 forscht Schölkopf dort ebenfalls an künstlicher Intelligenz. Gleiches galt bis 2021 auch für Michael Black, der ebenfalls zu den renommiertesten Wis­sen­schaft­le­r:in­nen im Cyber Valley zählt. Das weltweite Programm von Amazon richtet sich explizit an akademische Führungskräfte und soll „die Zusammenarbeit zwischen akademischer und industrieller Forschung fördern“, schreibt der Konzern.

Wegen solcher Verbindungen sahen einige Tü­bin­ge­r:in­nen die Wissenschaftsfreiheit in Gefahr. Dabei sind Drittmittel aus Industrie und Wirtschaft in der deutschen Forschungslandschaft nichts Ungewöhnliches. Das Protestbündnis gegen das Cyber Valley befürchtet trotzdem, dass die Unternehmen Einfluss auf die wissenschaftliche Arbeit nähmen und einen exklusiven Zugang zu den Ergebnissen hätten. Im Cyber Valley wird das konsequent verneint: Alle Resultate der Forschung, die mit öffentlichen Mitteln finanziert wurde, würden auch öffentlich publiziert. Die Kooperationsverträge zwischen den sieben Geldgebern aus der Industrie und der Forschungsinitiative hingegen bleiben geheim.

Nach Amazon will nun Bosch ein eigenes Forschungszentrum in Tübingen bauen. Der Technikkonzern finanziert, genauso wie Mercedes-Benz, bereits einen Lehrstuhl im Cyber Valley.

Keine 100 Meter entfernt vom goldbraunen Amazon-Neubau sitzt Philipp Hennig in seinem Büro im KI-Zentrum der Uni Tübingen. Der 42-Jährige hat eine ruhige Stimme und ist geübt darin, komplexe Sachverhalte für Fachfremde zu übersetzen. Er ist Professor für Methoden des maschinellen Lernens und hat die Proteste gegen das Cyber Valley vor drei Jahren unmittelbar zu spüren bekommen. Drei Wochen lang besetzten Studierende den Hörsaal, in dem Hennig normalerweise in seinen Vorlesungen erklärt, wie Algorithmen so trainiert werden können, dass sie Fehler in ihren Entscheidungen besser erkennen. Hennig wurde zu einer Figur, die das Cyber Valley auf Podiumsdiskussionen beharrlich gegen Kritik verteidigt hat.

Forschung mit Forschung kontrollieren

Nicht nur wegen der anfänglichen Proteste ist Hennig überzeugt, dass die Sensibilität für ethische Fragen im Cyber Valley ausgeprägter sei als an anderen Standorten. Ein Beleg dafür sei, dass sich immer mehr Institutionen in Tübingen mit KI-Ethik beschäftigten. An der Uni gibt es eine Arbeitsgruppe Ethik und Philosophie der KI, und die Volkswagenstiftung fördert ein neues Zentrum zur Analyse der gesellschaftlichen KI-Debatte. Am Max-Planck-Institut für Intelligente Systeme erforscht eine Gruppe, wie Algorithmen diskriminierungsfreie Entscheidungen treffen können. Und mit Moritz Hardt von der Universität Berkeley in Kalifornien wurde Anfang 2022 ein Forscher angestellt, der Informatik als Sozialwissenschaft bezeichnet.

Hennig selbst hat ein Seminar zu algorithmischer Fairness gegeben und spricht in seiner Vorlesung über gesellschaftliche Verantwortung. Was bedeutet es für einen Algorithmus, fair zu sein? Als Beispiel nennt er die Vergabe eines Kredits. Man könne etwa verlangen, dass die Entscheidungen des Algorithmus unabhängig vom Geschlecht der Kre­dit­neh­me­r:in­nen sein sollen. Oder, dass der Algorithmus für Männer und Frauen gleich zuverlässig sei, also gleich häufig Fehler macht. Es sei aber mathematisch bewiesen, dass beides gleichzeitig nicht möglich ist. Solche Fragen gehören laut Hennig inzwischen zu den Inhalten der Grundvorlesungen in KI.

Noch mehr Raum für Diskussionen solcher Probleme soll es im deutschlandweit ersten Masterstudiengang für Machine Learning geben. Neue Seminare zu den sozialen Folgen von immer mehr intelligenten Maschinen sind geplant. „Wir sind hier so etwas wie die letzte Station außerhalb der Industrie für die Leute, die später dort arbeiten“, sagt Hennig. Die Studierenden sollen für die Relevanz der KI-Ethik sensibilisiert werden, bevor sie nach ihrem Abschluss womöglich anfangen, nebenan bei Amazon zu arbeiten.

Einmal zahlen
.

Fehler auf taz.de entdeckt?

Wir freuen uns über eine Mail an fehlerhinweis@taz.de!

Inhaltliches Feedback?

Gerne als Leser*innenkommentar unter dem Text auf taz.de oder über das Kontaktformular.

Bitte registrieren Sie sich und halten Sie sich an unsere Netiquette.

Haben Sie Probleme beim Kommentieren oder Registrieren?

Dann mailen Sie uns bitte an kommune@taz.de.