Zukunft von KI: Habt keine Angst
2023 war das Jahr der künstlichen Intelligenz. Um die Zukunft der Technologie zu gestalten, brauchen wir Mut, Utopie und Spaß.
Workshop in einer Schule zum Umgang mit ChatGPT in Duisburg Foto: Funke Foto Services/imago
Das zurückliegende Jahr war das Jahr der KI. ChatGPT ging 2022 online und in den Monaten darauf eine Unmenge weiterer Anwendungen. KI boomt! Sie hilft uns, Texte zu schreiben, Bilder und medizinische Diagnosen zu erstellen. Aber schnell wurde aus der Freude Panik, aus dem Mut apokalyptischer Wahn. Wird uns die KI irgendwann wie in der Filmreihe „Matrix“ unterjochen? Haben Expert*innen, Politpromis und Wirtschaftsbosse, die im Mai warnten: „Das Risiko der Ausrottung durch künstliche Intelligenz sollte eine weltweite Priorität sein neben anderen Risiken für die gesamte Gesellschaft wie Pandemien und Atomkrieg“, recht?
Nein. Die Risiken von KI liegen an ganz anderen Stellen. Aber um die anzugehen, müssen wir uns von der „Matrix“-Panik lösen. Denn auch 2024 wird ein KI-Jahr. Und auch 2025 und viele folgende. Die neuen Entwicklungen in allen Disziplinen und Diskursen werden unsere Leben und unsere Wahrnehmungen prägen. Dem müssen wir aber anders entgegenblicken als mit wässrig-zittrigen Panikaugen, die sich beim kleinsten Knacken im Gebüsch zusammenkneifen aus Angst vor dem bösen Wolf.
Es braucht einen wachen, offenen, kritischen Blick. Sonst haben wir keine Chance, die Zukunft von KI und Mensch verantwortungsvoll mitzugestalten. KI-generierte Gründe für Skepsis, Ekel und Veränderungswut gibt es ja genug: menschenverachtende Deepfakes auf Pornoplattformen, hetzende Propaganda in Krieg und Extremismus, KI-unterstütztes Ausspielen von Werbung in Momenten, in denen wir besonders emotional angreifbar und dadurch in Kauflaune sind.
Das Problem: So richtig viel Bürger*innen-Input, das lässt sich zumindest vermuten, ist gar nicht erwünscht. Zwar verständigte sich die EU nach Jahren der Planung auf den AI Act, die weltweit erste Verordnung zur Nutzung von KI. Welche Regeln wir als Bürger*innen aber für KI wollen und welche auf gar keinen Fall, das wurden wir vorher nicht gefragt. Sonst hätten wir doch alle mal einen Fragebogen zugeschickt bekommen oder eine Einladung zu einer Podiumsdiskussion als Teil einer irgendwie gearteten KI-Öffentlichkeitsoffensive.
Gefühl dafür bekommen
Statt mit uns zu sprechen, sprachen Kanzler Olaf Scholz und die Präsidentin der Europäischen Kommission Ursula von der Leyen aber mit Sam Altman. Altman ist Chef von OpenAI, dem Apparat, der hinter ChatGPT steht. Und Altman liebt es, apokalyptische Warnungen auszusprechen. Das hat zwei Gründe: Zum einen macht OpenAI damit Werbung, besonders ethisch mit KI umzugehen und auf zukünftige Gefahren zu achten. Zum anderen ist Angst lähmend. Wer Angst hat, mischt sich nicht ein. Wer Angst hat, lässt die Macher*innen machen, in diesem Fall Sam Altman und Co.
Was wir 2024 deswegen brauchen, ist etwas ganz anderes. Wir brauchen Skepsis. Gegenüber dem Hype, aber vor allem gegenüber Altman und den anderen Autor*innen von Horrorgeschichten. Und wir brauchen Mut, Utopien und Spaß! Jede Anfrage bei ChatGPT und Co verbraucht enorme Mengen an Ressourcen. Jede Anfrage kann wiederum Unternehmen Daten liefern, negative Eigenschaften von KI wie Bias verstärken. Dennoch dürfen wir Chatbots für Spaß nutzen, sollten uns damit auseinandersetzen, am besten positiv, um ein Gefühl für diese Technik zu bekommen und Ideen entwickeln zu können, wie wir sie gut einsetzen können. Vielleicht können wir es ja als Training verstehen.
Wir brauchen Bildung! Nicht nur in den Schulen, sondern auch an allen anderen Orten. Denn wir müssen uns mit (Technik-)Ethik auseinandersetzen, einen eigenen Zugang zu finden versuchen, vielleicht auch Denkrichtungen voranzubringen – oder sie in die Praxis zu übersetzen. Das könnte auch manchen Politiker*innen nicht schaden, die etwa davon träumen, dass KI in Zukunft vorhersagen kann, wo bald eingebrochen wird. Dafür müssten sie aber sensibelste Daten zusammenführen: Wohnort, Bildung, Arbeit oder Arbeitslosigkeit, Alter, Herkunft, Behinderung, Krankheit, Familienstand. Das ist die wahre Dystopie.
Und was könnte falsch daran sein, wenn man Anti-Anschlags-KI auf Bilder von Überwachungskameras ansetzt, sodass sie uns erkennt – und unsere Emotionen? Ach ja: dass Emotionen das privateste sind, das wir besitzen. Wir müssen uns über diese Fragen Gedanken machen, und wir müssen laut werden. Gerade deswegen ist es unerlässlich, dass wir uns von der irrationalen Angst abwenden.
Nur wir können uns selbst unterwerfen
Und wir brauchen Solidarität! Wie immer. Wir müssen uns einsetzen für Arbeitsschutz und faire Bezahlung von Klickarbeiter*innen, die die KI füttern und betreuen – oft unterbezahlt im Ausland, etwa in Uganda.
Wir müssen, weil es die Politik nicht tut, auf unsere Daten achten. Mit ihnen wird KI trainiert, sie geben den Konzernen Macht. Sie machen es möglich, dass KI lernt, anhand unseres Alters, unserer Herkunft, unserer Queerness oder Nichtqueerness zu entscheiden, welche Werbung wir bekommen. Oder auch, wie in anderen Ländern schon katastrophal gescheitert, einzuschätzen, wie wahrscheinlich es ist, dass wir kriminell werden. Der Satz „Ich hab ja nichts zu verbergen“ bringt uns da nicht weiter. Denn unsere Daten sind immer auch Daten über andere Menschen, sie ermöglichen Vorhersagen über sie.
Gleichzeitig ist KI aber genauso rassistisch wie die Datensammlungen, mit denen sie arbeitet. Das bedeutet für Schwarze Menschen etwa ein erhöhtes Risiko, fälschlicherweise bei Gesichtserkennung als Straftäter*in „identifiziert“ zu werden. KI-Tools, die bei der Jobvergabe helfen sollen, haben sich als diskriminierend herausgestellt. Und KI kann schließlich auch bei der „Grenzüberwachung“ eingesetzt werden.
Technik ist, wie wir sie machen und was wir aus ihr machen. Vielleicht braucht es also vor allem Gemeinschaft, damit wir uns mal besprechen, wie wir unsere Daten schön unbrauchbar gestalten können, um KI im Training gelegentlich auch zu irritieren. Denn auch 2024 gilt: Die KI wird uns nicht unterwerfen. Die Einzigen, die uns unterwerfen können, sind wir selbst.
Zukunft von KI: Habt keine Angst
2023 war das Jahr der künstlichen Intelligenz. Um die Zukunft der Technologie zu gestalten, brauchen wir Mut, Utopie und Spaß.
Workshop in einer Schule zum Umgang mit ChatGPT in Duisburg Foto: Funke Foto Services/imago
Das zurückliegende Jahr war das Jahr der KI. ChatGPT ging 2022 online und in den Monaten darauf eine Unmenge weiterer Anwendungen. KI boomt! Sie hilft uns, Texte zu schreiben, Bilder und medizinische Diagnosen zu erstellen. Aber schnell wurde aus der Freude Panik, aus dem Mut apokalyptischer Wahn. Wird uns die KI irgendwann wie in der Filmreihe „Matrix“ unterjochen? Haben Expert*innen, Politpromis und Wirtschaftsbosse, die im Mai warnten: „Das Risiko der Ausrottung durch künstliche Intelligenz sollte eine weltweite Priorität sein neben anderen Risiken für die gesamte Gesellschaft wie Pandemien und Atomkrieg“, recht?
Nein. Die Risiken von KI liegen an ganz anderen Stellen. Aber um die anzugehen, müssen wir uns von der „Matrix“-Panik lösen. Denn auch 2024 wird ein KI-Jahr. Und auch 2025 und viele folgende. Die neuen Entwicklungen in allen Disziplinen und Diskursen werden unsere Leben und unsere Wahrnehmungen prägen. Dem müssen wir aber anders entgegenblicken als mit wässrig-zittrigen Panikaugen, die sich beim kleinsten Knacken im Gebüsch zusammenkneifen aus Angst vor dem bösen Wolf.
Es braucht einen wachen, offenen, kritischen Blick. Sonst haben wir keine Chance, die Zukunft von KI und Mensch verantwortungsvoll mitzugestalten. KI-generierte Gründe für Skepsis, Ekel und Veränderungswut gibt es ja genug: menschenverachtende Deepfakes auf Pornoplattformen, hetzende Propaganda in Krieg und Extremismus, KI-unterstütztes Ausspielen von Werbung in Momenten, in denen wir besonders emotional angreifbar und dadurch in Kauflaune sind.
Das Problem: So richtig viel Bürger*innen-Input, das lässt sich zumindest vermuten, ist gar nicht erwünscht. Zwar verständigte sich die EU nach Jahren der Planung auf den AI Act, die weltweit erste Verordnung zur Nutzung von KI. Welche Regeln wir als Bürger*innen aber für KI wollen und welche auf gar keinen Fall, das wurden wir vorher nicht gefragt. Sonst hätten wir doch alle mal einen Fragebogen zugeschickt bekommen oder eine Einladung zu einer Podiumsdiskussion als Teil einer irgendwie gearteten KI-Öffentlichkeitsoffensive.
Gefühl dafür bekommen
Statt mit uns zu sprechen, sprachen Kanzler Olaf Scholz und die Präsidentin der Europäischen Kommission Ursula von der Leyen aber mit Sam Altman. Altman ist Chef von OpenAI, dem Apparat, der hinter ChatGPT steht. Und Altman liebt es, apokalyptische Warnungen auszusprechen. Das hat zwei Gründe: Zum einen macht OpenAI damit Werbung, besonders ethisch mit KI umzugehen und auf zukünftige Gefahren zu achten. Zum anderen ist Angst lähmend. Wer Angst hat, mischt sich nicht ein. Wer Angst hat, lässt die Macher*innen machen, in diesem Fall Sam Altman und Co.
Was wir 2024 deswegen brauchen, ist etwas ganz anderes. Wir brauchen Skepsis. Gegenüber dem Hype, aber vor allem gegenüber Altman und den anderen Autor*innen von Horrorgeschichten. Und wir brauchen Mut, Utopien und Spaß! Jede Anfrage bei ChatGPT und Co verbraucht enorme Mengen an Ressourcen. Jede Anfrage kann wiederum Unternehmen Daten liefern, negative Eigenschaften von KI wie Bias verstärken. Dennoch dürfen wir Chatbots für Spaß nutzen, sollten uns damit auseinandersetzen, am besten positiv, um ein Gefühl für diese Technik zu bekommen und Ideen entwickeln zu können, wie wir sie gut einsetzen können. Vielleicht können wir es ja als Training verstehen.
Wir brauchen Bildung! Nicht nur in den Schulen, sondern auch an allen anderen Orten. Denn wir müssen uns mit (Technik-)Ethik auseinandersetzen, einen eigenen Zugang zu finden versuchen, vielleicht auch Denkrichtungen voranzubringen – oder sie in die Praxis zu übersetzen. Das könnte auch manchen Politiker*innen nicht schaden, die etwa davon träumen, dass KI in Zukunft vorhersagen kann, wo bald eingebrochen wird. Dafür müssten sie aber sensibelste Daten zusammenführen: Wohnort, Bildung, Arbeit oder Arbeitslosigkeit, Alter, Herkunft, Behinderung, Krankheit, Familienstand. Das ist die wahre Dystopie.
Und was könnte falsch daran sein, wenn man Anti-Anschlags-KI auf Bilder von Überwachungskameras ansetzt, sodass sie uns erkennt – und unsere Emotionen? Ach ja: dass Emotionen das privateste sind, das wir besitzen. Wir müssen uns über diese Fragen Gedanken machen, und wir müssen laut werden. Gerade deswegen ist es unerlässlich, dass wir uns von der irrationalen Angst abwenden.
Nur wir können uns selbst unterwerfen
Und wir brauchen Solidarität! Wie immer. Wir müssen uns einsetzen für Arbeitsschutz und faire Bezahlung von Klickarbeiter*innen, die die KI füttern und betreuen – oft unterbezahlt im Ausland, etwa in Uganda.
Wir müssen, weil es die Politik nicht tut, auf unsere Daten achten. Mit ihnen wird KI trainiert, sie geben den Konzernen Macht. Sie machen es möglich, dass KI lernt, anhand unseres Alters, unserer Herkunft, unserer Queerness oder Nichtqueerness zu entscheiden, welche Werbung wir bekommen. Oder auch, wie in anderen Ländern schon katastrophal gescheitert, einzuschätzen, wie wahrscheinlich es ist, dass wir kriminell werden. Der Satz „Ich hab ja nichts zu verbergen“ bringt uns da nicht weiter. Denn unsere Daten sind immer auch Daten über andere Menschen, sie ermöglichen Vorhersagen über sie.
Gleichzeitig ist KI aber genauso rassistisch wie die Datensammlungen, mit denen sie arbeitet. Das bedeutet für Schwarze Menschen etwa ein erhöhtes Risiko, fälschlicherweise bei Gesichtserkennung als Straftäter*in „identifiziert“ zu werden. KI-Tools, die bei der Jobvergabe helfen sollen, haben sich als diskriminierend herausgestellt. Und KI kann schließlich auch bei der „Grenzüberwachung“ eingesetzt werden.
Technik ist, wie wir sie machen und was wir aus ihr machen. Vielleicht braucht es also vor allem Gemeinschaft, damit wir uns mal besprechen, wie wir unsere Daten schön unbrauchbar gestalten können, um KI im Training gelegentlich auch zu irritieren. Denn auch 2024 gilt: Die KI wird uns nicht unterwerfen. Die Einzigen, die uns unterwerfen können, sind wir selbst.
Fehler auf taz.de entdeckt?
Wir freuen uns über eine Mail an fehlerhinweis@taz.de!
Inhaltliches Feedback?
Gerne als Leser*innenkommentar unter dem Text auf taz.de oder über das Kontaktformular.
Schwerpunkt Künstliche Intelligenz
Kommentar von
Johannes Drosdowski
Redakteur Medien/Digitales
Redakteur für Medien und Digitales. Ansonsten freier Journalist und Teamer zum Thema Verschwörungserzählungen und Fake News. Steht auf Comics, Zombies und das Internet. Mastodon: @drosdowski@social.anoxinon.de
Themen
Aminata Touré: Wir können mehr sein – Die Macht der Vielfalt – taz Talk