piwik no script img

Künstliche IntelligenzKeine Panik vor KI

Gastkommentar von Jessica Heesen

Die Angst vor einer vorgeblichen Superintelligenz ist Unsinn – und verhindert eine Debatte über Gefahren wie die Interessen von Google oder Amazon.

Schreckensszenarien täuschen darüber hinweg, dass stochastische Modelle ganz andere Risiken haben Foto: Katja Gendikova

S eit Sprachmodelle wie ChatGPT im Herbst 2022 für die Allgemeinheit geöffnet wurden, ist ein breiter gesellschaftlicher Diskurs über künstliche Intelligenz (KI) entstanden. Der spannt sich aktuell über den Gesprächsstoff sommerlicher Gartenpartys („Also, ich habe die KI mal gefragt, …“) über optimistische Äußerungen aus der Wirtschaft („zentraler Wettbewerbsfaktor“) bis hin zu dystopischen Warnungen aus der digitalen Techbranche selbst („Verlust der Steuerungsfähigkeit unserer Zivilisation“). Die Reaktionen auf KI schwanken zwischen Faszination und Grauen. Was stimmt denn nun und wie kann man für KI zu einer ausgewogenen Einschätzung kommen? Klar ist: KI-Anwendungen müssen reguliert werden, um sie für Demokratie und Gemeinwohl gestalten zu können.

KI ganz allgemein als Technik in den Blick zu nehmen und zu überlegen, ob sie denn gut oder schlecht sei, ist ungefähr so sinnvoll, wie über die Vor- und Nachteile der Stromversorgung nachzudenken. Die Verfügbarkeit von Elektrizität hat zu einer starken Veränderung der Lebens- und Arbeitswelten geführt. Kaum jemand kommt jedoch auf die Idee, sie an sich zu bewerten. Sondern sie begegnet uns zum Beispiel in Form der Straßenbeleuchtung, des Küchenmixers oder eines Elektro­autos. Ähnlich verhält es sich auch mit KI: Sie ist immer in ihren jeweiligen Anwendungskontexten zu betrachten. Für ein KI-Sprachmodell sind andere Anwendungsregeln notwendig als für einen autonom fahrenden PKW oder für KI, die für die Auswahl von Inhalten in Sozialen Medien genutzt wird. Natürlich brauchen wir – wie in der Stromversorgung – allgemeine Standards zur sicheren und ethisch akzeptablen Nutzung von KI. Dazu gehören unter anderem menschliche Aufsicht, Trainingsdatenqualität oder Nachvollziehbarkeit.

Es wird häufig der Eindruck erweckt, bei KI handele sich um eine ganz besondere Technik, die „autonom“ handele, dem Menschen überlegen sei und ganz prinzipiell nicht verstanden werden könne. Deshalb könne man sie schlecht regulieren. Das stimmt nicht. Wenn man als durchschnittliche Verbraucherin ein Gerät oder eine Maschine nicht versteht, kann man diese Technik trotzdem nutzen und den Umgang mit ihr sicher und gut gestalten. Den ganz überwiegenden Teil der Techniken, die wir benutzen, verstehen wir nicht. Man denke nur an den Küchenmixer oder das Auto. Ihre Funktion können nur wenige Expertinnen und Experten erklären. Die meisten wollen einfach nur sicher ohne Stromschlag Sahne schlagen oder mit dem PKW fahren und zuverlässig das Bremspedal treten können.

Trotzdem müssen Technologien natürlich im Prinzip transparent sein, sodass sie kontrolliert hergestellt werden können und die durch sie ausgelösten Handlungen rechtssicher nachvollziehbar sind. Aber es muss nicht für jede einzelne Person, die KI nutzt, die Funktion im Detail erklärbar sein. In einem demokratischen Rechtsstaat sorgen starke Institutionen für eine verbraucherfreundliche Nutzung von Techniken, ohne dass jede einzelne von uns ein Informatikstudium für das Leben in einer digitalen Gesellschaft ablegen muss.

Steuerung ist möglich

Tatsächlich allerdings ist es so, dass KI teils auch für Expertinnen intransparent bleibt. Anwendungen suchen sich selbst ihre Lösungswege für bestimmte Aufgaben. KI „lernt“ auf anderen Wegen als Menschen und erstellt Muster aus Daten, deren Genese (sowohl der Muster als auch der Daten) nicht oder nur schlecht nachvollziehbar sind. Trotzdem können die Randbedingungen und die Ergebnisse von KI-gesteuerten Prozessen durch den Menschen kritisch nachvollzogen und bewertet werden. Zum Beispiel können Trainingsdaten dokumentiert und kritisch geprüft werden, die Algorithmen für KI-Anwendungen können nach ethischen Kriterien aufgestellt und durch unabhängige Stellen kontrolliert werden. Auch die Ergebnisse von automatisierten Entscheidungen sollten fortlaufend auf Diskriminierung, Unausgewogenheit und Fehler untersucht werden, sodass auch bei selbstlernenden Systemen stets im Blick behalten wird, dass neue Eigendynamiken maschinellen Lernens keinen schädlichen Einfluss gewinnen.

Jessica Heesen

Jessica Heesen

ist Leiterin des Forschungsschwerpunkts Medienethik und Informationstechnik an der Uni Tübingen und beschäftigt sich u. a. mit der Ethik der KI

Seit einigen Monaten wird vermehrt vor den großen Risiken der KI gewarnt. In offenen Briefen von Wissenschaftlerinnen und Vertretern von Digitalkonzernen ist von der Dominanz der KI die Rede, von Deepfakes oder Killerrobotern und einer allgemeinen Verdummung des Menschen. In Science Fiction und Unterhaltung sind solche Negativszenarien schon lange ein attraktives Thema.

Reale ökonomische Interessen

Solche Dystopien und die damit verbundenen Mystifizierungen verschleiern jedoch die realen Interessen, die mit KI verbunden sind. In Hinblick auf eine wert- und gemeinwohlorientierte Nutzung von KI ist vielmehr ganz konventionell zu fragen: Wem nützt eine Anwendung und wem schadet sie? Es gibt keine Indizien oder gar wissenschaftlich begründete Hinweise dafür, dass KI an der Schwelle zu einer bösartigen Superintelligenz steht. Selbst wenn die Forschung zu einer künstlichen allgemeinen Intelligenz in Jahrzehnten zu überzeugenden Ergebnissen kommen sollte, dann wird diese Intelligenz aller Wahrscheinlichkeit nach als Assistenzsystem zur Unterstützung verschiedenster menschlicher Tätigkeiten genutzt werden.

So wie auch jetzt KI den Menschen in vielen Feldern sinnvoll unterstützen und teils ersetzen kann. Das heißt jedoch nicht, dass KI sich eigenständige Ziele setzen kann, die sie gegen eine hilflose Menschheit durchsetzt. Vielmehr ist es so, dass die großen Digitalkonzerne wie Meta, Google oder Amazon ihre in den letzten Jahrzehnten gehorteten Datenschätze nun für KI und den Ausbau ihrer überragenden Marktpositionen nutzen können. Sie beherrschen damit wichtige Bereiche der gesellschaftlichen Infrastrukturen wie (öffentliche) Kommunikation und Handelsplattformen nach ihren gewinnorientierten Zielen, ohne demokratisch kontrolliert zu werden.

Stochastische Modelle haben andere Risiken

Schreckensszenarien von nicht steuerbaren Superintelligenzen täuschen darüber hinweg, dass stochastische Modelle (das wäre eine sachgemäßere Bezeichnung von KI) mit realen und ganz anderen großen Risiken verbunden sind. Beispielhaft hierfür steht das Unternehmen „Neuralink“ von Elon Musk. Musk, der kürzlich noch ein Moratorium zum Stopp der Forschung an bedeutenden KI-Innovationen gefordert hat, will durch Implantate eine Schnittstelle zwischen Gehirn und Computer schaffen, mit der vermeintliche menschliche Defizite wie Gedächtnisprobleme, Depression, Angst oder Hörverlust behoben werden sollen. Hier wie auch für den gesamten medizinischen Bereich von der Forschung, Diagnose über die Therapie bis hin zu „Gesundheitsapps“ fallen die Möglichkeiten der KI auf fruchtbaren Boden. Wir müssen also vielmehr nach den konkreten Folgen für Biopolitik, Datenschutz und Menschenbild fragen, statt allgemein über Schreckensszenarien zu sprechen.

KI hat auch Risiken für öffentliche Medienkommunikation und Meinungsbildung. KI-Anwendungen helfen, Wahlkampagnen effektiver und individualisierter zu gestalten. Sie haben aber auch das Potenzial, die Präferenzen und Charaktereigenschaften von Wählern zu erkennen und zu manipulieren, zum Beispiel durch Falschinformationen und Deepfakes, die gezielt und intransparent gestreut werden. Auch generell ist KI für die Gestaltung von sozialen Medien von großer Bedeutung. KI steuert die Antworten von Suchmaschinen, prägt die Auswahl von Inhalten in sozialen Medien und generiert Texte und Bilder. In der Medienkommunikation delegieren die Digitalkonzerne bereits jetzt viele Steuerungsaufgaben an algorithmische Systeme. Aber eben nicht nach einem in Dystopien vorgestellten Eigensinn der KI, sondern zielgenau für die Geschäftsinteressen der Datenökonomie.

Demokratische Antworten finden

Auf solche Probleme müssen demokratisch und ethisch legitimierte Antworten gefunden werden. Zum Beispiel Offenlegungspflichten und Register für KI, Zertifikate und Standards für riskante KI-Anwendungen oder für solche, die mit Manipulation, Diskriminierung und Überwachung verbunden sein können. Zum Beispiel zur Organisation von Migration, Personalauswahl oder solche, die Auswirkungen auf kritische Infrastrukturen haben beziehungsweise in der öffentlichen Verwaltung eingesetzt werden.

Aber auch Auswirkungen müssen gemeinwohlorientiert gestaltet werden: Wie sieht es etwa mit den Arbeitnehmerinnenrechten für all diejenigen aus, die KI-Daten beschriften und zur Nutzung vorbereiten? Wie kann eine wirksame Konzentrationskontrolle für Digitalkonzerne umgesetzt werden?

Es braucht Selbstverpflichtungen

Die aktuell vom Europaparlament verabschiedete KI-Verordnung wird ein entscheidender Beitrag für eine verbesserte Regulierung sein. Die KI-Verordnung reicht jedoch nicht aus. Wir brauchen insbesondere im staatsfernen Medienbereich Selbstverpflichtungen mit Kennzeichnungspflichten und redaktionell verantwortlichem Umgang mit KI-Instrumenten im Journalismus. Zudem muss Ethik in KI-Forschung und Entwicklung integriert werden, was inzwischen sogar in Google-Publikationen gefordert wird. Und selbstverständlich sind wir auch alle selbst aufgerufen, uns mit neuen Techniken wie KI auseinanderzusetzen und sie selbstbestimmt zu nutzen. Dazu brauchen wir Bildung für kritische Medienmündigkeit etwa in der Schule, der Hochschule und der Ausbildung.

Es stellt sich nicht die Frage, ob KI reguliert werden soll, sondern wer das tut. Gesellschaften leben immer nach Normen und Regeln. Wenn wir sie nicht demokratisch und gemeinsam bestimmen, überlassen wir die Regeln für den Umgang mit KI den Digitalkonzernen.

taz lesen kann jede:r

Als Genossenschaft gehören wir unseren Leser:innen. Und unser Journalismus ist nicht nur 100 % konzernfrei, sondern auch kostenfrei zugänglich. Texte, die es nicht allen recht machen und Stimmen, die man woanders nicht hört – immer aus Überzeugung und hier auf taz.de ohne Paywall. Unsere Leser:innen müssen nichts bezahlen, wissen aber, dass guter, kritischer Journalismus nicht aus dem Nichts entsteht. Dafür sind wir sehr dankbar. Damit wir auch morgen noch unseren Journalismus machen können, brauchen wir mehr Unterstützung. Unser nächstes Ziel: 40.000 – und mit Ihrer Beteiligung können wir es schaffen. Setzen Sie ein Zeichen für die taz und für die Zukunft unseres Journalismus. Mit nur 5,- Euro sind Sie dabei! Jetzt unterstützen

Mehr zum Thema

2 Kommentare

 / 
  • Ein guter und wichtiger Kommentar, aber eines wird leider immer und immer wieder außer acht gelassen:

    Die Trainingsdaten sind nicht kontrollierbar.

    Die schiere Menge an Daten, die benötigt wird, um ein System wie ChatGPT zu trainieren, kann von Menschen nicht kuratiert werden. Die Trainingsdaten werden also immer eine Blackbox bleiben.

    Ob händisches nachtrainieren, wie es aktuell betrieben wird ausreichend ist, wird die Zukunft zeigen müssen, aber wahrscheinlich werden die Mengen an Trainingsdaten so rasant anwachsen, dass es eine Frage bleibt, die in der Zukunft liegt.

    Weiterhin müssen wir lernen zu verstehen, was diese Systeme wirklich können. Im Moment ist KI nicht viel mehr als der neue IT-Hype, der durchs Dorf getrieben wird und die allgemeinen Erwartungen nicht im Ansatz erfüllen kann.

    • @der_bjoern:

      "Im Moment ist KI nicht viel mehr als der neue IT-Hype, der durchs Dorf getrieben wird und die allgemeinen Erwartungen nicht im Ansatz erfüllen kann."



      _____



      Das ist über die Maßen strittig - um nicht zu sagen schlicht falsch. Die gängige KI á la ChatGPT hätte z.B. keine so einseitige und unausgewogene Antwort geschrieben. Damit ist Ihre Einschätzung wohl aus der Welt. BTW: die vielbeschworenen Trainingsdaten sind so unkontrollierbar nicht. Es ist ist das NN selbst, dass blackboxisch ist. Diverse Anwendungen werden mit einer relativ geringen Menge an mehrfach geprüften und bestätigten Daten trainiert und liefern hernach wesentlich bessere Ergebnisse ab als Experten in diesen Bereichen (etwa bei der Diagnostik in der Neurologie, aber auch bei simplen Mustererkennungen bei denen Menschen schnell in Trouble geraten). Die grundsätzliche Schwierigkeit ist also, dass die Trainingsdaten eigentlich prinzipiell einsehbar/verstehbar sind dieweil uns für das K-intelligente Resultat kein Einblick und keine Visualisierung möglich ist - möglicherweise grundsätzlich unmöglich ist, da die Struktur in die Trainingsdaten überführt werden schier nicht lesbar ist. Lesbar im semantischen Sinne, denn freilich kann man von ein paar Millionen Pitts-"Neuronen" die Gewichte usw. z.B. vorlesen, nur ergibt es nichts in dem Sinne verstehbares, dass es Auskunft über die KI gibt. Man stelle sich z.B. eine Lesung aller Basenpaare der DNA eines Marienkäfers. Daraus läßt nicht ohne weiteres etwas über die Spezies sagen. Diesen Nexus zw. "Text" und Spezies kann man nur extern anlegen (und nicht aus der Kenntnis des "Textes"; oder analog der Kenntnis der Innereien eines generativen Transformationsnetzwerks).