piwik no script img

Experte über KI-Textgeneratoren„Systeme sind keine Menschen“

Erst ChatGPT, nun Googles Bard. Der Digitalisierungsexperte Wolfgang Schulz spricht über Chancen, Risiken und die Bewusstseinsfrage.

Schafft KI wenigstens die Bürozellen ab? Das wäre ein Fortschritt Foto: John Lund/Stone RF/Getty Images
Interview von Svenja Bergt

taz: Herr Schulz, der Textgenerator ChatGPT hatte nur fünf Tage nach seinem Start eine Million Nut­ze­r:in­nen – Facebook oder Instagram haben für solche Zahlen Monate gebraucht. Vergangene Woche hat nun Google mit seinem KI-Bot Bard nachgelegt. Ist gerade tatsächlich der „iPhone-Moment der Künstlichen Intelligenz“, wie manche Be­ob­ach­te­r:in­nen meinen?

Wolfgang Schulz: Es hat auf alle Fälle einen extremen Entwicklungssprung gegeben – und der wird jetzt gerade offensichtlich. Insofern ist das tatsächlich ein wichtiger Moment – auch, weil wir uns als Gesellschaft erst mal bewusst werden müssen, was da eigentlich passiert. Ob es tatsächlich ein iPhone-Moment ist, hängt davon ab, wie sich die Technologie weiterentwickelt. Und zwar sowohl im Hinblick auf Geschäftsmodelle als auch auf den konkreten Nutzen in den unterschiedlichen Anwendungsfeldern.

Wenn Sie sagen, die Gesellschaft muss sich bewusst werden, was da passiert: Was passiert denn da gerade?

Positiv betrachtet: Wir sehen gerade das unglaubliche Potenzial von Automatisierungen, viel stärker noch, als wir das bisher erlebt haben. Dass also Maschinen Dinge übernehmen, die vorher durch Menschen gemacht werden mussten. Gleichzeitig werden aber auch die Risiken sichtbar: Die Einfachheit, mit der so ein Textgenerator Lügen erzeugt, die ohne Kenntnis des Themas oder weitere Recherche nicht zu bemerken sind. Und die dann weiterverbreitet werden können. Der Missbrauch dieser Technologien, die Desinformation, das wird uns noch sehr beschäftigen. Wir befinden uns also jetzt in der Situation, in der wir überlegen müssen: In welche sozialen Praktiken, in welche Kulturtechniken binden wir diese neue Technologie ein? Wo brauchen wir Regulierung? Und welche?

Im Interview: Wolfgang Schulz

ist unter anderem Forschungsdirektor des Humboldt Instituts für Internet und Gesellschaft (HIIG) in Berlin und des Leibniz-Instituts für Medienforschung in Hamburg.

Welche brauchen wir denn?

Das Wichtigste ist Transparenz. Wenn eine KI am Erstellen eines Textes beteiligt war, ganz egal welcher Art, dann muss das ersichtlich sein.

Das dürfte in der Praxis kaum durchsetzbar sein.

Es gibt bereits technische Entwicklungen, die mit einer gewissen Wahrscheinlichkeit sagen können, ob ein Text durch eine KI erstellt wurde. Aber klar, das kann natürlich ein Katz-und-Maus-Spiel werden. Es gibt auch schon Menschen, die der KI den Auftrag erteilen, einen Text zu schreiben, der nicht als KI-Text identifiziert wird. Aber die schwierige Durchsetzbarkeit darf nicht davon ablenken, dass das Interesse daran zu wissen, ob das, was uns gegenübertritt, ein menschlicher Kommunikator oder ein menschliches Produkt ist oder nicht, bleibt.

Microsoft will ChatGPT in seine Suchmaschine einbauen und setzt Google mit seinem Suchmaschinenmonopol unter Druck. Nun zieht Google mit Bard nach. Was bedeutet dieses Wettrennen?

Grundsätzlich hat eine neue Technologie immer ein großes Potenzial für den Markt. Denn kleine Unternehmen bekommen eine Chance, die großen mit ihren teilweise monopolartigen Strukturen in Bedrängnis zu bringen. Es ist also eine Chance auf Wettbewerb, und das ist gut für die Gesellschaft und die Wirtschaft.

Mit Microsofts Einstieg bei OpenAI, dem Unternehmen hinter ChatGPT, sieht es eher aus, als würde Big Tech wieder gewinnen.

Ja, das ist eine bedenkliche Entwicklung. Hier brauchen wir dringend wirksame rechtliche Instrumente. Diese müssen verhindern, dass alle Innovationen sofort von den großen Playern aufgekauft werden und der Markt doch so konzentriert bleibt und die Innovationskraft insgesamt schwindet. OpenAI ist zwar ein wichtiger Akteur, aber im Bereich der KI-Suchmaschinen gibt es auch andere Unternehmen, die innovative Lösungen entwickeln. Und damit haben wir, seitdem Google seine Suchmaschine auf den Markt gebracht hat, das erste Mal die Situation, dass diese als Marktführer ernsthaft infrage gestellt werden könnte.

Wie könnte KI die Suche revolutionieren?

Auf zweierlei Ebenen: Erstens könnten künftige Suchmaschinen durch Konversation noch besser prognostizieren, was der Nutzer eigentlich wissen will. Denn Suchanfragen sind ja längst nicht immer optimal formuliert und bestehen meist nur aus wenigen Worten. Und zweitens könnten Suchmaschinen dann das machen, was die Nutzenden eigentlich von ihnen erwarten: Antworten liefern. Und zwar als lesbaren Text. Und nicht eine ganze Sammlung von Links, aus denen man sich die Antwort dann selbst heraussuchen muss – und die auch nicht unbedingt findet. Im Ansatz ist das auch jetzt schon zu sehen: Google beispielsweise bietet bei manchen Suchanfragen bereits Infoboxen, die zu den Links führen. Das sind Abschnitte, die bereits eine direkte Antwort auf die Frage liefern könnten.

Aber wenn eine Suchmaschine nur noch Text und keine Links mehr liefert, gibt es wieder das Transparenzproblem. Eigentlich wäre es also ein Nachteil.

Ja und nein. Eine lesbare und schnelle Antwort zu bekommen, ohne weiterklicken zu müssen, ist ja erst mal gut. Gleichzeitig ist es natürlich ein Nachteil, weil man die Angaben als Nutzer entweder überprüfen – oder ihnen vertrauen muss. Und Vertrauen ist eine gefährliche Sache. Denn, um es mit dem Soziologen Niklas Luhmann zu sagen, wenn man vertraut, überzieht man seine Wissensbasis. Man macht etwas, ohne eigentlich das Wissen zu haben, das man bräuchte, um diese Entscheidung zu treffen. Insofern ist das tatsächlich eine Verschlechterung.

Google baut seinen neuen Bot auf seinem Modell Lambda auf, einem KI-Programm, dem einer der Beteiligten ein Bewusstsein zugesprochen hat. Wie bewerten Sie das?

Das hängt davon ab, wie man Bewusstsein versteht. Das ist eine philosophische Frage, die ich nicht bewerten kann. Noch interessanter finde ich aber ohnehin die Aufregung, die das verursacht hat – weil man auf einmal vor der Frage steht, ob da etwas Menschenähnliches erschaffen wurde. Die Gedankenwelt der Informatik spielt eine große Rolle. Es ist genau das, was die KI-Forschung und -Entwicklung auch stark vorantreibt: Entwicklungen zu schaffen, die menschliche Fähigkeiten haben. Das zeigt alleine schon der Begriff Intelligenz – die ja als etwas genuin Menschliches gilt. Aber auch das Wort „trainieren“, das wir für die neuronalen Netze verwenden, die oft hinter KI stecken, ist eigentlich etwas, das Menschen tun. Technische Systeme sind immer noch technische Systeme und keine Menschen. Da müssen wir uns als Wissenschaft auch selbstkritisch fragen, welche Begriffe wir verwenden.

Die Angst, dass eine KI eines Tages die Menschheit unterdrücken könnte, wird ja auch von großen wissenschaftlichen Denkern aufgeworfen.

Das ist eine Debatte, die ich nur begrenzt für sinnvoll halte. Aber aus meiner Sicht muss man zwei zentrale Punkte festhalten, wenn man sich auf den Vergleich Mensch-Maschine überhaupt einlassen und ihr Verhältnis klären will. Das eine ist die Körpergebundenheit menschlicher Intelligenz, also dass sie immer auch mit unserem Fühlen, Leiden, mit unserer Körperlichkeit verbunden ist. Und das Zweite: Wir sind soziale Wesen und vieles von dem, was wir machen, hat mit Erfahrungen zu tun, die wir mit anderen Menschen gemacht haben. Was daraus an Handlungen resultiert, kann ein technisches System vielleicht versuchen vorherzusagen. Aber ihnen fehlt diese Erfahrung. Ich habe im Augenblick wenig Anhaltspunkte für Weltuntergangsdystopien. Ich glaube aber auch grundsätzlich eher an positive Effekte neuer Technologien.

Trotz Desinformation und intransparenter Entscheidungsprozesse?

Na ja, wir stehen neuen Technologien, auch KI, nicht machtlos gegenüber. Die EU-Regulierung zu KI etwa enthält schon wichtige und richtige Ansätze. Zum Beispiel ein Impact-Assessment. Damit müssen bei der Einführung von Technologien verschiedene Fragen sehr genau überlegt werden: Welche Menschenrechte oder Rechte von Ar­beit­neh­me­r:in­nen könnten betroffen sein? Was sind mögliche Diskriminierungspotenziale und Auswirkungen auf die Meinungsfreiheit?

Was glauben Sie, wird die nächste gesellschaftsverändernde KI-Entwicklung sein?

Bei Bildgeneratoren sehen wir gerade auch einen großen Sprung. Ich kann mir vorstellen, dass hier in den kommenden Jahren noch einiges geschieht. Auch könnten zum Beispiel Apps überflüssig werden, die wir momentan noch als Schnittstelle zwischen Mensch und Maschine brauchen. Vielleicht entstehen die Lösungen, die wir auf dem Smartphone oder einem anderen Gerät bekommen, dann einfach aus der Beobachtung unseres normalen Verhaltens.

taz lesen kann jede:r

Als Genossenschaft gehören wir unseren Leser:innen. Und unser Journalismus ist nicht nur 100 % konzernfrei, sondern auch kostenfrei zugänglich. Texte, die es nicht allen recht machen und Stimmen, die man woanders nicht hört – immer aus Überzeugung und hier auf taz.de ohne Paywall. Unsere Leser:innen müssen nichts bezahlen, wissen aber, dass guter, kritischer Journalismus nicht aus dem Nichts entsteht. Dafür sind wir sehr dankbar. Damit wir auch morgen noch unseren Journalismus machen können, brauchen wir mehr Unterstützung. Unser nächstes Ziel: 40.000 – und mit Ihrer Beteiligung können wir es schaffen. Setzen Sie ein Zeichen für die taz und für die Zukunft unseres Journalismus. Mit nur 5,- Euro sind Sie dabei! Jetzt unterstützen

Mehr zum Thema

4 Kommentare

 / 
  • Dass Intelligenz etwas spezifisch menschliches sei und man nur Menschen trainieren könne, ist ein großes Stück menschlicher Arroganz. Tiere haben auch eine Intelligenz in gewissem Ausmaß und trainieren kann man sie auch sehr gut.

    Man sollte vielleicht KIs nicht immer zwanghaft sofort mit dem Menschen vergleichen, sondern eher mit gut trainierten Tieren. Die "lügen" auch nicht, wenn sie mal Mist bauen und keiner erwartet die geradezu gottgleiche Unfehlbarkeit von ihnen, die manche bei einer KI offenbar erst sehen wollen, bevor sie ihr intelligente Eigenschaften zubilligen mögen.

    Nützlich sein können sie trotz aller Einschränkungen.

    • @Mustardman:

      Die KI lügt auch nicht. Sie verbreitet Lügen. Und das ist an der Stelle sogar der Beweis ihrer "Nicht-Intelligenz", weil sie Lüge und Fakt nicht unterscheiden kann.



      Tiere dagegen lügen wirklich. Wenn Eichhörnchen zum Beispiel so tun als würden sie eine Nuss verstecken, diese aber wieder mitnehmen, wenn sie dabei beobachtet wurden.

    • @Mustardman:

      Tiere können nicht lügen? Das ist keine Eigenschaft die nur dem Menschen vorbehalten ist und ist ein Zeichen von Intelligenz.

    • @Mustardman:

      Da wäre dann allerdings schon noch der Unterschied, dass Primaten oder auch Kakadus kreativ und vorausschauned planend agieren, etwa wenn sie Werkzeug auf eine neue Art einsetzen um an Futter zu kommen, während KIs lediglich kombinieren und wiedergeben können was zuvor in sie hineintrainiert wurde. Sie sind also eher Speicher für Erfahrungswissen als Intelligenz, um aber mit einem Stock nach einer Nuss zu angeln zu können müssten man aber erstmal ein neues Modell trainieren.