Chatbots und Google: Kommen jetzt die KI-Suchmaschinen?

Nach dem Erfolg des Textgenerators ChatGPT hat Google nun einen eigenen Chatbot vorgestellt, der mit Künstlicher Intelligenz arbeitet. Was heißt das?

Zwei grüne Google Android Statuen

Grüne Männchen vor dem Google-Hauptsitz in Mountain View, Kalifornien Foto: Imago

Bard heißt das neue Produkt aus dem Hause Google. Diese Woche hat das Unternehmen den Chatbot vorgestellt und die Aufregung ist groß. Warum?

Googles Chatbot ist der zweite sehr leistungsfähige Textgenerator mit Künstlicher Intelligenz (KI), der innerhalb kurzer Zeit vorgestellt wurde. Ende vergangenen Jahres hat das Unternehmen OpenAI ChatGPT der Öffentlichkeit zugänglich gemacht. Dessen Texte sind nicht von menschlichen zu unterscheiden. Nach fünf Tagen verzeichnete der Dienst bereits eine Million Nutzer:innen. Das öffentliche Interesse an der Technologie ist also groß – und auch ihr Disruptionspotenzial, also das Potenzial, einen Markt und möglicherweise auch die Gesellschaft nachhaltig zu verändern.

Was plant Google?

Bard soll zunächst einem begrenzten Kreis von Nut­ze­r:in­nen zu Testzwecken zur Verfügung stehen, wie Unternehmenschef Sundar Pichai in einem Blogbeitrag erklärte. „In den kommenden Wochen“ solle er dann für die breite Öffentlichkeit zugänglich sein. In dem Beitrag erläuterte Pichai das Konzept: Man könne Bard zum Beispiel nutzen, um Ideen für das Mittagessen zu erhalten, basierend darauf, was sich im Kühlschrank befindet, oder Hilfe dabei bekommen, die Entdeckungen des Nasa-Teleskops James Webb einem Kind zu erklären. Bei einer Produktpräsentation am Mittwoch erklärten mehrere Google-Mitarbeiter:innen außerdem, wo jetzt schon KI drin steckt – etwa bei der Bildersuche oder bei der In- und Outdoor-Navigation. Auch Bard soll demnach in die Suche integriert werden.

Wie funktioniert ein KI-Chatbot, also ein Textgenerator, der Fragen beantwortet oder Sätze ergänzt?

Vereinfacht dargestellt so: Der Algorithmus generiert Texte anhand von Wahrscheinlichkeiten. Also: Mit welcher Wahrscheinlichkeit folgt beispielsweise auf das Wort „Liebe“ ein Name? Und mit welchem Wort wird der Satzanfang „Das Wahrzeichen von Sydney ist“ wahrscheinlich beendet? Damit das Programm diese Wahrscheinlichkeit prognostizieren kann, muss es vorher mit einer immensen Menge an Daten trainiert worden sein.

ChatGPT wurde dabei mit einem abgeschlossenen Datensatz trainiert, hat also Ereignisse, die danach passiert sind, nicht in seinem Fundus. Googles Bard soll sich dagegen quasi in einer Art ständigen Weiterbildung befinden, durch aktuelle Veröffentlichungen im Internet.

Bei ChatGPT weiß man, dass neben dem maschinellen Lernen auch menschliche Trai­ne­r:in­nen eingesetzt wurden – teilweise allerdings Berichten zufolge unter, vorsichtig ausgedrückt, umstrittenen Arbeitsbedingungen. Die menschliche Komponente bei ChatGPT sollte auch verhindern, dass die KI ebenso abdriftet wie vorherige Chatbots: Microsofts Tay beispielsweise fiel auf Twitter schnell durch sexistische und rassistische Äußerungen auf – nach etwa einem Tag war er wieder vom Netz.

Warum geht Google gerade jetzt mit dem Dienst an die Öffentlichkeit?

Medienberichten zufolge hat der Erfolg von ChatGPT eine „Alarmstufe Rot“ bei Google ausgelöst. Und die Frage drängend gemacht, wie man der neuen Konkurrenz möglichst bald etwas entgegensetzen könnte. Einer der Gründe dürfte sein, dass der IT-Riese Microsoft maßgeblich an OpenAI beteiligt ist. Microsoft hat bereits angekündigt, ChatGPT unter anderem in seine Suchmaschine Bing einbauen zu wollen.

Das ist ein direkter Angriff auf Google, das sich bislang der marktbeherrschenden Stellung seiner Suchmaschine ziemlich sicher sein durfte. Laut dem Analysedienst Statcounter liegt der Marktanteil der Google-Suche seit Jahren ziemlich stabil um die 90 Prozent. Bing dagegen brachte es im Januar gerade einmal auf rund 3 Prozent Marktanteil.

Ist Bing in Sachen KI-Suche der derzeit einzige Konkurrent von Google?

Nein, es sind diverse weitere im Rennen: Etwa der chinesische Internetriese Baidu. Im März will der Konzern die Entwicklung am KI-Chatbot „Ernie Bot“ abgeschlossen haben, so eine Sprecherin diese Woche gegenüber der Nachrichtenagentur afp. Bereits auf dem Markt ist die KI-Suchmaschine you.com. Gründer ist der KI-Forscher Richard Socher, der zu einem der am meisten zitierten Wis­sen­schaft­le­r:in­nen im Bereich „natural language processing“, einem der Unterbereiche von KI, gehört. Auch die Suchmaschine Neeva enthält KI, zumindest für US-Nutzer:innen.

Dieser Text stammt aus der wochentaz. Unserer Wochenzeitung von links! In der wochentaz geht es jede Woche um die Welt, wie sie ist – und wie sie sein könnte. Eine linke Wochenzeitung mit Stimme, Haltung und dem besonderen taz-Blick auf die Welt. Jeden Samstag neu am Kiosk und natürlich im Abo.

„Wir haben, seitdem Google seine Suchmaschine auf den Markt gebracht hat, das erste Mal die Situation, dass diese als Marktführer ernsthaft in Frage gestellt werden könnte“, sagt Wolfgang Schulz, Forschungsdirektor des Humboldt Instituts für Internet und Gesellschaft, der taz.

Sagen die Chatbots eigentlich immer die Wahrheit?

Nein, und das ist eines der großen Probleme von ChatGPT. Die Software generiert eloquente Texte – aber ob stimmt, was drinsteht, muss weiterhin überprüft werden. Eines der großen Risiken ist daher jetzt schon klar: Desinformation. Menschen, Gruppen oder Staaten mit Interesse daran können mit wenig Aufwand in großem Stil hoch qualitative Propaganda-Texte generieren lassen.

Erste Entwicklungen sollen daher dazu dienen, maschinell erstellte Texte zu erkennen. Die Bilanz ist aber bislang durchwachsen. „Das kann ein Katz-und-Maus-Spiel werden“, sagt Digitalisierungsforscher Schulz. Wie es mit dem Wahrheitsgehalt bei Googles neuem Bot aussieht, lässt sich erst sagen, wenn er tatsächlich in größerem Maßstab getestet wurde.

Wie geht es in den kommenden Jahren weiter?

„Ich glaube, das kreative Potenzial, das dann freigesetzt wird, der gesellschaftliche Impact, den es haben wird, da machen wir uns überhaupt kein Bild von“, sagte Thilo Hagendorff, KI-Forscher an der Eberhard Karls Universität Tübingen, in einem Pressebriefing des Science Media Center. „Ich halte das für massiv, was dort passiert, wenngleich meine Fantasie noch nicht zulässt, alles zu sehen, was da in den nächsten zehn bis zwanzig Jahren passieren wird.“ So wird es den meisten Menschen inklusive Ex­per­t:in­nen gehen – genauso wenig wie bei der Erfindung der Dampfmaschine oder des iPhones der disruptive Effekt direkt absehbar war.

Welche Regulierungen sind für KI-Anwendungen geplant?

Die EU will Künstliche Intelligenz universell regulieren – also nicht detailliert in einzelnen Bereichen, sondern mit grundsätzlichen Regeln, die für alle gelten. Als Basis gelten dafür vier Kategorien: Unzulässiges, hohes, begrenztes und minimales Risiko. Unzulässig wäre beispielsweise Social Scoring, also die automatisierte behördliche Bewertung von Verhalten. Chatbots fallen dem EU-Vorschlag zufolge in die Klasse begrenztes Risiko.

Hier gibt es weniger Auflagen als für Anwendungen mit hohem Risiko. So sollen die Nut­ze­r:in­nen zwar darüber informiert werden, dass sie mit einer Maschine interagieren. Manche For­sche­r:in­nen und Bür­ger­recht­le­r:in­nen fordern jedoch, dass die Transparenzverpflichtungen deutlich darüber hinaus gehen. So müssten etwa Trainingsdaten offengelegt werden. Denn Vorurteile oder Verzerrungen in den Trainingsdaten wird eine KI auch später in der Anwendung reproduzieren.

Einmal zahlen
.

Fehler auf taz.de entdeckt?

Wir freuen uns über eine Mail an fehlerhinweis@taz.de!

Inhaltliches Feedback?

Gerne als Leser*innenkommentar unter dem Text auf taz.de oder über das Kontaktformular.

Bitte registrieren Sie sich und halten Sie sich an unsere Netiquette.

Haben Sie Probleme beim Kommentieren oder Registrieren?

Dann mailen Sie uns bitte an kommune@taz.de.