Künstliche Intelligenz als Suchmaschine: Besser als Google
Google war mal ein Geheimtipp, heute ist die Suchmaschine mit Anzeigen und kommerziellen Inhalten überladen. Wie KI die Informationssuche verändert.
Internet-Veteran:innen erzählen manchmal aus einer Zeit Ende der 90er Jahre. Meistens geht diese Geschichte so: Man wurschtelte sich so durch, im immer noch recht neuen WWW. Dann kam plötzlich ein Freund oder eine Kollegin und sagte etwas wie: Hey, es gibt da diese neue Suchmaschine, damit findet man viel besser, was man sucht, probier die doch mal aus.
Und auf einmal lag das Netz nicht mehr wie ein verwunschener Wald vor einem, in dem man mit Glück etwas finden konnte und sich mit Pech verirrte. Sondern klar, übersichtlich und sortiert. Dass die Bedienoberfläche dieser Suchmaschine ganz schlicht daherkam und sich als einzige Spielerei bunte Buchstaben erlaubte, passte ins Bild.
Von diesem Google der Anfangsjahre ist heute – außer dem Namen – fast nichts mehr geblieben. Sie ist nicht mehr der Geheimtipp, sondern längst Marktführer unter dem Dach der Holding Alphabet. Sogar den ikonischen Claim „Don’t be evil“ beerdigte das Unternehmen irgendwann stillschweigend.
Und wer heute mit Google sucht, hat eher wieder das Gefühl, in einen Wald einzutauchen: einen Wald aus Anzeigen, Nonsens-Treffern, Bildern, mäßig transparent gekennzeichneten Werbeanzeigen, Buttons für mehr oder minder verwandte Suchanfragen und von der Suchmaschine selbst dazwischengemixten Fragen und Antworten.
Niveau nicht zufriedenstellend
„Studien zeigen ganz klar, dass Nutzer Anzeigen nicht als solche erkennen“, sagt Dirk Lewandowski, Professor an der Hochschule für Angewandte Wissenschaften Hamburg, der unter anderem zu Suchmaschinen forscht. Unter den ersten Suchtreffern platzierte Anzeigen und dass Google andere Dienste aus dem eigenen Haus bevorzuge, beeinflussten die Suchergebnisse maßgeblich.
Das ist nicht unbedingt zum Vorteil der Nutzenden. „Das Niveau von Google ist ganz klar nicht zufriedenstellend“, sagt Janek Bevendorff. Er forscht an der Universität Weimar und hat mit drei Kollegen in einer Studie nach den Gründen für den gefühlten Qualitätsverlust gesucht.
Dafür haben sie ein Jahr lang die Suchergebnisse für knapp 7.400 Produktrezensionsanfragen ausgewertet. Gesucht wurden zum Beispiel die besten Kopfhörer oder das beste Buchstabenspielzeug. „Unsere Ergebnisse zeigen, dass alle Suchmaschinen erhebliche Probleme mit hochoptimierten (Affiliate-)Inhalten haben – mehr, als repräsentativ für das gesamte Web ist“, heißt es in der Studie.
Ein Katz-und-Maus-Spiel
Affiliate-Inhalte sind Links zu Hersteller:innen oder Händler:innen, über die die Nutzer:innen ein Produkt direkt bestellen können. Wer den Link auf seiner Seite einbaut, bekommt eine Provision für die Vermittlung. Traditionell sind solche Links eine Einnahmequelle zum Beispiel für Blogger:innen. Doch die Studie kommt zu dem Schluss: Von den Seiten mit Produktbewertungen nutze nur ein kleiner Teil Affiliate-Links. Allerdings seien diese Links in der Mehrzahl der ausgewerteten Suchergebnisse zu finden.
Nutzer:innen finden also weniger hilfreiche Inhalte, vielleicht zur Stiftung Warentest, zu Technikmagazinen oder zu Blogger:innen, die auf bestimmte Produkte spezialisiert sind und diese umfangreich testen. Sondern eher zu Seiten, auf denen sich kurze Beschreibungen oder auch nur Eckdaten zu Produkten finden, kombiniert mit Affiliate-Links – und daneben oder darunter Texte, deren Nutzwert gering ist, die aber eine möglichst breite Spanne potenzieller Suchbegriffe abdecken sollen.
Bei Google scheint man sich des Problems bewusst zu sein. Jedenfalls haben die Studienautoren im Verlauf des Jahres bemerkt, dass Google zwischendurch seinen Such-Algorithmus updatet, was zeitweilig für eine Verbesserung sorgt. Doch die Studie zeigt: Die Anbieter ziehen nach. Ein Katz-und-Maus-Spiel, bei dem die Suchmaschine verliere – so das Fazit der Studie. Und damit die Nutzer:innen.
Google arbeite an besserer Qualität
Darüber hinaus kommt es zu Kollateralschäden. Denn auch seriöse und hilfreiche Anbieter nutzen teilweise Affiliate-Links. So berichtete Ende Mai die BBC von einem Paar, das sich im Netz mit dem Testen von Luftfiltern einen Namen erarbeitet und auf der Basis ein kleines Unternehmen aufgebaut hat, das Luftfilter-Tests veröffentlicht.
Einnahmen kamen auch hier durch die Affiliate-Links – 3 Prozent Provision können sich bei teuren Geräten schnell summieren. Eines der jüngsten Algorithmus-Updates habe die Webseite in den Suchtreffern nun nach unten verbannt. Durch die sinkende Zahl an Besucher:innen auf der Seite seien die Einnahmen durch die Affiliate-Links stark gesunken, einem Teil der Belegschaft sei daher gekündigt worden. „Wird Google das Netz retten oder zerstören?“, fragt BBC-Autor Thomas Germain.
Das Unternehmen selbst verweist auf taz-Anfrage zu einem Blogbeitrag zu dem Thema. „Wir nehmen algorithmische Verbesserungen an unseren zentralen Ranking-Systemen vor, um sicherzustellen, dass wir die hilfreichsten Informationen im Web anzeigen“, schreibt Elizabeth Tucker, Leiterin des Produktmanagements, darin. Google arbeite daran, „neu aufkommenden Mechanismen entgegenzutreten, die darauf abzielen, unsere Ergebnisse mit Inhalten von geringer Qualität zu manipulieren“.
Enge Partnerschaft mit Microsoft
Die Qualitätsprobleme fallen in eine Zeit, in der sich die Suchmaschinen-Anbieter ohnehin mit einem potenziellen neuen Konkurrenten konfrontiert sehen: künstlicher Intelligenz. Wer etwa nach einem Rezept für eine bestimmte Auswahl an Zutaten sucht, das bitte vegetarisch und glutenfrei sein soll, ist heute schon bei ChatGPT besser aufgehoben als bei Google und Co.
Ebenso, wer eine Empfehlung für einen gemeinsamen Filmabend möchte – und die cineastischen Präferenzen der Teilnehmenden eingibt. Mit solchen komplexen Anfragen tun sich die klassischen Suchmaschinen schwer, große Sprachmodelle wie das hinter ChatGPT scheinen sie aber gut zu bewältigen.
Das Ausmaß der Verschiebung ist jetzt schon Gegenstand von Prognosen: Das Analyseunternehmen Gartner geht davon aus, dass der Traffic der Suchmaschinen bis 2026 um 25 Prozent zurückgehen wird – weil Menschen vermehrt KI und andere virtuelle Assistenten nutzen.
Google und Bing halten dagegen mit einer Strategie der Umarmung: Microsoft hat mit einer Investition in OpenAI für eine enge Partnerschaft gesorgt und drückt seinen KI-Assistenten Copilot in den Markt. Und Google versucht, mit einem eigenen Sprachmodell Fuß zu fassen – bislang allerdings mit durchwachsenem Ergebnis.
Und noch etwas ändert KI: Inhalte, als Text oder Bild, lassen sich mit deutlich geringerem Aufwand in deutlich größerer Menge erstellen. Schon jetzt ist bei den inhaltsarmen Texten auf vielen Affiliate-Link-Seiten unklar, ob sie von einem Menschen oder einer Maschine stammen.
Das könnte zu einer paradoxen Situation führen. Denn die neuen KI-Funktionen in Suchmaschinen oder auch ChatGPT brauchen für das Training ihrer dahinter liegenden Sprachmodelle große Mengen Text. Den ziehen sie vor allem aus dem Internet. Nimmt die Menge an KI-generierten Inhalten dort zu, werden auch die Sprachmodelle vermehrt damit trainiert werden.
ChatGPT als Torwächter
Und es geht noch eine Stufe weiter: Je mehr mithilfe von KI nach Empfehlungen für Produkte oder Dienstleistungen gesucht wird, desto vehementer werden Unternehmen dafür sorgen wollen, dass sie von den KI-Modellen gut bewertet werden.
Im Gegensatz zu Suchmaschinen, die auf der ersten Seite immerhin rund ein Dutzend Treffer ausspucken, generiert ChatGPT, nach Empfehlungen für ein Produkt gefragt, in der Regel eine Handvoll Ergebnisse. ChatGPT wirkt damit als Gatekeeper – also als eine Art Torwächter, der darüber entscheidet, welche Inhalte Nutzer:innen erhalten – noch stärker selektierend.
Firmen, die es an diesem Torwächter vorbeischaffen wollen, müssen also das Netz, das die KI-Bots für die Trainingsdaten durchforsten, mit für sie vorteilhaften Texten inklusive Produktnennungen fluten. Und es ist gut möglich, dass auch ein guter Teil dieser Texte wieder mithilfe von KI generiert wurde. In dieser Logik sind die Nutzer:innen nur noch Datenquelle und Stichwortgeber:innen für das Generieren von kommerziell optimierten Inhalten.
Gartner sagt übrigens voraus, dass KI eher zu besseren Suchmaschinen führen werde. Die Unternehmen würden menschengemachte Inhalte, etwa gekennzeichnet durch entsprechende Wasserzeichen, höher ranken. Bevendorff ist da pessimistischer: „Wenn Google da nicht massiv gegensteuert, wird die Qualität weiter sinken.“ Schließlich bleibe das Interesse der Anbieter: mit möglichst wenig Aufwand möglichst viel Sichtbarkeit schaffen.
taz lesen kann jede:r
Als Genossenschaft gehören wir unseren Leser:innen. Und unser Journalismus ist nicht nur 100 % konzernfrei, sondern auch kostenfrei zugänglich. Texte, die es nicht allen recht machen und Stimmen, die man woanders nicht hört – immer aus Überzeugung und hier auf taz.de ohne Paywall. Unsere Leser:innen müssen nichts bezahlen, wissen aber, dass guter, kritischer Journalismus nicht aus dem Nichts entsteht. Dafür sind wir sehr dankbar. Damit wir auch morgen noch unseren Journalismus machen können, brauchen wir mehr Unterstützung. Unser nächstes Ziel: 40.000 – und mit Ihrer Beteiligung können wir es schaffen. Setzen Sie ein Zeichen für die taz und für die Zukunft unseres Journalismus. Mit nur 5,- Euro sind Sie dabei! Jetzt unterstützen
meistkommentiert
113 Erstunterzeichnende
Abgeordnete reichen AfD-Verbotsantrag im Bundestag ein
Bürgergeld-Empfänger:innen erzählen
„Die Selbstzweifel sind gewachsen“
Ein-Euro-Jobs als Druckmittel
Die Zwangsarbeit kehrt zurück
Aus dem Leben eines Flaschensammlers
„Sie nehmen mich wahr als Müll“
Vorgezogene Bundestagswahl
Ist Scholz noch der richtige Kandidat?
Demokratie unter Beschuss
Dialektik des Widerstandes