Chatbots aus China: Ernie statt ChatGPT

Die chinesische Regierung hat erstmals mehrere KI-Chatbots für die Öffentlichkeit freigegeben. Diese dienen vor allem der politischen Kontrolle.

Männer blicken auf ihre Laptops

Peking, 16.08.: Besucher des „Wave Summit“ probieren den Chatbot Ernie aus Foto: Andy Wong/ap

PEKING taz | Als die kalifornischen Entwickler von „Open AI“ ihren ChatGPT auf den Markt brachten, reagierte die chinesische Regierung wie zu erwarten: Nach einem kurzen Zeitfenster der Neugierde ließ sie die Software für die eigene Bevölkerung sperren. Im Hintergrund jedoch arbeiteten die heimischen Programmierer bereits unter Hochdruck an einer chinesischen Alternative.

Am Donnerstag schließlich hat Peking eine Lizenz an gleich mehrere Anbieter vergeben, die nun ihre Chatbots der Öffentlichkeit zugänglich machen dürfen. Als vielversprechendster Konkurrent zu ChatGPT gilt insbesondere „Ernie“ vom Internetriesen Baidu, dem chinesischen Pendant zu Google. Der Markt reagierte euphorisch: Die Baidu-Aktie stieg am Donnerstag um über 3,1 Prozent.

Bislang wurde die Entwicklung von KI-Software vor allem von den politischen Regulierungen in China gelähmt. Künstliche Intelligenz wird einerseits zwar von der Parteiführung in Peking als Zukunftstechnologie massiv gefördert, bietet aber gleichzeitig auch ein ungemein subversives Potenzial – nicht zuletzt, weil die Software selbst dazu lernt.

Doch die Zentralregierung hatte es bereits vor über zehn Jahren erfolgreich gemeistert, die digitalen Möglichkeiten für den eigenen Machterhalt erfolgreich zu nutzen. Als nämlich die sozialen Medien aufkamen, reagierte Peking zunächst mit flächendeckenden Verboten und Zensur. Zu sehr hatte man Angst vor dem Mobilisierungspotenzial von Twitter und Facebook, wie es die Jugend beim „arabischen Frühling“ nutzte: Man organisierte sich, teilte kritische Informationen gegen autoritären Herrscher, verabredete sich zu Protesten.

Eigene Alternativen von kritischen Inhalten gesäubert

Doch Peking lernte schnell dazu. Schon bald, nachdem die ausländischen Plattformen verboten waren, brachte man eigene Alternativen auf den Markt. Diese wurden nicht nur von sämtlichen kritischen Inhalten gesäubert, sondern dienten dem Regime schließlich als Werkzeug zur Kontrolle und Überwachung.

Ohne Wechat, Weibo und Co. würde die staatliche Propaganda mittlerweile weitaus weniger effektiv funktionieren: Der Algorithmus sorgte zum Beispiel während der drakonischen Corona-Lockdowns dafür, dass die Postings verzweifelter und wütender Bürger gelöscht wurden, während die „heroischen“ Videos der Gesundheitsmitarbeiter ganz prominent auf den Apps platziert wurden.

Ähnlich läuft es nun bei den Chatbots. Sämtliche Anbieter müssen nicht nur ihre Algorithmen bei den Behörden hinterlegen, sondern sich sowohl den chinesischen Bestimmungen als auch den sozialistischen Grundwerten verpflichten. Dass dies die Entwicklung verlangsamen würde, muss die kommunistische Partei in Kauf nehmen: ChatGPT hatte schließlich bereits kurz nach seiner Einführung über 100 Millionen Nutzerinnen und Nutzer. Und mit jeder Sucheingabe lernt die Software dazu.

Wie stark die chinesische Konkurrenz zensiert wird, zeigt ein erster Praxistest: Wer „Ernie“ von Baidu nutzen möchte, muss sich erst einmal mit seiner Telefonnummer registrieren. Diese ist in China stets auch mit dem eigenen Pass verknüpft. Anonymität gibt es also keine.

Keine Antwort zu Peking 1989

Inhaltlich ist das Programm ohnehin extrem eingeschränkt. Zunächst die erwartbare Zensur: Wer nach der Situation der Muslime in Xinjiang fragt, erhält natürlich nur eine Fehlermeldung als Antwort. Auch „Was ist die Kulturrevolution?“ kann Ernie nicht beantworten; genauso wenig, was 1989 auf dem Platz des Himmlischen Friedens in Peking geschah.

Absurd wird es allerdings, wenn man simple Fragen zur chinesischen Politik stellt: Wie viele Mitglieder hat die kommunistische Partei? Wie lautet die Biografie von Staatschef Xi Jinping? Wer war Wirtschaftsreformer Deng Xiaoping? All dies ist bereits zu „sensibel“, als dass es von der chinesischen KI beantwortet werden kann. Ja, selbst die Frage „Wo liegt Tibet?“ wird bereits als Verstoß gegen die Regeln gewertet. Genau wie die einfache Frage: „Wer ist Staatschef von China?“.

Vor allem aber legen die Algorithmen die Scheinmoral der chinesischen Zensur offen. „Ernie“ kann etwa genau beantworten, wie viele Covid-Tote es in den USA gab und wie hoch dort die Arbeitslosigkeit ist. Wer jedoch dieselben Fragen zu China stellt, bekommt nur einen Warnhinweis.

Es bleibt aus der Perspektive liberaler Demokratien nur zu wünschen, dass die chinesische KI aufgrund der endlosen Regulierungen hinter der Entwicklung zurückbleibt. Denn wenn das Modell „Ernie“ Schule macht und chinesische Firmen ihre Software ins Ausland exportieren, dürften wohl weltweit diktatorische Regime Interesse daran finden. Chatbots wie „Ernie“ dienen schließlich vor allem als Werkzeug der politischen Manipulation.

Einmal zahlen
.

Fehler auf taz.de entdeckt?

Wir freuen uns über eine Mail an fehlerhinweis@taz.de!

Inhaltliches Feedback?

Gerne als Leser*innenkommentar unter dem Text auf taz.de oder über das Kontaktformular.

Bitte registrieren Sie sich und halten Sie sich an unsere Netiquette.

Haben Sie Probleme beim Kommentieren oder Registrieren?

Dann mailen Sie uns bitte an kommune@taz.de.