piwik no script img

Neuer Chatbot ConferKI, aber mit Datenschutz

Der Signal-Gründer hat einen KI-Chatbot entwickelt, der die Privatsphäre schützen soll. Geht das überhaupt? Die wichtigsten Fragen und Antworten.

Nut­ze­r:in­nen teilen mit Chatbots oft sehr intime Daten – die nicht immer gut geschützt sind Foto: Qi Yang/getty images

1 Welche Rolle spielen Chatbots mit künstlicher Intelligenz?

ChatGPT, gib mir zehn Konzepte für die Geburtstagsfeier eines vierjährigen Kinds. Gemini, welche Pflanze ist das auf dem Foto, und ist sie giftig? Perplexity, schreib einen Brief an die Hausverwaltung, der erklärt, warum die Nebenkostenabrechnung in folgenden Punkten falsch ist.

Das sind nur drei von unzähligen Szenarien, in denen Nut­ze­r:in­nen Dienste mit generativer künstlicher Intelligenz verwenden. Drei recht unverfängliche dazu, doch oft wird es persönlicher: psychische oder physische Erkrankungen, sexuelle Vorlieben, Ängste – bei den Chatbots landen haufenweise privateste Informationen. Eine im Dezember veröffentlichte Studie von zwei Forschenden an der FU Berlin zeigt, dass mindestens ein Drittel der Nutzenden den Bot als Freun­d:in betrachtet. In einer Umfrage des IT-Verbands Bitkom vom November gaben 45 Prozent an, schon mal einen KI-Chatbot zu Symptomen und Gesundheitsthemen befragt zu haben.

2 Was ist das Problem dabei?

Für die Anbieter der Chatbots ist das erst mal gar kein Problem. Im Gegenteil, sie bekommen einen großen Schatz persönlicher Daten über ihre Nut­ze­r:in­nen geliefert. Nicht immer ist denen dabei bewusst, dass und welche Daten sie gerade preisgeben. Wer etwa ein erhaltenes Behördenschreiben hochlädt, und darum bittet, eine Antwort zu formulieren, verrät neben den Inhalten des Schreibens auch persönliche Daten wie Namen und Adresse.

wochentaz

Dieser Text stammt aus der wochentaz. Unserer Wochenzeitung von links! In der wochentaz geht es jede Woche um die Welt, wie sie ist – und wie sie sein könnte. Eine linke Wochenzeitung mit Stimme, Haltung und dem besonderen taz-Blick auf die Welt. Jeden Samstag neu am Kiosk und natürlich im Abo.

Die Eingaben der Nut­ze­r:in­nen sind nicht die einzige Datenquelle für die KI-Firmen. „Die Modelle, auf denen die KI-Chatbots basieren, werden zum einen mit Daten aus dem Internet trainiert – das umfasst auch Informationen, die Nut­ze­r:in­nen zum Beispiel auf Social-Media-Plattformen gepostet haben“, sagt Kleanthi Sardeli, Juristin bei der Datenschutz-NGO Noyb. „Zum anderen werden die Daten, die Nutzende bei KI-Chatbots eingeben, von den Unternehmen verarbeitet und genutzt – und können damit auch in den Antworten für andere auftauchen.“ Darüber hinaus sammeln die meisten Dienste Metadaten. Zum Beispiel Informationen über verwendete Geräte und Browser, über den Standort, Datum und Uhrzeit von Zugriffen, über Betriebssystem und Gerätekennung. Die Anbieter können sich also ein ziemlich genaues Bild von der Person machen, die ihren Dienst gerade verwendet.

3 Wie sieht es mit den Rechten der Nut­ze­r:in­nen aus?

Datenschützerin Sardeli stuft die Datenverarbeitung der Betreiber von KI-Modellen als illegal ein, und zwar gleich aus mehreren Gründen. So berufen sich die Unternehmen in der Regel auf ein „berechtigtes Interesse“ zur Verarbeitung persönlicher Daten für das KI-Training, statt eine explizite Einwilligung der Nut­ze­r:in­nen zu erbitten. Außerdem erfüllten sie nicht alle Pflichten aus der Datenschutz-Grundverordnung.

Zum Beispiel: Die Verordnung sieht vor, dass Nut­ze­r:in­nen etwa die Löschung ihrer persönlichen Daten fordern können oder, bei Fehlern, die Korrektur. „KI-Firmen erfüllen diese Rechte häufig nicht“, sagt Sardeli. Das liegt auch an einem derzeit ungelösten technischen Problem: Daten, die einmal ins Training eines KI-Modells geflossen sind, lassen sich dort nicht wieder herausholen, ohne dass das ganze Training wiederholt würde – was ein enormer Aufwand an Zeit, Rechenkapazitäten und Energie wäre.

Die Folgen dieses Problems zeigen zwei juristische Verfahren, die Noyb derzeit unterstützt. In einem Fall wirft eine Person ChatGPT vor, ein falsches Geburtsdatum zu ihrem Namen zu generieren. Der zweite Fall betrifft einen Norweger, zu dessen Namen der Chatbot wahrheitswidrig unter anderem generierte, er habe zwei seiner Kinder ermordet, beim dritten habe er einen Mord versucht und sei für die Taten zur Höchststrafe von 21 Jahren Haft verurteilt worden.

„Das sind keineswegs Extremfälle“, sagt Sardeli. „Das sind normale Menschen wie du und ich.“ Über den Norweger habe es im Internet nicht einmal viele Informationen gegeben. Die erzeugten Falschinformationen sind etwas, das als „halluzinieren“ bezeichnet wird. „So etwas kann jedem und jeder passieren, jederzeit.“

4 Wie will Confer das jetzt anders machen?

Ein neuer Anbieter verspricht nun Privatsphäre: Confer. Dahinter steckt ein alter Bekannter der alternativen Softwarebranche, der Gründer des Signal-Messengers, Moxie Marlinspike. Aus dem Vorstand der Signal-Stiftung hat er sich schon vor einigen Jahren zurückgezogen und geht jetzt mit Confer an die Öffentlichkeit. „Confer ist so designt, dass du Ideen entwickeln kannst, ohne dass deine Gedanken eines Tages gegen dich verwendet werden können“, schreibt Marlinspike in einem Blogbeitrag. Sein Versprechen: Confer liest nicht mit. Die Daten würden nicht verkauft, weitergegeben oder für das KI-Training genutzt. Um diesen Schutz möglich zu machen, müssen Nut­ze­r:in­nen bei der Registrierung einen speziellen Schlüssel erstellen. Zudem soll auf dem Server eine besondere Hardwareumgebung vor ungebetenem Mitlesen schützen. Der Code ist auf der Entwicklerplattform Github verfügbar.

„Das ist ein großes Versprechen, und es klingt gut“, sagt Sardeli. Dennoch bleibt sie vorsichtig: Über das KI-Modell und die zugrunde liegenden Trainingsdaten sei nichts bekannt. Und ob der Bot besser als andere abschneide, was etwa die Faktensicherheit von Antworten angehe, könne erst eine eingehende Analyse zeigen.

5 Gibt es weitere Alternativen?

Confer ist nicht der einzige KI-Chatbot, der einen besseren Schutz der Privatsphäre verspricht. Es gibt weitere, die zwar nicht das hohe Schutzniveau von Confer zusichern, dafür deutlich niedrigere Einstiegshürden haben. Einer davon ist Duck.ai, der KI-Chatbot des US-amerikanischen Suchmaschinenanbieters DuckDuckGo.

Das Unternehmen verspricht, Metadaten, die die Nut­ze­r:in­nen identifizierbar machen, zum Beispiel die IP-Adressen, zu entfernen, bevor die Eingabe an ein KI-Modell weitergereicht wird. Unterstützt werden unter anderem Modelle von den Firmen Anthropic, OpenAI, Meta und Mistral. Unter den Antworten verlinkt Duck.ai die Quellen. Im Unterschied zu Confer ist hier kein Konto nötig.

Team Zukunft – der Newsletter zu Klima, Wissen, Utopien

Du liest einen Text aus unserem Zukunfts-Ressort. Wenn Du Lust auf mehr positive Perspektiven hast, abonniere TEAM ZUKUNFT, den konstruktiven Newsletter zu Klima, Wissen, Utopien. Jeden Donnerstag bekommst du von uns eine Mail mit starken Gedanken für dich und den Planeten.

Ähnlich sieht es bei Leo AI aus, dem KI-Chatbot des Browseranbieters Brave. Wer den Browser installiert, startet Leo über die Einstellungen. Brave gibt an, dass die IP-Adressen nicht an die Betreiber der KI-Modelle weitergegeben und dass in den Chat eingegebene Daten und Fragen nur lokal gespeichert werden. Leo erlaubt neben der Nutzung von KI-Modellen wie Metas Llama und Claude Haiku von Antrophic auch die vor allem für Spe­zia­lis­t:in­nen interessante Möglichkeit, ein eigenes KI-Modell einzubinden.

6 Was können Nut­ze­r:in­nen tun?

„Ich würde empfehlen, die Menge an persönlichen Daten, die man in solchen KI-Chatbots eingibt, sehr gering zu halten“, sagt Sardeli. Nut­ze­r:in­nen hätten kaum Handlungsmöglichkeiten, wenn ein KI-Modell Falschinformationen generiert und der Anbieter sich weigert, diese zu korrigieren. Sie empfiehlt, in solchen Fällen Beschwerde bei einer Datenschutzaufsichtsbehörde einzureichen.

Harsh Varshney, der Softwareentwickler, der auch schon für Google arbeitete, hat gegenüber dem Magazin Business Insider im Dezember vier Ratschläge formuliert, die er selbst beherzige: keine Unternehmensinterna in einem öffentlich nutzbaren Chatbot erwähnen; regelmäßig den Verlauf löschen; die Datenschutzbedingungen lesen und beachten; und nur das bei einem KI-Chatbot eingeben, was man auch auf eine öffentlich lesbare Postkarte schreiben würde.

Eine Empfehlung, die Varshney nicht gegeben hat: vor der Nutzung überlegen, ob es wirklich einen KI-Chatbot braucht. Oder ob nicht eine Recherche per Suchmaschine, die Nutzung eines Taschenrechners oder ein Austausch mit anderen Menschen ebenso hilfreich sein könnte.

Gemeinsam für freie Presse

Als Genossenschaft gehören wir unseren Leser:innen. Und unser Journalismus ist nicht nur 100 % konzernfrei, sondern auch kostenfrei zugänglich. Alle Artikel stellen wir frei zur Verfügung, ohne Paywall. Gerade in diesen Zeiten müssen Einordnungen und Informationen allen zugänglich sein. Unsere Leser:innen müssen nichts bezahlen, wissen aber, dass kritischer, unabhängiger Journalismus nicht aus dem Nichts entsteht. Dafür sind wir sehr dankbar. Damit wir auch morgen noch unseren Journalismus machen können, brauchen wir mehr Unterstützung. Unser nächstes Ziel: 50.000 – und mit Ihrer Beteiligung können wir es schaffen. Setzen Sie ein Zeichen für die taz und für die Zukunft unseres Journalismus. Mit nur 5,- Euro sind Sie dabei! Jetzt unterstützen

Mehr zum Thema

0 Kommentare