piwik no script img

Der HausbesuchDie Techniktrainerin

In einer kleinen Ecke des Internets ist Caroline Sinders zu Hause. Von dort aus will sie die Welt ein bisschen fairer machen.

Sie mag die Energie in Berlin, sagt Caroline Sinders Foto: Julia Baier

Ginge es nach Caroline Sinders, würden alle mehr über Algorithmen, Daten und deren Auswirkungen auf die Gesellschaft nachdenken. Sie sammelt feministische Texte, auf deren Grundlage sie Algorithmen trainieren will. Für sie ist das Wissenschaft und Kunst und Protest.

Draußen: Erst seit ein paar Monaten wohnt die US-Amerikanerin in Berlin. Deutsch versteht sie nicht, sie unterhält sich auf Englisch. Die Wohnung liegt in einer ruhigen Straße und ist gesäumt von Laubbäumen. Auf dem Balkon ein Sack Blumenerde.

Drinnen: Eine grüne Oase. In ihrer Wohnung stehen und hängen 27 Topfpflanzen, eine davon baumelt kopfüber herunter. Sie gehören einem Freund, er hat sie dagelassen, als sie die Wohnungen getauscht haben: Er ist in ihre New Yorker, sie in seine Berliner Wohnung gezogen („Aber ich habe die Pflanzen sehr lieb gewonnen“). Sinders geht in die Hocke und kehrt vertrocknete Blätter auf. Auf einem Sideboard Bücher mit englischen Titeln, übersetzt: „Wächter des Internets“ und „Protest, die Ästhetik des Widerstands“.

Das Erste: Wenn sie aufwacht, öffnet sie auf ihrem Handy mit Glitzerhülle ihre Mails. Das Postfach sei morgens immer voll mit Nachrichten, die Leute in den USA an sie gesendet haben. Wegen der Zeitverschiebung dann, wenn sie schläft („In New York sind sie sechs Stunden hinterher.“) Auch während des Gesprächs hat sie ihr Smartphone immer griffbereit, scrollt, schreibt Nachrichten.

Die tazze, das Logo der taz
taz am wochenende

Dieser Text stammt aus der taz am wochenende. Immer ab Samstag am Kiosk, im eKiosk oder gleich im praktischen Wochenendabo. Und bei Facebook und Twitter.

Jung und privat: Etwas über 30 ist Caroline Sinders. Ihr genaues Alter verrät sie den meisten Menschen nicht. Nicht weil ihr Alter ihr etwas ausmachen würde, sondern weil sie sich Gedanken darüber macht, was von ihr an die Öffentlichkeit dringt. In Deutschland fühle sie sich auch deshalb wohl, unter Gleichgesinnten, weil viele ihre digitale Privatsphäre genauso ernst nähmen wie sie.

Das tut sie: „Make Cyber Great Again“ steht auf einem Aufkleber, den sie an ihren Bildschirm geklebt hat. Oft arbeitet sie von zu Hause aus. Seit eineinhalb Jahren hauptsächlich daran, einen feministischen Datensatz zu erschaffen. Sie sammelt feministische Texte, auf deren Grundlage dann Algorithmen trainiert werden können – so will sie unsere Gesellschaft ein bisschen besser, ein bisschen fairer machen. Ihre Projekte betreibt sie als Künstlerin, Aktivistin, Wissenschaftlerin.

Das tat sie: Vor ihrer Arbeit an dem feministischen Datensatz hat sie Twitter, Reddit und andere soziale Netzwerke nach Hasskommentaren durchforstet, sie archiviert und analysiert. Kurz vor der Wahl Trumps zum Präsidenten hat sie sich dabei auf die amerikanische Alt-Right-Bewegung konzentriert: stunden-, tage-, wochenlang rechte Kommentare gelesen. Daraus sei auch ein Onlinewörterbuch entstanden, das eine amerikanische Bürgerrechtsorganisation für ihre Arbeit in der Rassismusbekämpfung benutze.

Positiver Dreh: Zu dieser Zeit sei sie von vielen „tollen Frauen, die mit Datenmaterial arbeiten“ umgeben gewesen. Auch davon inspiriert, dachte sie: „Oh Gott, ich sammle so viel Hassreden. Ich will das intellektuelle Gegenstück dazu erschaffen.“

Die Fahrradfelge als Rankgerüst: super Recycling-Idee zum Nachmachen Foto: Julia Baier

Die Lösung: Sie will einen feministischen Chatbot entwickeln. Ein Chatbot ist eine Software, die eine Unterhaltung mit einem menschlichen Gegenüber simulieren kann. Eine solche künstliche Intelligenz lernt durch die Daten, mit denen sie gefüttert wurde, mit dem Menschen zu interagieren. Denn „Daten sind die DNA maschinellen Lernens. Und sie sind überall.“

Die Archivarin: Um einen feministischen Chatbot zu erschaffen, braucht sie zuerst feministische Daten. Nur so kann sie ihn trainieren. Der feministische Datensatz soll dann aber allen zur Verfügung stehen, die damit arbeiten und experimentieren wollen („Im Grunde wird das eine große Onlinebibliothek, eine feministische“).

Das Wie: Was sind feministische Daten? Wie die Texte auswählen? „Ich kann nicht diejenige sein, die allein entscheidet, welches feministische Texte sind und welche nicht – das würde der feministischen Idee entgegenstehen“, sagt sie. Deshalb macht sie Workshops („viele unterschiedliche an vielen unterschiedlichen Orten“), um gemeinsam mit anderen passende Texte zu finden. Der Datensatz soll so divers wie möglich werden.

Diskriminiert: Der Grund, warum sie ihr Projekt so wichtig findet: Künstliche Intelligenzen können nur so gut sein wie die Daten, auf denen sie basieren. Da kann einiges schiefgehen. Zum Beispiel: „Software zur Gesichtserkennung ist schlecht darin, Hautton und Gender zu erkennen.“ Wenn die Software dann an Grenzübergängen eingesetzt wird, kann es sein, dass People of Color weniger gut erkannt werden, weil der Algorithmus hauptsächlich gelernt hat, weiße Gesichter zu identifizieren. „Stell dir nur das emotionale Trauma vor, das eine betroffene Person an der Grenze durchmacht, wenn der Algorithmus sie nicht erkennt“, sagt Sinders. Wer aber nicht erkannt wird, stehe schnell im Verdacht, nicht zu existieren oder illegal zu sein. Machtstrukturen würden so weiter verfestigt.

Zukunft: Sie will erreichen, dass sich Menschen über Daten Gedanken machen. Denn diese werden immer wichtiger, werden immer mehr Einfluss auf uns haben. Sinders will mit ihrem Projekt auch zeigen, dass es „schrecklich viel Arbeit“ sein kann, „gute Daten“ zu sammeln, um künstliche Intelligenzen zu trainieren. „Aber ethisch vertretbare Datensammlungen sind den Aufwand wert“, findet sie.

Gemeinsam: Bei den Workshops diskutiert sie mit den Teilnehmenden, welche Texte geeignet sind und in den Datensatz aufgenommen werden sollten. Oft in Kooperation mit Institutionen, um viele unterschiedliche Menschen zu erreichen. So hat sie einen im Londoner Victoria and Albert Museum veranstaltet, einen auf der Berliner Digitalkonferenz Republica, einen in einem New Yorker Buchladen der queeren Community.

Pause: Mittlerweile habe sie so viele Textvorschläge angesammelt, dass sie mit den Workshops erst einmal pausiere. Schließlich müsse sie alle Texte erst selbst lesen, bevor sie sie in den Datensatz aufnehme. „Was noch viel schlimmer ist: Ich habe angefangen, all die Bücher zu kaufen.“ Wirklich schlimm findet sie das in Wahrheit aber doch nicht: „Erschaffen bedeu­tet eben auch, Geld auszugeben.“

Das Handwerkszeug einer Internetaktivistin Foto: Julia Baier

Leben: Sie gähnt, entschuldigt sich, „ich habe anstrengende Wochen hinter mir“. Nicht nur wegen all der Texte, sondern da war auch die Trennung von ihrem Freund, dann die Versöhnung. Und dann noch, dass innerhalb von zwei Wochen zwei Freunde gestorben sind.

Kleine Ecke: Ihre Eltern, die in Louisiana leben, verstünden nicht, woran genau ihre Tochter arbeitet. Obwohl ihnen das Internet nicht fremd sei und sie in technischen Berufen arbeiteten. Sie hat versucht, es ihnen zu erklären. Das habe nicht geklappt – aber das findet sie okay. „Schließlich ist es ein sehr spezieller Teil des Internets,“ mit welchem sie sich beschäftigt, „nur eine kleine Ecke“.

Das denkt sie: „Ich mag die Energie hier“, sagt sie über Berlin. Dort lebten viele Menschen, die sich mit Menschenrechten auseinandersetzen und sich dafür einsetzten. So wie sie auch. „Es gibt so viel zu tun, Kultur, Kunst, Politik.“ Und die Berliner fühlten sich befugt, zu kritisieren und sich zu wehren. „Jede Woche kann man auf eine Demonstration gehen, wenn man will.“ Auch deshalb will sie in der deutschen Hauptstadt bleiben („solange ich darf“). Bald muss sie ihr Visum verlängern.

taz lesen kann jede:r

Als Genossenschaft gehören wir unseren Leser:innen. Und unser Journalismus ist nicht nur 100 % konzernfrei, sondern auch kostenfrei zugänglich. Texte, die es nicht allen recht machen und Stimmen, die man woanders nicht hört – immer aus Überzeugung und hier auf taz.de ohne Paywall. Unsere Leser:innen müssen nichts bezahlen, wissen aber, dass guter, kritischer Journalismus nicht aus dem Nichts entsteht. Dafür sind wir sehr dankbar. Damit wir auch morgen noch unseren Journalismus machen können, brauchen wir mehr Unterstützung. Unser nächstes Ziel: 40.000 – und mit Ihrer Beteiligung können wir es schaffen. Setzen Sie ein Zeichen für die taz und für die Zukunft unseres Journalismus. Mit nur 5,- Euro sind Sie dabei! Jetzt unterstützen

Mehr zum Thema

3 Kommentare

 / 
  • 6G
    61321 (Profil gelöscht)

    "Auch während des Gesprächs hat sie ihr Smartphone immer griffbereit, scrollt, schreibt Nachrichten."



    habe an der Stelle augenblicklich aufgehört zu weiterzulesen

  • Ein wenig techniklastig zwar, aber m.E. eine sehr gut geschriebene Veranschaulichung, wie ein Bias, also eine Schlagseite in den Ausgangsdaten das Ergebnis der KI (irgendwie unmerklich) beeinflusst:

    blog.conceptnet.io...out-really-trying/

    ConceptNet ist auch deshalb interessant, weil sie die Ergebnisse ihrer linguistischen Arbeit frei zur Verfügung stellen.

  • Wenn auf dem Boden vertrocknete Blätter herum liegen, scheint die Pflanzenliebe den Pflanzen nicht gut zu bekommen...