piwik no script img

Philosophin Judith Simon über IT-Ethik„Wer bestimmt, wie Dinge funktionieren?“

Entwickeln überwiegend weiße Männer neue Technologien, steigt die Gefahr von Diskriminierung – ein Thema für die Hamburger Computerethikerin Judith Simon.

Wenn Technik auf Diversität trifft: Automatischer Seifenspender, der dunkle Haut nicht als solche erkennt – und die Seife verweigert (M.). Foto: Chukwuemeka Afigbo
Alexander Diehl
Interview von Alexander Diehl

taz: Frau Simon, Sie bekleiden eine Professur für „Ethik in der Informationstechnologie“. Hat das mehr mit den Gesetzen für Roboter zu tun, die der SF-Autor Isaac Asimov einmal formulierte – oder mit dem Datenschutz bei Facebook?

Judith Simon: Tatsächlich eigentlich mit beidem. Im Moment arbeite ich mehr zu Big Data und Künstlicher Intelligenz und dementsprechend auch zu Datenschutz und Privatsphäre, aber auch zu Gleichheit und Schutz vor Diskriminierung und ähnlichen Fragen. Und da ist Facebook natürlich einer der Akteure, die da immer im Zentrum stehen. Zu Robotern arbeiten Kollegen von mir, das ist nicht mein eigener Schwerpunkt, aber auch ein großes Thema in der Computerethik.

So etwas wie der – oder eigentlich: der jüngste – Nutzerdaten-Skandal bei Facebook, erleichtert Ihnen das die Arbeit?

Für Leute, sie sich ein bisschen auskennen, war es keine Überraschung. Weil man ja wusste, wie das funktioniert, welches die ökonomischen Modelle hinter Facebook sind, wie die Apps funktionieren. Ein Skandal war es – aber das war es auch schon vorher. Was die Sache nun nochmal in die Medien gebracht hat, war wohl die schiere Menge der betroffenen Nutzer. Der eigentliche Skandal sind diese Geschäftsmodelle, nicht unbedingt, dass es jetzt raus gekommen ist. Aber wenn so etwas ein solches Ausmaß hat, rückt es Themen für Ethik und IT oder Ethik und Digitalisierung nochmal stärker ins Zentrum.

Das heißt, Sie müssen in Zeiten der Cambridge-Analytica-Enthüllungen seltener erklären, was Ihr Job ist?

Genau. Es kommen aber auch viel mehr Anfragen an unsere Gruppe.

Seit wann gibt es denn Ihre Professur eigentlich?

Die ist ziemlich neu. Die Professur habe ich im Februar 2017 übernommen, und die Mitarbeiter sind alle im Lauf des letzten Jahres dazu gestoßen.

Und wie steht es um Menschen mit vergleichbaren Gebieten in der deutschen Hochschullandschaft insgesamt?

Da ist noch Luft nach oben. Meine Professur ist, so weit ich weiß, die erste und einzige für Ethik in der Informationstechnologie an einem Informatik-Institut. Es gibt natürlich noch mehr Institut und Orte, an den zu IT und Gesellschaft geforscht wird, unter anderem in Berlin und München, es gibt auch Institute für Medienethik, in Stuttgart etwa. In Holland gibt es gerade an den technischen Universitäten einige Philosophie-Professuren, die schon seit einigen Jahren stark interagieren mit Kollegen aus der Informatik, aber auch anderen Ingenieurswissenschaften; dann gibt es noch das Oxford Internet Institute, und in den USA gibt es eine doch schon 20 Jahre alte Tradition der „Values in Design“, wo eben auch Philosophen mit Informatikern zusammenarbeiten.

Universität Hamburg
Im Interview: Judith Simon

41, hat Psychologie in Berlin studiert und wurde in Wien in Philosophie promoviert. Nach Forschungen unter anderem in Kopenhagen, Wien, Paris, Karlsruhe, Berlin und an der Stanford University ist sie seit Anfang 2017 Professorin für Ethik in der Informationstechnologie am Fachbereich Informatik der Universität Hamburg.

Kann – oder muss – es eigentlich eine neue Ethik geben fürs Digitale? Geht es da nicht im Kern um vertraute Zutaten, nämlich darum, wie der Mensch mit dem Menschen umgeht?

Das ist eine alte Debatte auch in der Computerethik: Ist es nur die Anwendung von hergebrachten Ethiken – der Tugendethik, der Pflichtethik, des Utilitarismus – auf neue Fragen? Oder muss eine neue Ethik her? Ich glaube, es ist eine Mischung aus beidem. Einerseits werden im Digitalen bestimmte Fragen nur verstärkt, es stellen sich gleiche Fragen unter anderen Vorzeichen: nach Gleichheit, nach Freiheit, nach Gerechtigkeit. Die sind insofern natürlich nicht neu.

Aber?

Was sich verändert hat, ist, dass andere Akteure ins Spiel gekommen sind: Die klassischen Ethiken beziehen sich ja auf den menschlichen Individual-Akteur, auf das Individuum, das handelt und in seinem Handeln sich leiten lassen soll. Und nun hat man, bis zu einem gewissen Grad zumindest, auch nicht-menschliche Akteure, Künstliche Intelligenz; die ist natürlich nur in bedingtem Maße handlungsfähig oder intelligent. Aber trotzdem sind das neue Akteure, und man hat es etwa mit verteilten Entscheidungen in soziotechnischen Netzwerken zu tun. Und da braucht man vielleicht eine Ethik, die auch Handeln jenseits von Individuen in den Blick nimmt.

Bei meinen Recherchen zu diesem Gespräch bin ich auf einen interessanten, wenn auch etwas nebulösen Satz gestoßen: „Digitale Ethik gerät unter den generellen Verdacht der Zensur.“

Mir ist nicht ganz klar, was damit gemeint sein soll.

termin

Diskussion „Gewinner und Verlierer im digitalen Zeitalter“ mit Judith Simon und Joachim Bühler, Geschäftsführer des TÜV-Verbandes: Do, 31. 5., 19 Uhr, GLS-Bank Hamburg, Düsternstraße 10

Mein Verdacht ist, dass es da um Redefreiheit und angebliche Sprechverbote geht. Wiederum ja eine Debatte, für die es des Internets nicht erst bedurft hätte.

Das sind natürlich heiße Debatten, aber es gibt da auch die Tendenz, die Mitte zu vergessen und sich sozusagen radikal zu positionieren: also entweder für totale Redefreiheit, als würde es die immer geben; bestimmte Dinge sind ja gesetzlich schon abgedeckt, nationalsozialistische Wiederbetätigung oder Hassrede etwa, und da gibt es ja auch gute Gründe dafür, dass man nicht alles überall äußern kann. Bestimmte Dinge sind tatsächlich nicht neu.

Zum Beispiel?

Die Frage, zum Beispiel, wo die Freiheit des einen endet, wann sie einen anderen verletzt. Aber man muss die Dynamiken online mitdenken und im Detailfall entscheiden, was das heißt, wie es zu regulieren ist und von wem. Ich bin kein Freund von einfachen Antworten, und Begriffe wie Zensur werden da ja auch sehr schnell als Kampfbegriffe missbraucht. Sich auf die Seite derjenigen zu schlagen, die sagen: Jedes Löschen ist Zensur – das ist leicht, wenn man nicht betroffen ist von Hassrede.

Oder Schlimmerem.

In Sri Lanka hat Facebook gerade erst dazu beigetragen, dass Gewalt zwischen Buddhisten und Muslimen eskaliert ist – nicht absichtsvoll natürlich, aber durch die Art, wie Menschen Dinge widergespiegelt werden, die sie gerne hören. Das hat zu Gewalt geführt, ohne dass das irgend jemand bewusst so gewünscht hätte – einfach weil Algorithmen oft das optimieren, den Leuten das zu zeigen, das sie in Bann hält. Und diese Dynamik ist differenzierter zu betrachten als durch so eine banale „Freie Rede versus Zensur“-Debatte.

Sie nehmen in dieser Woche Platz auf einem Podium der Akademie der Nordkirche über das Thema „Gewinner und Verlierer im digitalen Zeitalter“ – wer ist denn heute wer, aus Ihrer Sicht?

Es ist wie so oft: Die, die schon viel haben, kriegen noch mehr, und die, die wenig haben, geht es möglicherweise schlechter. Das muss nicht, aber kann sich verstärken durch Digitalisierung.

Hat das auch etwas zu tun mit den „jungen, reichen, weißen Männern“, die – der Wissenschaftlerin Kate Crawford zufolge – vorrangig die Digitalisierung betreiben?

Wer Software entwickelt, trifft bestimmte Entscheidungen darüber, wie sie funktioniert. Und da kann es zu bewussten oder unbewussten Verzerrungen kommen. Es gab dieses Video, in dem ein automatischer Seifenspender einer schwarzen Hand, sozusagen, keine Seife gespendet hat – weil die Sensoren nur auf weiße Haut reagieren. Das ist ein erhellendes Beispiel dafür, wie überhaupt nicht böse gemeinte oder einfach Design-Entscheidungen dazu führen, dass Menschen diskriminiert werden. Und je weniger divers Entwicklungsteams sind, umso eher passiert so etwas; je mehr weiße, reiche Mittelklassemänner Technologien entwickeln, umso eher besteht diese Gefahr. Andererseits ist das Problem selten die digitale Technologie selbst, sondern der ökonomische Kontext, in dem Technologien entwickelt werden.

Was heißt das?

Wenn ich eine Art von Aufmerksamkeitsökonomie habe und versuche, Menschen so lange wie möglich auf den Plattformen zu halten, kann das Segregierung verstärken. Und die Frage ist immer: Wer bestimmt, wie Dinge funktionieren? Wer ist Leidtragender?

taz lesen kann jede:r

Als Genossenschaft gehören wir unseren Leser:innen. Und unser Journalismus ist nicht nur 100 % konzernfrei, sondern auch kostenfrei zugänglich. Texte, die es nicht allen recht machen und Stimmen, die man woanders nicht hört – immer aus Überzeugung und hier auf taz.de ohne Paywall. Unsere Leser:innen müssen nichts bezahlen, wissen aber, dass guter, kritischer Journalismus nicht aus dem Nichts entsteht. Dafür sind wir sehr dankbar. Damit wir auch morgen noch unseren Journalismus machen können, brauchen wir mehr Unterstützung. Unser nächstes Ziel: 40.000 – und mit Ihrer Beteiligung können wir es schaffen. Setzen Sie ein Zeichen für die taz und für die Zukunft unseres Journalismus. Mit nur 5,- Euro sind Sie dabei! Jetzt unterstützen

Mehr zum Thema

6 Kommentare

 / 
  • „je mehr weiße, reiche Mittelklassemänner Technologien entwickeln, umso eher besteht diese Gefahr“

     

    Bischen krass die Aussage. Ist gutes Design nun eine Frage der Hautfarbe oder des Geschlechts? Diversität, Fehlervermeidung entsteht durch ein gut durchmischtes Team und breit angelegte Tests.

     

    Und btw.: ob die Entwicklungsabteilungen, jene die die fachlichen Anforderungen festlegen immer aus Reichen bestehen ist auch fraglich.

  • Wenn Kommunikation in Facebook Blasen kanalisiert wird, sie nicht mehr bei der unmittelbaren Mitwelt ankommt, keinen Ansprechpartner mehr hat und lediglich Ziel monetärer Betrachtungen Facebooks (o.a.) ist, dann ist dies bereits Zensur.

  • Ich sehe das auch als Fehlkonstruktion an wenn der Seifenspender schwarze Haut nicht anerkennt. Das hat nichts mit Diskrimination zu tun, sonder ist glatt eine Fehlkonstruktion. Wenn ich schmutzige Hände habe die schwarz sind, dann muß das Gerät auch funktionieren. Das hat mit schwarzer Hautfarbe aber nichts zu tun. In der Philosophie kann man vieles auslegen wie es einem passt, hat aber mit einer gut funktionierenden Technologie rein garnichts zu tun. Ein gut funktionierender Seifenspender reagiert leider nicht auf Hautfarbe sondern auf Wärme. Und jeder Mensch hat Wärme in sich, egal ob er weiß oder farbig ist. Als Philosoph kann man, wen man ein falsches Beispiel anwendet, natürlich ein falsches Abbild der Realität erwecken oder auch darstellen.

    • @Alfredo Vargas:

      Das mit dem Seifenspender ist reine Propaganda und die "Forscherin" sollte doch erst mal in ein Physikbuch sehen.

       

      Es ist normal das Sensoren eine begrenzte Bandbreite haben.

       

      Hat der Seifenspender dieses Problen generell oder nur dieser eine,

       

      Hat er einen Defekt oder ist der Betriebsbereit.

       

      Hat der Seifenspender eine eigene Lichtquelle? Wahrscheinlich nein, das macht das Produkt teurer.

       

      Wenn er keine eigene Lichtquelle hat, welche Lampen liefern dann das Licht - und wie ist dessen spektrale Verteilung. (sagen wir der Seifenspender wurde mit Leuchstoffröhren getestet, aber nicht mit LED's welche ein begrenteres Spektrum an Farben haben - das plus das dunkle Haut Strahlung mehr absorbiert als reflektiert kann schon dazu führen das es nicht funktioniert)

       

      Kann der Sendor mit der angebotenen Lichtquelle richtig arbeiten?

       

      War die Art der Lichtquelle zur Zeit der Konstruktion bereits auf den Zielmärkten verbreitet....

       

      Das kann man noch lange weiter treiben.

       

      Fehlverhalten kann viele Faktoren haben.

      technische, ökonomische, organisatorische,...

       

      Aber diese unsachliche, unreflektierte Aussage der Forscherin bescheinigt nur eines: diese Professorenstelle ist falsch besetzt. Die Frau ist total ungeeignet eine solch anspruchsvolle Stelle zu begleiten. Von wissenschaftlich fundierter Arbeit meilenweit entfernt.

  • "Entwickeln überwiegend weiße Männer neue Technologien, steigt die Gefahr von Diskriminierung"

     

    Als weißer, männlicher Ingenieur: Selten so einen ausgemachten Schwachsinn gelesen und danke für die Beleidigung eines ganzen Berufstandes!

  • Dieser automatische Seifenspender scheint ja grundsätzlich eine Fehlkonstruktion zu sein - wenn die Sensoren nur auf weiße Haut reagieren, wie reagieren sie dann auf schmutzige Hände?