piwik no script img

Mensch und MaschineHaben Sie Angst vor Algorithmen?

Vieles in unserem Alltag wird von Algorithmen geregelt. Wir vertrauen auf ihre Neutralität. Dabei entscheiden sie nicht immer fair.

Manche behaupten, sie kenne uns besser als wir selbst: die Datenkrake Foto: dpa

Stellen Sie sich vor, Sie googlen sich selbst. Rechts neben den Suchtreffern zu Ihrem Namen poppt eine Werbespalte auf. „Miriam Meister“ – mal angenommen Sie heißen so – „im Gefängnis?“, steht da. Sie klicken auf die Werbung und landen auf einer Homepage, auf der man recherchieren kann, ob jemand vorbestraft ist, inklusive Gerichtsakten, Adressen und Alter.

Irgendetwas hat Ihren Namen mit einer möglichen Haftstrafe in Verbindung gebracht. Ein Algorithmus.

Es ist unwahrscheinlich, dass Ihnen, Miriam Meister, so etwas passiert. Sie leben in Deutschland, die Homepage ist amerikanisch. Latanya Sweeney aus Boston ging es aber so.

Die Harvard-Professorin wollte verstehen, warum. Sie googelte weiter, suchte nach Namen, bei denen die gleiche Werbung geschaltet wird. Mit einer Studie, die diese Werbeeinblendungen analysiert, konnte die Computerwissenschaftlerin belegen: Personen, deren Name mit schwarzer Hautfarbe assoziiert wird, bekommen eine Werbung, die nahelegt, dass sie im Gefängnis sitzen, bis zu 25 Prozent häufiger angezeigt, als Menschen mit „weißem Namen“.

taz.am Wochenende

Fünf Jahre Grün-Rot in Baden-Württemberg. Läuft der Laden weiter? Wie sich das „Ländle“ nach dem Machtwechsel entwickelt hat – und von wem die Menschen repräsentiert werden möchten. Zehn Sonderseiten zur Landtagswahl in der taz.am wochenende vom 5./6. März. Außerdem: Unser Leben wird immer mehr von Algorithmen beeinflusst. Müssen wir anfangen, ihnen Ethik beizubringen? Und: Vor fünf Jahren explodierte das Kernkraftwerk Fukushima. Die Anwohner wurden evakuiert. Wie ist es, zurückzukehren? Am Kiosk, eKiosk oder gleich im praktischen Wochenendabo.

Der Algorithmus rechnete also rassistisch.

Ein weiteres Beispiel: Zwei US-Forscher wollten wissen, ob Algorithmen auch etwas damit zu tun haben könnten, dass Frauen seltener in Führungspositionen sind und oft schlechter bezahlt werden als männliche Kollegen. Sie entwickelten ein Programm, das automatisierte Werbeanzeigen im Internet analysiert. Das Ergebnis: Hoch dotierte Arbeitsangebote werden Männern fast sechs Mal so häufig angezeigt wie Frauen.

Algorithmen sind nicht per se schlecht oder gefährlich. Sie sind aber auch nicht so objektiv, wie viele denken. Weil sie immer von Menschen entwickelt und mit Daten gefüttert werden. Fälle, in denen Algorithmen unfair entscheiden, finden sich also immer wieder. Und Algorithmen entscheiden über sehr vieles: Kreditvergabe, Versicherungstarife, Terrorlisten und mit darüber, wer einen Job kriegt und wer nicht.

Sie rechnen auf Basis vorhandener Datensätze. Vereinfacht sieht das so aus: Wenn in der Vergangenheit meist weiße Mittelschichtsmänner eingestellt wurden, dann lernt der Algorithmus aus diesen Daten und reproduziert die vorhandenen Entscheidungsmuster. Er wählt also auch weiterhin hauptsächlich weiße Männer aus der Mittelschicht aus.

In der taz.am wochenende vom 5./6. März 2016 geht unsere Autorin Meike Laaff der Frage nach, ob man Algorithmen dazu bringen kann, ethische Entscheidungen zu treffen. Sie erzählt unter anderem von einem Forschungsteam, das an einem Antidiskriminierungs-Algorithmus feilt und besucht Menschen, die daran arbeiten, die digitale Welt gerechter zu machen. Aber geht das überhaupt?

Was meinen Sie? Müssen wir Angst vor Algorithmen haben? Sind wir machtlos und werden von Maschinen beherrscht? Oder ist das nur fortschrittsfeindliche Panik? Wem vertrauen Sie, Mensch oder Computer?

Diskutieren Sie mit!

Die ganze Geschichte „Kann ein Computer Ethik lernen?“ lesen Sie in der taz.am wochenende vom 5./6. März 2016.

taz lesen kann jede:r

Als Genossenschaft gehören wir unseren Leser:innen. Und unser Journalismus ist nicht nur 100 % konzernfrei, sondern auch kostenfrei zugänglich. Texte, die es nicht allen recht machen und Stimmen, die man woanders nicht hört – immer aus Überzeugung und hier auf taz.de ohne Paywall. Unsere Leser:innen müssen nichts bezahlen, wissen aber, dass guter, kritischer Journalismus nicht aus dem Nichts entsteht. Dafür sind wir sehr dankbar. Damit wir auch morgen noch unseren Journalismus machen können, brauchen wir mehr Unterstützung. Unser nächstes Ziel: 40.000 – und mit Ihrer Beteiligung können wir es schaffen. Setzen Sie ein Zeichen für die taz und für die Zukunft unseres Journalismus. Mit nur 5,- Euro sind Sie dabei! Jetzt unterstützen

Mehr zum Thema

12 Kommentare

 / 
  • 3G
    3784 (Profil gelöscht)

    Mit dem Wort Algorithmus wird eine eindeutige Handlungsvorschrift zur Lösung eines Problems bezeichnet. Ein Algorithmus erzeugt entweder keine Probleme, schon gar nicht solche, die es vor ihm noch nicht gab, oder es handelt sich nur um eine dümmliche Codierung, die als Algorithmus ausgegeben, nur weil die Befehlsfolge maschinell in der Lage ist, irgendeinen Unsinn zu produzieren.

     

    Angst vor einem Algorithmus ist daher nicht angebracht, jedoch vor jenen Dummköpfen, welche die erste Regel der maschinellen Verarbeitung missachten, die schon seit dem ersten Computerprogramm „Garbage in, Garbage out“ lautet, und vor jenen Schwachköpfen, die solch entstandenen Aussagen mehr Wahrheitsgehalt zumessen als der Wirklichkeit. Was die Betroffenen einer kafkaesken Realität aussetzt, aus der kein Entrinnen mehr möglich.

     

    Denn in den seltensten Fällen trägt der unerschütterliche Glaube in die Technologie zur Erheiterung bei, wie z. B. bei diesem Fall:

    http://www.bestoficeland.ch/reise/der-laugarvegur-irrtum/

  • @@ H.G.S. et al.

     

    Nein - das allfällige Zerbröseln Verdampfen von Verantwortung/Verantwortlichkeit der Führungskräfteschweißträger ist diesen Moch nicht genug -

    Beunruhigt diese immer noch - ja

    Treibt sie um - nämlich -

    Ganz eventuell doch noch am Kanthaken gekriegt zu werden. Nürnberg - aber auch Ackermann Zumwinkel Middelhof & der ein oder Andere lassen grüßen.

     

    Ja - "Ich bin s nicht, Adolf Hitler ist es gewesen" Das lebende Mahnmal by Hermann van Harten -

    Solches bereitet schlaflose Nächte - oder Eher auch nicht.

    Aber die Lücke - die der Teufel läßt -Geehört pneumatisch geschlossen.

    Zyankali Hängen in Nürnberg

    Sitzen in Spandau - Gaahrp -

    Rette sich wer …Yes we can?!

    Also ~>~>~>

    "Ich bin s nicht, Adolf Hitler ist es gewesen" ~> nunmehr ~>

    in der "Combi - 2.0 - 4.0 - Version!"

    "Ich bin's nicht - der Combi ist es gewesen."

     

    Norman Mailer hat solches schon für die Bomberpiloten a Yugoslavia außerhalb Der Reichweite jeglicher Luftabwehr zu recht - PERVERS genannt - aber -

    Ein paar Blätter weiter wird der

    Versuch - gut auf Klippschulniveau -

    Unternommen - Moral - zu entsorgen

    Wünsche weiterhin alles Schlechte!

    • @Lowandorder:

      So sieht´s aus mit dem Wollen, nicht verantwortlich gemacht werden zu können, für die Taten von vorgeblich nicht verantwortlich zu Machendem.- Die Mitwelt geht immer noch, ein paar Grad kälter zu stellen.

  • Angst vor Arschlöchern, die algorithmische Ergebnisse zu irgendwelchen, miesen Handlungsbegründungen gut gebrauchen könnten, wäre nicht unangebracht. Die z.B. algorithmische Ergebnisse solange miteinander interagieren lassen, bis ein gewünscht mieses Ergebnis heraus gearbeitet wäre. (Polizei, NSA, USA (Kriegserklärungen auch gegen schwarze Mitbürger), Politiker, Innenminister...)

     

    Wobei sowas auch ohne Computer ginge.

    • @H.G.S.:

      Gegen die USA richtet sich mein Zorn akut aber auch, wegen des dort in Entwicklung befindlichen Programms, eine drohnen- algorithmisch selbständig ermittelte Begründungssachlage ermächtigen zu wollen, mittels dieser Drohne eine sofortige Hinrichtung durchzuführen.

  • Über das hier schon humorvoll angemerkte hinaus -

    Erinnert mich das Feilen an einem - öh

    "Antidiskriminierungs-Algorithmus" -

    An die Mathematisierungsversuche von Rechtsprechung in den 70ern.

    kurz - Viel Spaß beim Bauchplatscher;)

    Im Sinne des Solipsismus - vulgo -

    "Du holst unten raus - was du oben reingesteckt hast;()"

  • Oje, wieder jemand, der über IT schreibt, ohne die Grundlagen verstanden zu haben!

     

    Die Algorithmen sind neutral - das Ergebnis ist aber nicht neutral. Warum?

     

    Die angesprochenen Algorithmen basieren auf Wahrscheinlichkeiten, dass eine Information zu einem bestimmten Nutzer passt. Ihr Ergebnis ist also ein Abbild der Gesellschaft - nicht mehr und nicht weniger.

  • Angst vor Algorythmen habe ich nicht, und schon gar nicht vor solchen in Computerprogrammen.

     

    Doch angesichts solcher Algorythmen, die in Politik, Wirtschaft und Hochfinanz zunehmend verwendet werden, um zu täuschen und selbst solches, daß nach gesundem Volksempfinden nur noch als kriminell bezeichnet werden kann, als legal erscheinen zu lassen, steigt auch in mir zunehmen Wut auf.

     

    Ansonsten tut eine gewisse Art von Algorythmen genau das, was sie soll, und bei entsprechendem Bedarf und passender Findigkeit läßt sich damit sogar "wissenschaftlich beweisen", daß ausschließlich das Aroma der Bratkartoffeln an den zunehmend unbezahlbaren Wohnungsmieten schuld ist.

  • Wer Algorithmen vertraut, glaubt auch an den Osterhasen. Mit nur einem Hauch von Reflektion ist klar, das Mathematik nur Modelle für die Wirklichkeit liefert. Das ist nur fast ( mathematisch: alles bis auf endlich viel) die Wirklichkeit, muß also nichts damit zu tun haben. By the way: Google is evil

    • @Dodoist:

      Who the fuck is google?

       

      Eric Schmidt, Sergey Brin und Larry Page? Oder die 61.814 Mitarbeiter, die das Unternehmen zuletzt hatte - und die ihre Jobs womöglich Algorithmen zu verdanken haben? Die Google-User? Sie? Ich?

       

      By the way: Wir alle sind "die Gesellschaft". Ich meine: Fast alle (mathematisch: bis auf endlich viele).

      • @mowgli:

        Ich glaube nicht, das wir alle "die Gesellschaft" sind, das waren immer schon die Reichen und Mächtigen. Nebenbei ich benutze Ixquick. Und du?

      • @mowgli:

        Wieso? Haben etwa Algorithmen die Gelder erwirtschaftet, mit denen Google seine bedauernswerten MA bezahlt?