Philosoph über Digitalisierung: „Algorithmen sind gefährlich“
Der Philosoph Luciano Floridi warnt: Wir passen unser Leben zu sehr der digitalen Welt an – und verlieren die Freiheit, die Gesellschaft zu verändern.
taz: Herr Floridi, in Ihrem jüngsten Buch „Die 4. Revolution“ vergleichen Sie die Revolution, die die Computertechnologie ausgelöst hat, mit der von Kopernikus, Darwin und Freud. Warum halten Sie das für so wichtig?
Luciano Floridi: Vor 20 Jahren ist die digitale Revolution, die Computerrevolution, als rein technologische beschrieben worden. Es ging um die tollen Dinge, die wir tun können – schneller, besser, mehr, anders. Sie wurde verglichen mit der Revolution, die das Rad oder der Buchdruck ausgelöst haben. Das Internet wurde als Massenmedium missverstanden.
Und worum geht es eigentlich?
Unser Selbstverständnis verändert sich. Wir verbringen den größten Teil unseres Lebens in einer Umwelt, die von Technologie erschaffen wurde – man lebt zwar nicht in Massenmedien, aber online. Wir müssen darüber reden, wie diese neue informationelle Gesellschaft gestaltet werden soll.
Sie haben auf der re:publica am Montag mit Edward Snowden diskutiert. Ist er nicht das perfekte Beispiel für ein Leben, das untrennbar verknüpft ist mit Informationstechnologie?
Ganz sicher. Snowden hat den Übergang vom Analogen ins Digitale bereits komplett vollzogen. Er gehört zur neuen Stufe der Zivilisation: der digitalen.
Was ist mit denen, die keinen Zugang zum Internet haben?
Es gibt diesen digitalen Graben – der die Menschen, die in dieser Infosphäre leben, von denen trennt, die draußen bleiben. Aber das Leben von denen außerhalb ist stark beeinflusst von dem auf der anderen Seite der Welt. Welche Rolle das spielen kann, sehen Sie zum Beispiel in Indien, wo Facebook das Internet halb gratis raushauen wollte – und die Regierung das abgelehnt hat, wegen mangelnder Netzneutralität. Hier geht es darum, wer Gatekeeper für Informationen in unseren Gesellschaften sein soll. Die, die drinnen sind, bestimmen über das Leben derer, die es nicht sind.
In den letzten Jahren gab es im Bereich der künstlichen Intelligenz große Fortschritte – denken wir an die Google-Maschine AlphaGo. Sie bezweifeln trotzdem, dass es starke künstliche Intelligenz geben kann.
Wenn Sie mich fragen, ob ich das für unmöglich halte, ist die Antwort nein. Ich kann es nicht ausschließen. Aber glaube ich, dass es passiert? Nein. Denn es würde einen ganz dramatischen Wandel in der Technologie voraussetzen, den wir uns nicht einmal vorstellen können. Das ist reine Spekulation. Ganz ehrlich: Echte künstliche Intelligenz, so wie im Film „Terminator“ – das ist ein Witz. Ich verstehe nicht, warum Leute ernsthaft glauben, dass wir kurz davor stehen. Denn das letzte Mal, als ich nachgeschaut habe, da konnte mein Computer sich nicht einmal mit meinem Drucker verbinden, obwohl der direkt daneben stand.
Den Einsatz von dummen Maschinen halten Sie auch für gefährlich?
Momentan sehe ich vor allem ein fundamentales Risiko: die große Verführung, an Maschinen zu delegieren. Und zwar Aufgaben, die nicht delegiert werden sollten. Nicht weil die Maschinen es nicht können – sondern weil man immense Fehler machen kann. Zum Beispiel wenn Algorithmen entscheiden, ob man einen Kredit bekommt und zu welchen Konditionen. Der Bankkaufmann, der vor ihnen sitzt und die Daten in eine Maske eintippt, kann weder ihnen noch sich selbst erklären, wie diese Entscheidung zustande gekommen ist. Es ist eine magische Box.
Da ist die Frage natürlich: Wer hat hier die Handlungsmacht?
Ist die Maschine das Problem – oder der Idiot hinter der Maschine, der sie für diese Sachen verantwortlich gemacht hat und das alles zulässt. Man gibt Zahlen ein, dreht die Kurbel, und das ist, was man herausbekommt. Aber irgendjemand hat diesen Algorithmus ja erschaffen. Jemand hat ihn implementiert. Und jemand hat sich über all das nicht beschwert. Das waren alles Menschen. In den USA, aber auch in Großbritannien kommen zunehmend Predictive-Policing-Systeme zum Einsatz – eine Software, die Polizeiarbeit unterstützt, indem sie voraussagt, wo es Straftaten geben könnte. Unglücklicherweise arbeitet dieses System mit einem Algorithmus, der für die Vorhersage von Erdbeben programmiert wurde. Und nun sagt die Software eben nicht voraus, wo bald ein Erdbeben stattfinden wird, sondern das nächste Verbrechen. So dass die Polizei ihre Ressourcen dort konzentriert. Damit erzwingt man Wechselwirkungen.
51, ist ein italienischer Philosoph. Seine wichtigsten Arbeitsgebiete sind Informationsethik und die Philosophie der Information. Praktische Schwerpunkte liegen in der ethischen Gestaltung globaler vernetzter Kommunikationssystheme wie dem World Wide Web und in der Theorie Autonomer Agenten im Forschungsfeld der Künstlichen Intelligenz.
Was meinen Sie damit?
Soziale Interaktionen sind keine Erdbeben. Erdbeben passieren – und man kann nichts dagegen tun. Man kann damit umgehen, sie aber nicht vermeiden. Gegen soziale Muster kann man etwas tun. Darum geht es bei Freiheit: Man interveniert in der Gesellschaft. Man ändert ökonomische, soziale Bedingungen – und plötzlich gibt es kein Verbrechen. Aber wenn man soziale Muster wie Muster für Erdbeben behandelt – dann gibt man diese Freiheit, Dinge zu verändern, auf. Das ist furchtbar. Wollen wir wirklich in diese Richtung gehen? Unglücklicherweise ist es ziemlich wahrscheinlich, dass das passiert. Weil wir faul sind.
Was ist die Lösung?
Zum einen brauchen wir sicherere Programmierung. Bei automatischen Waffensystemen wäre es zum Beispiel am besten, sie erst gar nicht zu bauen. Aber wo das nicht möglich oder einfach schon zu spät ist, müssen wir Menschen zwei, drei Kontrollinstanzen einbauen. Nicht weil ich glaube, dass Menschen intelligenter sind. Sondern weil sie Zweifel haben. Nachfragen. Ein dummes Beispiel: AlphaGo, dieser Algorithmus, der in den letzten Wochen in der Presse war, gewinnt Go. Jeden Tag. Er wird nicht aufhören. Würde ein Feuer in dem Raum ausbrechen, in dem das Spiel stattfindet – dann würde der Mensch, gegen den er spielt, aus dem Raum rennen. Der Computer spielt weiter – und wird mit dem gesamten Gebäude abbrennen. Herzlichen Glückwunsch. Ist das die Intelligenz, über die wir reden? Natürlich nicht.
Also stehen Sie auf der Seite von Technikpessimisten, die es ohnehin für eine schlechte Idee halten, Computer so tief in unser Leben zu lassen?
Bis zu einem bestimmten Grad ja. Ich will zumindest sehen, dass jemand formuliert, das etwas eine schlechte Idee ist. Diese ganze Debatte über Maschinenethik in der Verteidigungsindustrie: Es gibt zahlreiche Programme – besonders eines in den USA, die Möglichkeiten untersuchen, wie man ethische Regeln in unbemannte Waffensysteme wie Drohnen implementieren kann. Das ist eine derartig schlechte Idee!
Warum? Hört sich doch erst einmal besser an als eine Maschine ohne solche Regeln.
Das ist, als würde man der AlphaGo-Maschine beibringen, den Raum zu verlassen, wenn ein Feueralarm losgeht. Dann wäre sie auf einen Rohrbruch aber immer noch nicht vorbereitet. Wir sollten einfach vorsichtig sein, was wir bauen. Algorithmen sind und können gefährlich sein. Sie werden unser Leben bestimmen. Und wir passen uns an sie an. Nicht sie an uns.
Ist also alles einfach nur schlimm?
Ich bin ziemlich optimistisch, was die Vorteile angeht: Wir können Maschinen bauen, die uns zu Diensten sind. Wir können sicherstellen, dass Dummheit für Intelligenz arbeitet – und zwar für unsere. Aber tun wir das auch? Da bin ich mir nicht so sicher. Ich fürchte, wir bewegen uns in die entgegengesetzte Richtung.
taz lesen kann jede:r
Als Genossenschaft gehören wir unseren Leser:innen. Und unser Journalismus ist nicht nur 100 % konzernfrei, sondern auch kostenfrei zugänglich. Texte, die es nicht allen recht machen und Stimmen, die man woanders nicht hört – immer aus Überzeugung und hier auf taz.de ohne Paywall. Unsere Leser:innen müssen nichts bezahlen, wissen aber, dass guter, kritischer Journalismus nicht aus dem Nichts entsteht. Dafür sind wir sehr dankbar. Damit wir auch morgen noch unseren Journalismus machen können, brauchen wir mehr Unterstützung. Unser nächstes Ziel: 40.000 – und mit Ihrer Beteiligung können wir es schaffen. Setzen Sie ein Zeichen für die taz und für die Zukunft unseres Journalismus. Mit nur 5,- Euro sind Sie dabei! Jetzt unterstützen
meistkommentiert
Israelische Drohnen in Gaza
Testlabor des Grauens
Rekrutierung im Krieg gegen Russland
Von der Straße weg
Proteste bei Nan Goldin
Logiken des Boykotts
Bundeskongress der Jusos
Was Scholz von Esken lernen kann
Bündnis Sahra Wagenknecht
Ein Bestsellerautor will in den Bundestag
Demokratieförderung nach Ende der Ampel
Die Lage ist dramatisch