: „Roboter entscheiden selbst“
DROHNEN Am Rande einer Roboter-Messe im CCH weisen Wissenschaftler auf die Gefahren hin
62, ist seit 1978 bei der Deutschen Friedensgesellschaft – Vereinigte Kriegsdienstgegner aktiv.
taz: Herr Mielke, im CCH findet gerade eine Konferenz über Roboter statt. Haben Sie eine Gegenveranstaltung organisiert?
Detlef Mielke: Nein, keine Gegen-, sondern eine Parallelveranstaltung.
Was haben Sie denn gegen Roboter?
Gar nichts. Roboter sind zunächst nur Ergebnisse wissenschaftlich-technischer Entwicklungen, die wir nicht bewerten. Wir sind keine Technikfeinde. Wir wollen die Wissenschaftler und Techniker mahnen, Verantwortung zu übernehmen.
Was ist das Problem mit Robotern?
Der entscheidende Punkt ist, wofür sie eingesetzt werden. Wir sind dagegen, dass Roboter beim Militär eingesetzt werden. Bei der Bundeswehr gibt es zur Zeit 650 Drohnen. Aktuell wird über die Anschaffung bewaffneter Drohnen diskutiert.
Für welche Aufgaben setzt das Militär Drohnen und andere Roboter ein?
Ein wesentlicher Bereich ist Spionage – das Militär nennt das Aufklärung –, aber auch für Angriffe. Die Roboter sollen dort tätig werden, wo es für Menschen zu gefährlich ist.
Wie trägt die Bundeswehr dazu bei, wenn sie keine bewaffneten Drohnen hat?
Sie liefert zum Beispiel Daten, damit Drohnen aus den USA oder Großbritannien Menschen töten. Zumindest werden Daten, die in Deutschland zum Beispiel von Mobilfunkbetreibern erhoben wurden, zu diesem Zweck weitergegeben. Wer genau die Daten weiter gibt, ist sehr undurchsichtig.
Worin liegt die neue Gefahr, wenn es keine Menschen sind, die die Waffen in der Hand haben?
Die Menge an Datenmaterial, das da verarbeitet werden muss, ist so groß, dass Menschen das kaum noch bewältigen können. Die Entwicklung geht dahin, dass Roboter selbst nach festgelegten Kriterien entscheiden. Auf den Knopf drückt zwar immer noch ein Mensch, aber der ist auf die Daten angewiesen, die der Roboter ihm liefert.
Wird das schon so praktiziert?
Der Übergang ist fließend. Es gibt etliche Datensysteme, in denen die aufgenommenen Daten sehr schnell verarbeitet werden müssen. Wenn die Daten vorgelegt werden, muss in sehr kurzer Zeit ein Knopfdruck erfolgen und etwas auslösen. Eine Überprüfung kann dann gar nicht stattfinden.Interview: KSCH
„Du sollst nicht töten – Roboter bewaffnen? Sagt Nein!“, Vortrag und Diskussion mit Christoph Marischka, Hans-Jörg Kreowski und Lühr Henken: 19 Uhr, Uni-Hauptgebäude, Edmund-Siemers-Allee 1
taz lesen kann jede:r
Als Genossenschaft gehören wir unseren Leser:innen. Und unser Journalismus ist nicht nur 100 % konzernfrei, sondern auch kostenfrei zugänglich. Texte, die es nicht allen recht machen und Stimmen, die man woanders nicht hört – immer aus Überzeugung und hier auf taz.de ohne Paywall. Unsere Leser:innen müssen nichts bezahlen, wissen aber, dass guter, kritischer Journalismus nicht aus dem Nichts entsteht. Dafür sind wir sehr dankbar. Damit wir auch morgen noch unseren Journalismus machen können, brauchen wir mehr Unterstützung. Unser nächstes Ziel: 40.000 – und mit Ihrer Beteiligung können wir es schaffen. Setzen Sie ein Zeichen für die taz und für die Zukunft unseres Journalismus. Mit nur 5,- Euro sind Sie dabei! Jetzt unterstützen