Künstliche Intelligenz: Der drohende Daten-Kolonialismus
Künstliche Intelligenz (KI) wird vielfach als Lösung für zahlreiche Probleme gepriesen. Doch die KI ist kein Allheilmittel, warnen Experten.
Eine gute Zusammenfassung der KI-Trends und der gesellschaftlichen Reaktion gibt jetzt das neue Jahrbuch „Technik im Gespräch: KI in der Praxis“ (pdf-Datei), das vom Austrian Institute of Technology (AIT) regelmäßig zu den Alpbacher Technologiegesprächen herausgegeben wird. „Angesichts der planetarischen Gefahren und Herausforderungen brauchen wir dringend entsprechende technologische Entwicklungen und Innovationen, um diese zu bewältigen und weitere Gefahren abzuwehren – damit es nicht, wie Martin Rees gemeint hat, unser letztes Jahrhundert wird“, erklärt Herausgeber Hannes Androsch in seinem Vorwort.
In der Darstellung wird unterschieden zwischen der Anwendung von KI-Methoden in bestimmten Domänen und für spezifische Fragestellungen („vertical AI“) und dem Einsatz von Algorithmen, die in vielen Anwendungsbereichen einsetzbar sind („horizontal AI“).
Nach der Statistik gibt es in den USA derzeit 13.700 Organisationen (Forschungsinstitute und Unternehmen), die sich mit KI beschäftigen. In China sind es 11.400 und in der EU 5.900. Großbritannien wird mit 3.500 Organisationen gesondert geführt, während Japan mit 1.200 Organisationen vergleichsweise wenig zu bieten hat. Im wirtschaftlichen Bereich werden KI-Systeme vor allem zur Produktivitätssteigerung eingesetzt (49 Prozent bei einer Befragung von 360 Unternehmen für die Studie „Machine Learning“ des INFORM DataLab) vor Kostensenkung (46 Prozent) und besserer Qualität (26).
Einsatz im Pharmalabor
In der Pharmaforschung hilft KI bei der Entwicklung von neuen Medikamenten, etwa gegen antibiotikaresistente Bakterien. So konnte ein KI-System, das am Massachusetts Institute of Technology (MIT) mit zahlreichen Strukturen von Biomolekülen sowie deren biologischer Wirkung gefüttert wurde, eine chemische Struktur als potenziell wirksam identifizieren, auf die die menschlichen Experten nie gekommen wären. Versuche im Labor und in der Klinik führten dann zu einem völlig neuartigen Antibiotikum, dessen Hauptsubstanz „Halicin“ getauft wurde – in Anlehnung an „HAL“, den legendären Supercomputer mit menschlichen Empfindungen aus dem Film „2001: Odyssee im Weltraum“.
Auch in Fachrichtungen, von denen man es nicht erwarten würde, hält KI Einzug. So zum Beispiel im Spezialgebiet der Epigrafik des Altgriechischen, das mit Texten auf Steinen und Gefäßen arbeitet. Von ihnen sind häufig nur Fragmente über die Jahrtausende erhalten geblieben, die dann auch längere Transporte hinter sich hatten. Ein internationales Forscherkonsortium hat dafür die KI-Anwendung „Ithaca“ entwickelt, bei dem es sich um ein „tiefes neuronales Netzwerk“ handelt, das die gleichzeitige textliche Restaurierung, geografische Zuordnung und chronologische Zuweisung von altgriechischen Inschriften ermöglicht.
Sein Wissen schöpft Ithaca aus der Auswertung von 78.000 Inschriften, die mit Metadaten über den Ort (84 Regionen) und die Zeit ihrer Anfertigung (zwischen 800 vor und 800 nach Christus) verknüpft wurden. Bei Eingabe neuer Text-Fragmente schlägt Ithaca eine Ergänzung der fehlenden Zeichen, einen Entstehungsort und eine Entstehungszeit vor. Nach den bisherigen Erfahrungen arbeitet das KI-System bei der Standortzuordnung mit einer Genauigkeit von 71 Prozent und beim Entstehungszeitpunkt der Texte mit einer Bandbreite von weniger als 30 Jahren. Auf diese Weise können Schlüsseltexte des klassischen Griechenlands neu gelesen und datiert werden.
Aber es gibt auch Grenzen für den Einsatz von KI. „Man sollte nicht jede neue Methode als Allheilmittel betrachten“, gießt Andreas Kugi, Professor für komplexe dynamische Systeme an der TU Wien, ein wenig Wasser in den Wein des Technikoptimismus. „Bei Automatisierungslösungen bin ich kein Vertreter des starken End-to-End-Learnings, bei dem man vorne Daten hineinfüttert und erwartet, dass man am Ausgang alles herausbekommt, was man möchte“, gibt er Erfahrungen aus seinem Institut für Automatisierungs- und Regelungstechnik wieder.
„Unser Ansatz besteht eher darin, dass wir möglichst viel A-priori-Wissen und spezifisches Domänen-Wissen in den Lernprozess mit einfließen lassen.“ Konkret bedeutet das, die klassischen Automatisierungsmethoden mit physikalisch basierten, mathematischen Modellen und modernen Methoden des maschinellen Lernens zu kombinieren. Auf diese Weise lasse sich etwa die Bewegung eines Roboters optimieren. Während die Gelenksgeschwindigkeiten des stählernen Arbeiters vorprogrammiert sind, bleiben nach den Worten von Kugi „für die Modellierung der Umgebung aber moderne Verfahren des maschinellen Lernens unabdingbar“.
Die maschinelle „Intelligenz“ kann aber auch ausgesprochen dumm sein. Das führte in den USA zu einer heftigen Debatte über Diskriminierung durch KI. Nachdem es Berichte über Fehlleistungen von KI-Systemen – etwa in sexistischen Jobeinstellungspraktiken oder rassistischen Polizeiaktionen – gab, stellte sich heraus, dass die Trainingsdaten für solche KI-Systeme systematisch verzerrt waren. Sie wurden überwiegend optimiert mit den Daten von weißen Männern, eben der Gruppe der IT-Programmierer, während Frauen und People of Color in dieser berechneten KI-Gesellschaft nur randständig vorkamen.
„Die Unterrepräsentation von Frauen und People of Color in der Technologie und die Untererfassung dieser Gruppen in den Daten, die die KI formen, hat zur Entwicklung von Technologien geführt, die für einen kleinen Teil der Welt optimiert sind“, kritisierte die amerikanische Aktivistin Joy Buolamwini im Namen der von ihr gegründeten „Algorithmic Justice League“.
Inzwischen dreht sich die internationale Diskussion weiter und greift Vorwürfe eines „neuen Kolonialismus“ auf. In den Augen dieser Kritiker wiederholen sich in der aktuellen, vor allem von großen Datenkonzernen getriebenen Entwicklung der KI die „Muster aus dem historischen Kolonialismus“. Sprich: die Dominanz westlicher Industrieländer über den Globalen Süden. Konkret reiche dieser negative Einfluss „von der Ausbeutung von Arbeitskräften bis hin zur massenhaften Extraktion von Daten aus Ländern mit schwachem Datenschutz“, so die Kritiker.
Auf der Website der MIT Technology Review wurden zahlreiche konkrete Beispiele dafür angeführt, die das Alpbach-Jahrbuch zusammenfasst: „Beginnend bei der Rekrutierung von Fachkräften durch US-Daten-Labelling-Firmen zu minimalsten Löhnen im krisengeschüttelten Venezuela bis hin zu einer neuen digitalen sozialen Kluft zwischen Weiß und Schwarz in Südafrika (digital apartheid)“.
Eine bessere Welt durch KI? So einfach dürfte es wahrscheinlich nicht werden. Denn viele gesellschaftliche Konflikte und Problemlagen lassen sich nicht mit verbesserter Rechnerei beilegen.
taz lesen kann jede:r
Als Genossenschaft gehören wir unseren Leser:innen. Und unser Journalismus ist nicht nur 100 % konzernfrei, sondern auch kostenfrei zugänglich. Texte, die es nicht allen recht machen und Stimmen, die man woanders nicht hört – immer aus Überzeugung und hier auf taz.de ohne Paywall. Unsere Leser:innen müssen nichts bezahlen, wissen aber, dass guter, kritischer Journalismus nicht aus dem Nichts entsteht. Dafür sind wir sehr dankbar. Damit wir auch morgen noch unseren Journalismus machen können, brauchen wir mehr Unterstützung. Unser nächstes Ziel: 40.000 – und mit Ihrer Beteiligung können wir es schaffen. Setzen Sie ein Zeichen für die taz und für die Zukunft unseres Journalismus. Mit nur 5,- Euro sind Sie dabei! Jetzt unterstützen
meistkommentiert
Nan Goldin in Neuer Nationalgalerie
Claudia Roth entsetzt über Proteste
Juso-Chef über Bundestagswahlkampf
„Das ist unsere Bedingung“
Politikwissenschaftlerin über Ukraine
„Land gegen Frieden funktioniert nicht“
Bündnis Sahra Wagenknecht
Ein Bestellerautor will in den Bundestag
Nukleare Drohungen
Angst ist ein lautes Gefühl
taz-Recherche zu Gewalt gegen Frauen
Eine ganz normale Woche in Deutschland