piwik no script img

Künstliche IntelligenzDer drohende Daten-Kolonialismus

Künstliche Intelligenz (KI) wird vielfach als Lösung für zahlreiche Probleme gepriesen. Doch die KI ist kein Allheilmittel, warnen Experten.

In der medizinischen Diagnostik können Algorithmen dazu beitragen, tomografische Aufnahmen schneller und besser auszuwerten Foto: ImageBroker/imago

Berlin taz | Die Spannung zwischen Gesellschaft und Technik, ihr Nutzen und ihr Schaden, prägt derzeit vor allem die Auseinandersetzung um die künstliche Intelligenz (KI). Nach einer Anfangsphase des unbeschwerten ­Forschens, nur manchmal gestört durch technische Dystopien einer Herrschaft der Rechenmaschinen, ist das Thema inzwischen in der ­Politik angekommen. Aktuell diskutieren sowohl der Deutsche Bundestag als auch das Europäische Parlament, welche Leitplanken und Begrenzungen der neuen ­Technik gesetzt werden sollen – Stichwort „Ethische KI“. Wo dies nicht geschieht, etwa in China mit seinem System des ­„Social Scoring“, werden die Rechner zum politischen Überwachungsinstrument.

Eine gute Zusammenfassung der KI-Trends und der gesellschaftlichen Reaktion gibt jetzt das neue Jahrbuch „Technik im Gespräch: KI in der Praxis“ (pdf-Datei), das vom Austrian Institute of Technology (AIT) regelmäßig zu den Alpbacher Technologiegesprächen herausgegeben wird. „Angesichts der planetarischen Gefahren und Herausforderungen brauchen wir dringend entsprechende technologische Entwicklungen und ­Innovationen, um diese zu bewältigen und weitere Gefahren abzuwehren – damit es nicht, wie Martin Rees gemeint hat, unser letztes Jahrhundert wird“, erklärt Herausgeber Hannes Androsch in seinem Vorwort.

In der Darstellung wird unterschieden zwischen der Anwendung von KI-Methoden in bestimmten Domänen und für spezifische Fragestellungen („vertical AI“) und dem Einsatz von Algorithmen, die in vielen Anwendungsbereichen einsetzbar sind („horizontal AI“).

Nach der Statistik gibt es in den USA derzeit 13.700 Organisationen (Forschungsinstitute und Unternehmen), die sich mit KI beschäftigen. In China sind es 11.400 und in der EU 5.900. Großbritannien wird mit 3.500 Organisationen gesondert geführt, während Japan mit 1.200 Organisationen vergleichsweise wenig zu bieten hat. Im wirtschaftlichen Bereich werden KI-Systeme vor allem zur Produktivitätssteigerung eingesetzt (49 Prozent bei einer Befragung von 360 Unternehmen für die Studie „Machine Learning“ des INFORM DataLab) vor Kostensenkung (46 Prozent) und besserer Qualität (26).

Einsatz im Pharmalabor

In der Pharmaforschung hilft KI bei der Entwicklung von neuen Medi­kamenten, etwa gegen antibiotika­resistente Bakterien. So konnte ein KI-System, das am Massachusetts Institute of Technology (MIT) mit zahlreichen Strukturen von Biomolekülen sowie deren biologischer Wirkung gefüttert wurde, eine chemische Struktur als potenziell wirksam identifizieren, auf die die menschlichen Experten nie gekommen wären. Versuche im Labor und in der Klinik führten dann zu einem völlig neuartigen Antibiotikum, dessen Hauptsubstanz „Halicin“ getauft wurde – in Anlehnung an „HAL“, den legendären Supercomputer mit menschlichen Empfindungen aus dem Film „2001: Odyssee im Weltraum“.

Auch in Fachrichtungen, von denen man es nicht erwarten würde, hält KI Einzug. So zum Beispiel im Spezialgebiet der Epigrafik des Altgriechischen, das mit Texten auf Steinen und Gefäßen arbeitet. Von ihnen sind häufig nur Fragmente über die Jahrtausende erhalten geblieben, die dann auch längere Transporte hinter sich hatten. Ein internationales Forscherkonsortium hat dafür die KI-Anwendung „Ithaca“ entwickelt, bei dem es sich um ein „tiefes neuronales Netzwerk“ handelt, das die gleichzeitige textliche Restaurierung, geografische Zuordnung und chronologische Zuweisung von altgriechischen Inschriften ermöglicht.

Sein Wissen schöpft Ithaca aus der Auswertung von 78.000 Inschriften, die mit Metadaten über den Ort (84 Regionen) und die Zeit ihrer Anfertigung (zwischen 800 vor und 800 nach Christus) verknüpft wurden. Bei Eingabe neuer Text-Fragmente schlägt Ithaca eine Ergänzung der fehlenden Zeichen, einen Entstehungsort und eine Entstehungszeit vor. Nach den bisherigen Erfahrungen arbeitet das KI-System bei der Standortzuordnung mit einer Genauigkeit von 71 Prozent und beim Entstehungszeitpunkt der Texte mit einer Bandbreite von weniger als 30 Jahren. Auf diese Weise können Schlüsseltexte des klassischen Griechenlands neu gelesen und datiert werden.

Aber es gibt auch Grenzen für den Einsatz von KI. „Man sollte nicht jede neue Methode als Allheilmittel betrachten“, gießt Andreas Kugi, Professor für komplexe dynamische Systeme an der TU Wien, ein wenig Wasser in den Wein des Technikoptimismus. „Bei Automatisierungslösungen bin ich kein Vertreter des starken End-to-End-Learnings, bei dem man vorne Daten hineinfüttert und erwartet, dass man am Ausgang alles herausbekommt, was man möchte“, gibt er Erfahrungen aus seinem Institut für Automatisierungs- und Regelungstechnik wieder.

„Unser Ansatz besteht eher darin, dass wir möglichst viel A-priori-­Wissen und spezifisches Domänen-Wissen in den Lernprozess mit einfließen lassen.“ Konkret bedeutet das, die klassischen Automatisierungsmethoden mit physikalisch basierten, mathematischen Modellen und modernen Methoden des maschinellen Lernens zu kombinieren. Auf diese Weise lasse sich etwa die Bewegung eines Roboters optimieren. Während die Gelenksgeschwindigkeiten des stählernen ­Arbeiters vorprogrammiert sind, bleiben nach den Worten von Kugi „für die Modellierung der Umgebung aber moderne Verfahren des maschinellen Lernens unabdingbar“.

Die maschinelle „Intelligenz“ kann aber auch ausgesprochen dumm sein. Das führte in den USA zu einer heftigen Debatte über Diskriminierung durch KI. Nachdem es Berichte über Fehlleistungen von KI-Systemen – etwa in sexistischen Jobeinstellungspraktiken oder rassistischen Polizeiaktionen – gab, stellte sich heraus, dass die Trainingsdaten für solche KI-Systeme systematisch verzerrt waren. Sie wurden überwiegend optimiert mit den Daten von weißen Männern, eben der Gruppe der IT-Programmierer, während Frauen und People of Color in dieser berechneten KI-Gesellschaft nur randständig vorkamen.

„Die Unterrepräsentation von Frauen und People of Color in der Technologie und die Untererfassung dieser Gruppen in den Daten, die die KI formen, hat zur Entwicklung von Technologien geführt, die für einen kleinen Teil der Welt ­optimiert sind“, kritisierte die amerikanische Aktivistin Joy Buolamwini im Namen der von ihr gegründeten „Algorithmic Justice League“.

Inzwischen dreht sich die internationale Diskussion weiter und greift Vorwürfe eines „neuen Kolonialismus“ auf. In den Augen dieser Kritiker wiederholen sich in der aktuellen, vor allem von großen Datenkonzernen getriebenen Entwicklung der KI die „Muster aus dem historischen Kolonialismus“. Sprich: die Dominanz westlicher Industrieländer über den Globalen Süden. Konkret reiche dieser negative Einfluss „von der Ausbeutung von Arbeitskräften bis hin zur massenhaften Extraktion von Daten aus Ländern mit schwachem Datenschutz“, so die Kritiker.

Auf der Website der MIT Technology Review wurden zahlreiche konkrete Beispiele dafür angeführt, die das Alpbach-Jahrbuch zusammenfasst: „Beginnend bei der Rekrutierung von Fachkräften durch US-Daten-­Labelling-Firmen zu minimalsten Löhnen im krisengeschüttelten Venezuela bis hin zu einer neuen digitalen sozialen Kluft zwischen Weiß und Schwarz in Südafrika (digital apartheid)“.

Eine bessere Welt durch KI? So ­einfach dürfte es wahrscheinlich nicht werden. Denn viele gesellschaftliche Konflikte und Problemlagen lassen sich nicht mit verbesserter Rechnerei beilegen.

taz lesen kann jede:r

Als Genossenschaft gehören wir unseren Leser:innen. Und unser Journalismus ist nicht nur 100 % konzernfrei, sondern auch kostenfrei zugänglich. Texte, die es nicht allen recht machen und Stimmen, die man woanders nicht hört – immer aus Überzeugung und hier auf taz.de ohne Paywall. Unsere Leser:innen müssen nichts bezahlen, wissen aber, dass guter, kritischer Journalismus nicht aus dem Nichts entsteht. Dafür sind wir sehr dankbar. Damit wir auch morgen noch unseren Journalismus machen können, brauchen wir mehr Unterstützung. Unser nächstes Ziel: 40.000 – und mit Ihrer Beteiligung können wir es schaffen. Setzen Sie ein Zeichen für die taz und für die Zukunft unseres Journalismus. Mit nur 5,- Euro sind Sie dabei! Jetzt unterstützen

Mehr zum Thema

6 Kommentare

 / 
  • Wer wissen will wie KI funktioniert, einfach bei google testen: 2+2=

    • @WernerS:

      Dafür braucht es keine KI, sondern lediglich einen einfachen Parser der erkennt, dass es sich um einen mathematishen Ausdruck handelt und die Anfrage dann entsprechend umleitet.

  • "Sie wurden überwiegend optimiert mit den Daten von weißen Männern, eben der Gruppe der IT-Programmierer, während Frauen und People of Color in dieser berechneten KI-Gesellschaft nur randständig vorkamen."



    "die Dominanz westlicher Industrieländer über den Globalen Süden. [...] bis hin zur massenhaften Extraktion von Daten"



    Wenn Minderheiten und globaler Süden in den Trainingsdaten nicht berücksichtigt werden läuft es auf Diskriminierung hinaus, werden dort aber Daten erhoben ist es „neuen Kolonialismus“.



    Da im Prinzip nahezu alle wesentlichen Paper und Algorithmen ebenso wie sehr viele Quellcodes offen sind ist es eben nicht die Technologie an sich die "die Dominanz westlicher Industrieländer über den Globalen Süden" begründet, sondern kapitalistische Marktmechanismen die längst zu einer viel zu großen Konzentration von (Markt)macht geführt haben. Die Hürden um sich - auch im globalen Süden - eine KI zu bauen sind ausgesprochen niedrig, aber um das globale Tech-Oligopol aufzubrechen bräuchte es sowohl den Willen als auch erheblichen politische Anstrengungen für neue Antitrust-Laws.



    Dass "etwa in sexistischen Jobeinstellungspraktiken oder rassistischen Polizeiaktionen" KIs mit Bias eingesetzt werden ist eben kein Problem dieser Technologie sondern lediglich Widerspiegelung und Konsequenz des gesellschaftlich prävalenten Bias. Die Software tut also innerhalb einer diskrimminierenden Gesellschaft genau das was von ihr erwartet wird. Um das zu ändern muss das Bugfixing aber an den gesellschaftlichen Strukturen ansetzen, nicht am Code. Das eigentliche Problem ist nicht künstliche Intelligenz, sondern natürliche Dummheit.

  • Nu sinnse scho soo lange auffe Szene zuhause - wa!



    & Däh! =>



    Ja wie? KI? “Es - denkt nicht!“ & Gut is •

    unterm——



    Rudolf Seising Es denkt nicht!



    Die vergessenen Geschichten der KI



    www.spektrum.de/re...enkt-nicht/1838833



    &



    Heinz von Foerster



    Wir sehen nicht, daß wir nicht sehen



    15. April 1998 Bernhard Pörksen



    Der Philosoph und Physiker Heinz von Foerster über die Entwicklung der Kybernetik, die Computermetapher des Geistes und die Versuche, das Gehirn zu verstehen.



    www.heise.de/tp/fe...sehen-3446178.html



    Soll mal reichen. In Wirklichkeit wissens ja eh selbst! Gelle.

    • @Lowandorder:

      Danke für die Links. Sehr interessant.



      Das Problem ist, das Gehirn ist ein Computer, aber unsere Philosophen haben keine Ahnung wie ein Computer im Detail funktioniert und wo genau die kleinen Unterschiede zwischen dem Gehirn und einem vonNeumann Computer liegen.

  • Überwiegend wird Intelligenz mit Vernunft gleichgesetzt - ein fataler Irrtum. Intelligenz ist lediglich ein Werkzeug, um Lösungswege für aktuelle Begehrlichkeiten zu finden, und hat nichts mit Vernunft zu tun, die auf einem ganz anderen Gleis fährt. Dadurch unterliegt der Einsatz von Intelligenz der Beliebigkeit, gleich einer Brechstange, die man ebenfalls für gute, aber auch für schlechte Zwecke einsetzen kann.

    Für welche Zwecke "künstliche Intelligenz" eingesetzt wird, zeigt das "wo". Das sind gegenwärtig überwiegend wichtige Teile der Wirtschaft, und dort stellt sich dann ebenfalls die Frage, welchen Zweck wohl internationale und teilweise marktbeherrschende Konzerne sowie deren Großaktionäre verfolgen.

    Ich meine, dort verhält es sich wie in der Rehabilitationsmedizin: Wem ein Bein fehlt, der braucht ein künstliches Bein, und wer blind ist, braucht einen Blindenstock. Was brauchen wohl solche, denen es an natürlicher Intelligenz fehlt? Etwa künstliche Intelligenz? Das mag durchaus sein. Doch KI ohne Beteiligung von Vernunft und Moral kann nur zu einer neue Plage werden, die alle bisherigen Plagen in den Schatten stellt.