piwik no script img

Internetnutzung und KIAntrainierte Vorurteile

Die Entwicklung von KI bietet Personen mit körperlicher Einschränkung Vorteile. Aber die Inklusion den Maschinen zu überlassen, ist gefährlich.

So etwas kann dabei heraus kommen, wenn man eine KI bittet, das Bild einer sehbehinderten Person zu generieren Foto: Nedrofly Stock/imago

Dass Menschen mit Behinderung das Internet nutzen, ist keine Neuigkeit: Schon seit den Neunzigern gibt es assistive Technologien, die ihnen den Zugang dazu ermöglichen.

Und trotzdem begegnen mir immer wieder technisch versierte Menschen, die davon zum ersten Mal hören und völlig überrascht sind, dass ich als blinde Person zum Beispiel in den sozialen Netzwerken aktiv bin. Noch überraschter sind sie, wenn ich ihnen erzähle, dass ich als Software-Entwicklerin mein Geld verdiene. Ich muss dann oft erklären, dass ich auf die Barrierefreiheit von Programmen und Inhalten angewiesen bin und das auch im Jahr 2024 leider nur selten wirklich reibungslos funktioniert.

„Was kann ich denn da machen, um dir zu helfen?“, werde ich dann gefragt. „Achte darauf, eine Bildbeschreibung bei deinen Fotos hinzuzufügen, wenn du sie mir schickst oder online postest“, antworte ich mittlerweile roboterhaft, denn das, was darauf folgt, ist häufig Unwillen bei den anderen: „Bildbeschreibung? Ich glaube, ich bin dafür zu faul. Kann das nicht eine KI machen?“.

In der Tat gibt es mittlerweile Technologien auf der Basis von künstlicher Intelligenz, die brauchbar gut darin sind, verschiedene Arten von Bildern automatisch und mit ausreichend hohem Detailgrad beschreiben zu können. Das sogenannte „Sprachmodell“ ChatGPT der Firma OpenAI nur ist ein Beispiel dafür. Diese und weitere Technologien haben in den letzten Jahren immer stärker Einzug in mein Leben gehalten.

Völlig neuer Zugang

Nicht nur Bildbeschreibungen kann dieses Sprachmodell erstellen, sondern mir auch bei einer Vielzahl von anderen Aufgaben behilflich sein, zum Beispiel einfache Online-Recherchen zu Fragestellungen wie „Wie heißt der Synchronsprecher von Viktor Hargreeves in ‚The Umbrella Academy?‘ “ oder „Welche Spielerinnen haben gestern die Tore beim FC Bayern München geschossen?“.

Diese Art der Informationsgewinnung gestaltet sich für mich ohne diese Technologie oft schwierig und zeitintensiv, da ich dafür Websites besuchen muss, deren Programmierung so kompliziert ist, dass sie mit meinem Vorleseprogramm nicht funktionieren. Mit dieser Technologie bekomme ich also einen völlig neuen, einfacheren Zugang zu Kultur und damit einhergehend auch mehr gesellschaftliche Teilhabemöglichkeiten.

Auch bei schwierigeren Aufgaben hilft mir das Sprachmodell: Beim Programmieren kann es mir schwierige Routinen zusammenfassen oder die passende Stelle im Code für eine Optimierung suchen, was sonst, verglichen mit meinen sehenden Kolleg*innen, sehr lange dauern würde. Also bekomme ich auch beruflich immer mehr Möglichkeiten, in extrem spezialisierten Jobs auf dem ersten Arbeitsmarkt mitzuhalten. Im Hinblick auf die hohe Arbeitslosigkeit unter Menschen mit Behinderung sind das doch endlich einmal gute Nachrichten.

Aufmerksame Le­se­r*in­nen haben sicher festgestellt, dass das alles klassische Assistenz-Aufgaben sind, die genau so auch ein anderer Mensch übernehmen könnte. Der Unterschied ist, dass diese Assistenz nun immer verfügbar ist und nie müde wird. Die Erleichterung durch die KI hat einen hohen Preis, den auch die Weiterentwicklung dieser Technologien nicht senken wird: Die KI ist nicht rechenschaftsfähig. Macht sie Fehler, können wir sie nicht verklagen. Wir können uns oft nicht mal wirklich für eine alternative KI entscheiden, da es derzeit nur wenige dieser sogenannten „Foundation Models“ gibt, die, wie der Name schon sagt, die Grundlage für viele Anwendungen darstellen.

Behinderte Menschen werden häufig bemitleidet

Die künstliche Intelligenz macht Fehler, die teilweise so gravierend sind, dass sie mir einen großen finanziellen oder persönlichen Schaden zufügen können. Lasse ich mir beispielsweise die Bedienung meiner Waschmaschine von ChatGPT erklären, indem ich Fotos davon zur Verfügung stelle, dann passiert es schnell mal, dass ich eine Wäsche viel zu heiß wasche, weil der Chatbot nicht wirklich denkt, sondern nur eine statistische Wahrscheinlichkeit dafür abgibt, wie weit ich das Einstellungsrad an meinem Gerät drehen soll.

Die Wäsche läuft dann vielleicht ein, verfärbt sich und ist danach nicht mehr zu gebrauchen. Ebenfalls finanziell dramatisch könnte es sein, wenn die KI zum Beispiel bei einer Recherche nach Wechselkursen oder nach Details zu Versicherungen falsche Informationen ausgibt. Genau wie bei einem anderen Menschen eben – deswegen muss ich sehr genau aufpassen, denn als blinde Person bemerke ich mögliche Fehler, die die KI macht, oft gar nicht oder viel später als Sehende.

Auch auf der persönlichen Ebene muss ich beim Umgang mit der KI besonders aufpassen, denn sie unterliegt antrainierten Vorurteilen. Diese sind gerade im Bezug auf behinderte Menschen besonders stark ausgeprägt, denn diese Gruppe wird in den Medien, von denen die KI lernt, immer noch überwiegend von Nichtbehinderten repräsentiert. Behinderte Menschen werden häufig bemitleidet, gerne für alltägliche Dinge, Inspiration Porn wird das auch genannt, und auch Bevormundung erleben sie.

Das alles widerstrebt mir als emanzipierte junge Frau. Frage ich DALL-E 3 – das ist ein KI-Bildgenerator – nach Fotos einer blinden Person, bewusst ohne weitere Details, dann entscheidet er fast immer, einen gut gekleideten Mann abzubilden, der eine Sonnenbrille trägt und mit Blindenstock an Hochhäusern vorbeiläuft. Den Stock hält er dabei immer sehr unnatürlich – aus Mangel an Daten, und weil behinderte Menschen so wenig sichtbar in unserem alltäglichen Leben sind, dass die KI gar nicht wissen kann, wie es richtig wäre. Die Realität ist deutlich vielfältiger, ich selbst bin das beste Beispiel dafür.

Solche Vorurteile und Diskriminierungen kommen bei jeder Antwort einer KI zum Tragen – also auch überall da, wo sie Entscheidungen über mich trifft. Und das wird in der Zukunft immer häufiger passieren. Wie netzpolitik.org berichtet, gibt es seit Neuestem bei der Job-Beratung in Österreich einen Chatbot, der zum Beispiel Frauen eher typisch weibliche Berufe empfiehlt, obwohl das Qualifikationsprofil ganz andere Stärken offenbart. Bei Menschen mit Behinderung ist es ähnlich.

Und es geht noch wei­ter:­Sprach­mo­del­le werden auch dazu eingesetzt, Posts in sozia­len Netzwerken zu moderieren. So hat beispielsweise eine KI bei der Videoplattform TikTok die Reichweite von Menschen mit Behinderung massiv eingeschränkt – angeblich zum Schutz vor Mobbing. Das macht eine Selbstrepräsentation, die frei von Vorurteilen Nichtbehinderter ist, noch schwieriger. So entstehen dann auch keine neuen Daten, die die KI weniger ableistisch machen könnten.

Außerdem müssen wir dringend darauf achten, dass sich Unternehmen diese Technologien als Hilfsmittel nicht auf ableistische Weise aneignen und die Selbstbestimmung dabei auf der Strecke bleibt.

Letztendlich möchte ich die Vielfalt der Welt selbst durch meine eigenen Eindrücke erfahren. Das funktioniert aber nur, wenn Menschen ihre Bilder selbst beschreiben und ich weiterhin ohne die Hilfe von KI-Werkzeugen eine Recherche selbstständig durchführen kann – mit allen Mühen, die damit verbunden sind. Natürlich möchte ich auch wissen, welche Entscheidungen über mich aus welchem Grund getroffen werden – das ist aber bei KI technisch unmöglich. Wir können Inklusion nicht den Maschinen allein überlassen. Sie haben keine Ahnung, was das ist, wie ein großer Teil unserer Gesellschaft auch.

taz lesen kann jede:r

Als Genossenschaft gehören wir unseren Leser:innen. Und unser Journalismus ist nicht nur 100 % konzernfrei, sondern auch kostenfrei zugänglich. Texte, die es nicht allen recht machen und Stimmen, die man woanders nicht hört – immer aus Überzeugung und hier auf taz.de ohne Paywall. Unsere Leser:innen müssen nichts bezahlen, wissen aber, dass guter, kritischer Journalismus nicht aus dem Nichts entsteht. Dafür sind wir sehr dankbar. Damit wir auch morgen noch unseren Journalismus machen können, brauchen wir mehr Unterstützung. Unser nächstes Ziel: 40.000 – und mit Ihrer Beteiligung können wir es schaffen. Setzen Sie ein Zeichen für die taz und für die Zukunft unseres Journalismus. Mit nur 5,- Euro sind Sie dabei! Jetzt unterstützen

Mehr zum Thema

0 Kommentare