Herzlich willkommen.
Auch Sie haben eine Stimme und auch die soll gehört und gelesen werden.
Hier werden alle Kommentare gesammelt, die Sie verfassen. Außerdem können Sie Kontaktmöglichkeiten hinterlegen und sich präsentieren.
Wir freuen uns, wenn Sie die taz.kommune mit Ihren klugen Gedanken bereichern.
Viel Freude beim Lesen & Schreiben.
meine Kommentare
Genderbender
LLMs, aka AI/KI/ künstliche Intelligenz, funktionieren nicht so, wie sich die Autorin das vorstellt. Sie schreibt: "KI-Systeme können so programmiert werden, dass sie objektiv und unvoreingenommen arbeiten".
zum BeitragDas zeigt eine komplette Unkenntnis über die Funktionsweise dieser Systeme. LLMs können möglicherweise durch Trainingsdaten in eine bestimmte Richtung beeinflusst werden, aber wie Entscheidungen getroffen werden, bleibt eine Blackbox. Besonders problematisch ist dies, wenn man wenig bis nichts über die Datensätze weiß, die als Basis für das Modell dienen. Aber selbst die einfachere Variante eines Algorithmus ist voreingenommen.
In Österreich hat man das schon einmal beim Jobcenter mit einem Algorithmus versucht und ist glücklicherweise vor Gericht gescheitert. Dort konnten selbst die Verantwortlichen nicht erklären, aufgrund welcher Kriterien die Algorithmen arbeiteten. Man hatte es einfach den Technikpeoples überlassen. Selbstverständlich wurden beispielsweise Frauen und Menschen in ärmeren Wohngegenden von Förderungen ausgeschlossen. Und nun schreibt die Autorin allen Ernstes, man solle es gut finden, wenn undurchsichtige, selbstlernende Systeme Entscheidungen fällen?