piwik no script img

Diskriminierung in VideochatsEine KI ist auch nur ein Mensch

Die Klangfilter von „Zoom“ und Co lassen Stimmen von Frauen weniger ausdrucksstark erscheinen – und bewirken eine strukturelle Benachteiligung.

Bekommen nicht nur weniger Geld, sondern werden auch schlechter gehört: Frauen am Arbeitsplatz Foto: Christophe Papke/DEEPOL/plainpicture

Die Stimmen von Frauen werden in Onlinegesprächen benachteiligt, haben Fort­sche­r*in­nen herausgefunden. Meldungen wie diese bringen das Bild „nüchterner“ Technologie zum Bröckeln. Doch wenn digitale Anwendungen diskriminieren, liegt das meist an den Menschen, die sie entwickeln.

Empfohlener externer Inhalt

Wir würden Ihnen hier gerne einen externen Inhalt zeigen. Sie entscheiden, ob sie dieses Element auch sehen wollen:

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen übermittelt werden. Mehr dazu in unserer Datenschutzerklärung

Das Arbeitsmeeting mit den Kol­le­g*in­nen via „Teams“, das Universitätsseminar via „Zoom“ oder die Vereinssitzung via „Skype“: In der Coronapandemie sind Videokonferenzen für viele Menschen alltäglich geworden. Umso gewichtiger sind die Erkenntnisse einer kürzlich veröffentlichten Studie der Universität Magdeburg.

In Zusammenarbeit mit der dänischen Universität Sønderborg fanden Wis­sen­schaft­le­r*in­nen heraus, dass Frauen wegen der Stimmverarbeitung in Onlinegesprächen benachteiligt sind. Nicht alle Anteile der Sprache werden übertragen, gerade höhere Frequenzen werden ausgedünnt, heißt es dort. In der Konsequenz werden weibliche Redebeiträge als weniger ausdrucksstark, kompetent und charismatisch wahrgenommen.

„An der Entwicklung von Informationstechnik sind nun mal vor allem Männer beteiligt. Im Jahr 2018 waren beispielsweise im deutschen IT-Bereich nur knapp 17 Prozent aller Angestellten Frauen“, erklärt Lisa Hanstein und bezieht sich dabei auf eine Untersuchung der auf Tech-Jobs spezialisierten Plattform „Honeypot“. Sie arbeitet zum Einfluss unbewusster Vorurteile (auch engl. „biases“) auf die Entwicklung digitaler Anwendungen an der Europäischen Akademie für Frauen in Politik und Wirtschaft Berlin (EAF Berlin), einer Forschungs- und Beratungsorganisation, die sich für mehr Vielfalt in Führungsebenen in Wirtschaft, Politik und Wissenschaft einsetzt.

Der rassistische Seifenspender

Hanstein war selbst mehrere Jahre als Softwareentwicklerin bei SAP beschäftigt und ist sich der Homogenität der Branche bewusst. Weil Diversität in der Belegschaft fehlt, werden die Belange zahlreicher gesellschaftlicher Gruppen bei der Entwicklung neuer Anwendungen schlicht nicht mitgedacht. Dabei sind die Videochat-Tools nur ein Beispiel für diskriminierende digitale Anwendungen von vielen.

Das Wissen von künstlicher Intelligenz basiert auf Missständen, die sie reproduziert

Besondere Aufmerksamkeit erlangten etwa automatische Seifenspender, deren Infrarot-Sensor nur die Hände von weißen Menschen erkennt, nicht aber die von Schwarzen. Ein mehrere Millionen Mal geklicktes Video, in dem ein Schwarzer Mann demonstriert, dass besagte Technologie zwar nicht auf seine Hand, dafür aber ein weißes Papierhandtuch reagiert, führt die teils absurden Auswirkungen des Problems vor Augen.

Hinzu komme, dass die Diskriminierung durch eine algorithmische Voreingenommenheit (auch engl. „Algorithmic Bias“) nicht selten intersektional wirke, wie Hanstein betont: „Wenn wir Gesichtserkennungsmodule nur mit Bildern von weißen Männern trainieren, sind diese Module nun mal sehr gut im Erkennen von weißen Männern, nicht aber von Schwarzen Frauen, beispielsweise.“

Auch wenn beides nicht voneinander zu trennen ist: Es spiele sowohl eine Rolle, welche Daten einer künstlichen Intelligenz für ihre Fortentwicklung zur Verfügung stehen als auch, wer mit welchen unbewussten Denkmustern an der Entwicklung digitaler Anwendungen mitarbeitet. „IT gilt als sehr rational. Dabei vergessen wir, dass sie von Menschen hergestellt wird und diese Menschen in Stereotypen denken, oft ohne böses Zutun oder Absicht. Technik ist wie ein Spiegel der Gesellschaft, der schlicht wiedergibt, was wir als Individuen mitbringen.“

Diskriminierender Algorithmus

Beispiele wie diese illustrieren die Problematik, bilden jedoch noch nicht ihre enorme gesellschaftliche Tragweite ab, die sensiblen Bereiche, die sie tangiert. Eine Studie der Antidiskriminierungsstelle des Bundes aus dem Jahr 2019 umfasst ähnliche Sachverhalte im Gesundheitsbereich, im Kreditwesen oder bei staatlichen Sozialleistungen. Österreich etwa streitet schon seit mehreren Jahren über einen Algorithmus, der die Jobchancen von Arbeitslosen vorhersagen und sie für entsprechende Schulungen den Mit­ar­bei­te­r*in­nen des Arbeitsmarktservice (AMS) vorschlagen soll – oder eben nicht.

Weil das System mit bestehenden Daten gefüttert wird, wird Frauen aufgrund schlechterer Jobchancen automatisch ein Punkt abgezogen, ein weiterer, wenn sie Kinder haben. Daraufhin folgt die Einteilung in hohe, mittlere oder niedrige Chancen auf Wiedereingliederung – blind für bereits bestehende Diskriminierung von Frauen am Arbeitsmarkt, die durch den Algorithmus verfestigt wird. Es scheint ein Grundproblem künstlicher Intelligenz zu sein: Ihr Wissen basiert auf dem Status quo der aktuellen Missstände, die sie reproduziert – oder potenziert.

In Deutschland könnte das Onlinezugangsgesetz, wonach ab Ende 2022 die Verwaltungsdienstleistungen von Bund und Ländern online angeboten werden sollen, zu einem ähnlichen Prüfstein werden. Dabei geht es um fast 600 Leistungen, von Führerscheinbeantragung über Namensänderungen und Eheschließungen bis hin zur Einbürgerung, die digitalisiert werden sollen.

„Es sind teilweise kritische Dinge, über die entschieden werden soll und die Tragweite ist ungleich größer: Bei einer diskriminierenden Einzelentscheidung einer Person gegenüber einer anderen, gibt es immerhin eine ­gewisse Transparenz. Die Entscheidung eines ganzen IT-Systems betrifft im Gegensatz dazu viel mehr Menschen – und sie ist wesentlich weniger sichtbar. Die betroffene Person kann den Vorgang nicht richtig nachvollziehen, weil die Funktionsweise der Anwendung undurchsichtig ist“, so Hanstein.

Die Chancen von KI

Die EU-Kommission hat Ende April einen KI-Gesetzesvorschlag vorgelegt, um derartig große Herausforderungen genauer zu regeln. Darin ist ein generelles Verbot von Massenüberwachung oder Manipulation der Bür­ge­r*in­nen vorgesehen, womit einem „Social Scoring“ nach chinesischem Vorbild vorgebeugt werden soll, das bestimmtes Verhalten mit Vorteilen im Alltag belohnt oder mit zusätzlichen Hürden, etwa höheren Steuern oder Reisebeschränkungen, bestraft.

„Hochrisiko“-Anwendungen, etwa im Bereich der Polizei und im juristischen Kontext, die sensible Infrastruktur betreffen und solche, die Be­wer­be­r*in­nen für einen Job auswählen, sollen in ihrer Entwicklung wiederum gemeinsam mit den verwendeten Daten und ihrer Nutzung dokumentiert, transparent gemacht und von Menschen überwacht werden.

Das geplante System des AMS in Österreich fiele vermutlich in diese Kategorie. Der Gesetzgebungsprozess, in dem sowohl das EU-Parlament als auch die Mitgliedstaaten im Rat dem Entwurf zustimmen müssen, kann bis zu zwei Jahre dauern Bei aller Dringlichkeit, ein Bewusstsein für das Diskriminierungspotenzial von Algorithmen zu schaffen und an den menschlichen Stellschrauben zu drehen, die letztlich dafür verantwortlich sind, betont Hanstein die Bedeutung von künstlicher Intelligenz, die Chancen, die sie im Alltag und der Arbeitswelt eröffnet.

„Sie kann Zusammenhänge erkennen, die wir gar nicht wahrnehmen würden. Der sehr große Vorteil ist: IT-Systeme werden nicht müde, sie haben keinen sinkenden Blutzuckerspiegel und keine Launen. Wir können sie ­genauso gut dafür einsetzen, bestehende Diskriminierung sichtbar zu machen und fairere Prozesse zu ermöglichen.“

Hassrede identifizieren

Als Beispiel für eine KI, die gesellschaftlichen Problemen ausdrücklich entgegenwirken könnte, nennt sie das Projekt „Decoding Antisemitism“. Die Alfred Landecker Foundation arbeitet unter anderem mit der Technischen Universität Berlin und dem King’s College London an einer Open-Source-Lösung, die implizite Hassrede, beispielsweise in Form von verunglimpfenden Stereotypen oder Verschwörungsmythen in den sozialen Medien, ausfindig machen soll.

Großes Potenzial bergen auch Anwendungen, die die Sprache in Stellenausschreibungen glätten, um sie für Frauen, die ihre eigenen Kompetenzen oftmals unterschätzten und von einer Bewerbung zurückschreckten, attraktiver zu machen, und so einem „Gender Bias“ entgegenwirken. Ob progressive, aber vergleichsweise kleine Initiativen wie diese gegenüber dem Einfluss der „Big Player“ wie der KI in der Google-Suche und dem undurchsichtigen Facebook-Algorithmus etwas entgegensetzen können, ist fraglich.

Doch Hanstein ist sich sicher, dass in der Branche allmählich ein Problembewusstsein einkehrt. Eine Übersetzung in gute Standards und Prozesse gebe es in der Arbeitsrealität derer, die an der Entwicklung digitaler Anwendungen beteiligt sind, allerdings noch nicht.

taz lesen kann jede:r

Als Genossenschaft gehören wir unseren Leser:innen. Und unser Journalismus ist nicht nur 100 % konzernfrei, sondern auch kostenfrei zugänglich. Texte, die es nicht allen recht machen und Stimmen, die man woanders nicht hört – immer aus Überzeugung und hier auf taz.de ohne Paywall. Unsere Leser:innen müssen nichts bezahlen, wissen aber, dass guter, kritischer Journalismus nicht aus dem Nichts entsteht. Dafür sind wir sehr dankbar. Damit wir auch morgen noch unseren Journalismus machen können, brauchen wir mehr Unterstützung. Unser nächstes Ziel: 40.000 – und mit Ihrer Beteiligung können wir es schaffen. Setzen Sie ein Zeichen für die taz und für die Zukunft unseres Journalismus. Mit nur 5,- Euro sind Sie dabei! Jetzt unterstützen

Mehr zum Thema

20 Kommentare

 / 
Kommentarpause ab 30. Dezember 2024

Wir machen Silvesterpause und schließen ab Montag die Kommentarfunktion für ein paar Tage.
  • Der Artikel weiß irgendwie nicht so ganz, wovon er redet.



    Es geht hier nicht um Klangfilter von Zoom oder um KI, sondern um Kompression.

    Einfach gesagt: Ein Computer weiß nicht, was Klang ist. Ein Audiosignal liegt am Computer immer irgendwie mathematisch codiert vor. Und je nach Codierung benötigt das Signal mehr oder weniger Speicher.

    Nun verwendet man Codierungen, die es erlauben, weniger wichtige Information wegzulassen, um weniger Speicher zu benötigen. Dazu zählen z.B. hohe Klanganteile.

    Die Standardcodierung ist sehr uneffizient – im Prinzip wird da in gewissen Abständen die momentane Auslenkung der Wellenform gespeichert. Deswegen nennt man den Übergang zu einer Codierung, die effizienter ist, Kompression.

    Dort kann man unterscheiden in mehr oder minder drei Qualitätsstufen:



    → Verlustfreie Kompression, die garantiert, dass das Signal zu 100% exakt rückcodierbar ist.



    → Quasiverlustfreie Kompression, die so eine Garantie nicht gibt, aber akustisch keinen Unterschied verursacht



    → Verlustbehaftete Kompression, die einen merkbaren akustischen Unterschied verursacht.

    Das Problem ist jetzt, dass Videotelephonie eine schwierige Sache ist. Man hat zusätzlich zum Audio ein Video zu übertragen und überträgt in der Regel über eine Internetverbindung, die eher unstabile Latenz hat, soll heißen, es kann mal etwas kürzer, mal etwas länger dauern, dass ein abgeschickter Datenblock am Ende ankommt. Das würde man normalerweise mit einem genügend großen Puffer ausgleichen, was in dieser Anwendung problematisch ist.

    Deswegen verwendet man recht starke Kompression.

    Man muss auch beachten, dass es in der Studie nicht um Zoom geht. Die Kompression für Opus in der Studie ist etwa deutlich stärker, als die, die Zoom verwendet. (Das Wort Zoom kommt in der ganzen Studie genau einmal vor in der Einleitung.)

    Man muss also hier vorsichtig sein, Rückschlüsse zu ziehen. In freier Wildbahn spielen auch so Sachen wie z.B. übersteuerte Laptopmikrophone oft eine größere Rolle.

  • Zoom soll auch verlustfrei können: blog.zoom.us/de/hi...nal-audio-on-zoom/

    • @Rudolf Fissner:

      Das funktioniert nur für einen Sender. "Der High-Fidelity-Musikmodus liefert professionellen Ton von einem einzigen Zoom Client, der an einen oder mehrere Zuhörer gestreamt wird, ..."

  • Zoomfilter sorgen für anderen Toneindruck? Kann sein.



    Das galt schon beim analogen Telefon.



    Schlimmer noch, die Frequenzspektren von Frauen und Männern unterscheiden sich schon auf biologischer Basis.



    Und alles ohne die Intention weibliche Redebeiträge als wengier kompetent darzustellen. Es sei denn, dass das alles der eine alte, weisse Mann von dem in den Religionen berichtet wird, zu verantworten hat.

    • @fly:

      Beim analogen Telefon wurde sogar vorsätzlich diskriminiert und das "Fräulein vom Amt" war meist weiblich, "denn die hohe Stimmlage war verständlicher als die der meisten Männer." (Wikipedia zum Stichwort "Telefonist")

  • Ronja , Moderator
    18 hours ago, Bernd Berndner said:

    Die KI beschließt nicht hinterrücks und spontan, Frauen zu diskriminieren.

    Es wird oft so getan als würde eine KI völlig losgelöst und unkontrolliert agieren, ganz so, als ob die niemand beauftragt, entwickelt, trainiert, getestet und abgenommen hätte, als ob es keine menschlichen Verantwortlichen gäbe.

    Wie Entscheidungen zu treffen sind wurde der Software beim Training explizit so einprogrammiert. Von Menschen die das so haben wollten.

    So sagt es auch der Artikel...

    • @Ronja:

      Sie verstehen Softwareentwicklung nicht. Wenn eine komplexe Softwarekomponente verwendet wird, dann hat keiner der Beteiligten auf dem Plan, was - außer den expliziten Anforderungen - noch alles von Bedeutung ist bei dieser Softwarekomponente.

  • Die "Erkenntnisse einer kürzlich veröffentlichten Studie der Universität Magdeburg" behandeln diverse Audio-Codecs, die die Kompression von Sprache ermöglichen. Mit Zoom und Co. sezt sich die Studie nicht auseinander.

    Die Ergebnisse der Studie wurden offensichtlich von der Studie auf Online Meeting Software in toto übertragen.

    Und das ohne mitzuteilen, welcher Codec in welcher Software verwendet wird und ob die untersuchten Codecs überhaupt verwendet werden. Es fehlt auch der Hinweis ob die Software eventuell Codecs verwendet, die nicht verlustbehaftet sind.

    Das sind unzulässige Verallgemeinerungen.

    • @Rudolf Fissner:

      Skype verwendet den SILK Codec, MS Teams und Zoom den darauf basierenden Opus Codec und der wurde in der Studie auch untersucht. Je nach Qualität der verfügbaren Internetanbindung liegt die Samplingrate zwischen 8 und 48 kHz, was am unteren Ende einer Bandbreite des Audiosignals von 4 kHz entspricht. Es können also Bereiche des für Menschen wahrnehmbaren Frequenzspektrums verloren gehen und das ist noch nicht einmal auf VoIP-Anwendungen beschränkt, sondern betrifft in vergleichbarer Form uA auch konventionelle Standards für analoge und digitale Telefonie.



      Technisch wäre es überhaupt kein Problem Programme wie Zoom, Teams, etc. auf Lossless-Formate umzustellen. In der Praxis ist aber oft genug schon die Übertragung von Codecs mit verlustbehafteter Kompression hakelig weil die Bandbreite der Internetanbindung nicht reicht. Entsprechend darf man schlussfolgern, dass die schnelle und flächendeckende Versorgung mit Glasfaser und Gigabit-Internet auch aus feministischer Perspektive gefordert werden muss.

  • Nicht nur beim Ton auch beim Bild werden Frauen benachteiligt. Das traut sich nur keiner zu sagen. Auch das Parfüm wirkt gar so wie im Meeting neben einem müffelnden alten weißen Mann. Da sind die Forscherinnen aber einer ganz großen Sache auf der Spur! Weiter so.

    Die erste KI-Stimme war übrigens weiblich …

  • Ironischerweise waren in der Anfangsphase fast nur Frauen Programmiererinnen. Noch bis etwa 1960 gab es kaum Männer in dem Bereich und Programmieren galt generell als Frauenberuf. Mit dem rasant steigendem Bedarf in dem Bereich stiegen dann aber die Gehälter und damit dann auch rasant der Männeranteil.

    • @Šarru-kīnu:

      Auch in den 60er- und 70er-Jahren waren Computer noch etwas das man nur bei einer eher überschaubaren Anzahl von Universitäten und Großkonzernen finden konnten. Meiner Einschätzung nach war die Kausalität daher die entgegengesetzte. Der Beruf wurde zunächst als Folge geänderter technologischer und organisatorischer Gegebenheiten männlicher und damit stiegen dann auch die Gehälter. Wäre die Entwicklung rein nachfragegetrieben gewesen wäre es ja völlig kontraproduktiv auf die günstigen Programmiererinnen* zu verzichten.

  • Wie darf ich diese Meldung deuten?



    Dass bereits eine Gruppe hochkompetenter Frauen daran sitzt einen neuartigen, hocheffizienten Audio-Codec zu entwickeln, der die speziellen Bedürfnisse von Frauen abdeckt?

    Ich bin gespannt auf die Ergebnisse der beteiligten Programmiererinnen und wünsche viel Erfolg!

  • Diskriminierungspotenzial von Algorithmen. Was wäre wenn: Das geplante System des AMS in Österreich – Auch in dt. Jobcentern?

    Der Artikel macht es mir völligen Laien möglich, etwas von der tatsächlichen Tragweite zu erfassen, die das Thema hat. Ganz genau trifft es auf den dt. politisch-administrativen Apparat der Arbeitsverwaltung zu: *Das Wissen solcher Algorithmen basiert auf dem Status quo der aktuellen Missstände, die sie reproduzieren – oder potenzieren.* Von Tragweite ist das umso mehr, weil die Pläne, der SPD, die Bundesagentur für Arbeit zu einer Agentur für Arbeit und Qualifizierung umzubauen so ganz nicht vom Tisch sein dürften. Das heißt im beginnenden Strukturwandel, sehr viele Arbeitnehmerinnen und Arbeitnehmer auf Arbeitssuche, könnten in ein solches Software gestütztes System der Weiterbildungsberatung einbezogen werden. Alle genannten Personengruppen wären von Diskriminierungsgefahr betroffen. Laienhaft und also sicherlich fehlerhaft, sehe ich folgende Problemlagen vor dem Hintergrund des Artikels.



    (1)Es muss eine grundsätzliche Entscheidung bei der Softwareentwicklung getroffen werden. In welchem Verhältnis sollen das arbeitnehmerseitige Arbeitsangebot und seine daraus folgende Potentialentwicklung per Weiterbildung zum arbeitgeberseitigen Arbeitsangebot stehen? Ein Algorithmus könnte hoch exakt Profile und Maßnahmen seiner Entwicklung von Erwerbslosen erstellen. Aber wie der Artikel sagt: Er könnte die Jobchancen von Arbeitslosen vorhersagen und sie für entsprechende Schulungen den Mit¬ar¬bei¬te¬r*in¬nen vorschlagen soll – oder eben nicht.* D. h. aber, er könnte von vornherein solche WB.-Angebote auslassen, die zwar den Profilen der jeweiligen Erwerbslosen sehr entsprechen, nicht aber der vermeintlichen Nachfrage nach Arbeitskräften. Grob gesagt könnte er das Profil eines Erwerbslosen ignorieren.



    Wie flexibel ist das System in Bezug auf die Veränderungen beider Faktoren?

  • 2/3 Diskriminierungspotenzial von Algorithmen…



    Man muss sehen, dass die gegenwärtige Praxis der BA/Jobcenter Weiterbildungen deutlich bezogen auf die Struktur der Nachfrageseite bewilligt. Und da sind Niedriglohnsektor u. Zeitarbeit (letztere letztere besonders bezogen auf Flüchtlingen, teils auf eigenen Wunsch). Die öffentlichen Bekundungen der BA lauten hingegen allgemein: Es gäbe weitgehend passgenaue Job-/WB-Angebote. Ja, aber bezogen auf welche Seite u. Bedarfe? Hier ist es also nicht zuerst die Softwareentwicklung, hier fängt es bei der Politik an.



    (2) Wie die Datenerfassung der Profile erfolgen? Z. B. online durch die Erwerbslosen selbst, von zu Hause und der EDV der Jobcenter? Inwieweit ist dann das vorgegebene Raster offen für individuelle Einstellungen durch den Erwerbslosen? Problem siehe oben. Bisher erfolgt die Einstellung der Daten mit den Kräften der BA/Jobcenter und der Erwerbslose hat nicht die ganze „Hoheit“ darüber, welche Daten in welcher Art eingestellt werden. Für in Maßnahmen und dort teils qualifiziert erstellte Profile gilt ähnliches – nach meinen Erfahrungen. Eine den Erwerbslosen begleitende Profilerstellung erfordert eine gute Qualifikation. Arbeitskräftepotential dafür gibt es. Werden solche Personen eigesetzt/ausgebildet oder belässt man es bei „Schnelleinweisungen“ vorhandener Beschäftigter?

  • 3/3 Diskriminierungspotenzial von Algorithmen…



    (3)Wie wird die Beratung der Erwerbslosen erfolgen? Welche Mitsprache werden sie haben? Welche Einsicht in das „System“ werden sie bekommen?



    (4) Wie werden die Beraterinnen und Berater ausgebildet sein, ausgebildet werden? Nicht zu unterschätzen. Nicht Software-technisch aber Beraterinnen u. Berater müssten das System eigentlch von Punkt 1 an kennen um flexibel und wirklich individuelle agieren zu können. Nimmt man ihne bspw. Durch mangelnde Ausbildung diese Möglichkeit, sind sie selbst mehr oder weniger selber eng geführt, wenn man so will „vorprogrammiert“. Damit ist auch die Beratungs- u. Kommunikationssituation starr und wirkt dann über die Beraterin, den Berater Autorität, bewusst oder unbewusst, gewollt oder nicht. Die Kommunikationsstruktur der BA/Jobcenter hat bisher eine asymmetrische Machtstruktur.

  • Also ich finde es gut wenn sowas erforscht wird und Verbesserungspotential sichtbar wird.

    Und gut, wenn die zitierte Lisa Hanstein vom Fach ist. Vielleicht kann sie ja eine Gruppe weiblicher Entwickler:innen zusammentrommeln und einen besseren Audio-Codec entwickeln. Einen der eben auch das weibliche Stimmspektrum berücksichtigt. Mittels Crowd-Funding sollte das doch leicht finanzierbar sein.

    Auch das Beispiel mit dem Seifenspender zeigt, wie selbstreferentiell technischer Fortschritt in die falsche Richtung galoppieren kann.

    Hier ist zu hoffen, dass sich die Vernunft durchsetzt und so ein Murks durch die bewährten mechanischen Spender ersetzt wird.

    Die brauchen keinen Strom und keine weißen Hände zur Bedienung. Und sie sind ökologischer in der Herstellung, günstiger in der Anschaffung und logischerweise auch im Betrieb.

  • Die KI beschließt nicht hinterrücks und spontan, Frauen zu diskriminieren.

    Es wird oft so getan als würde eine KI völlig losgelöst und unkontrolliert agieren, ganz so, als ob die niemand beauftragt, entwickelt, trainiert, getestet und abgenommen hätte, als ob es keine menschlichen Verantwortlichen gäbe.

    Wie Entscheidungen zu treffen sind wurde der Software beim Training explizit so einprogrammiert. Von Menschen die das so haben wollten.

    • @Bernd Berndner:

      Eben. KI - ist bekanntlich eine Erfindung eines Teils des Wissenschaftlich-Wirtschaftlichen Komplex - um besser an Förderkohle ranzukommen. Garniert mit phantastischen Versprechen.



      Mal dazu - “Entstehung“ et al. bei Heinz von Foerster nachlesen.

      kurz - HAL (IBM;)( - gibt’s bei Stanley Kubricks 2001 Odyssee im Weltraum.



      But. KI - existiert nicht •

  • Die Schwäche beim österreichischen AMS System ist nicht die KI. Wenn deren Zweck ist, die Jobchancen von Arbeitslosen vorherzusagen, dann ist das Ergebnis doch genau richtig, nämlich dass Frauen in der Tat schlechtere Chancen haben. Der zweite Schritt im Algorithmus macht so wie er jetzt ist wenig Sinn. Gefördert werden müssen die Menschen (egal ob Frau oder Mann) mit den schlechteren Chancen. Diejenigen, die ohnehin gute Jobchancen haben, brauchen keine Förderung.