piwik no script img

Künstliche Intelligenz in UnternehmenKI spart kaum Arbeitszeit

Sie sollte die Arbeitswelt revolutionieren. Doch mehrere Studien belegen nun, dass der Einsatz von KI keine Effizienzgewinne in Unternehmen bringt.

Wer mit KI-Texten weiterarbeiten muss, verwendet jede Menge Zeit auf die Korrektur des „Workslop“ („Arbeitsabfall“) genannten Unsinns Foto: Gillian Blease/imago

Es sind Ergebnisse, die so gar nicht passen wollen in die Erzählung von der schönen neuen, hyperproduktiven KI-Arbeitswelt: 95 Prozent der in einer Studie vom Media Lab der Massachusetts Institute of Technology (MIT) untersuchten KI-Pilotprojekte in US-amerikanischen Unternehmen führten zu keinerlei messbaren positiven Auswirkungen.

Trotz des Einsatzes von zweistelligen Milliardensummen wurden in gerade einmal 5 Prozent der untersuchten Fälle nennenswerte Einnahmen oder Ersparnisse erzielt. Der überwältigende Rest der Firmen scheiterte mit seinen Projekten dagegen und stellte diese teils sogar ganz ein.

Führungskräfte suchen die Schuld hierfür meist bei den Sprachmodellen oder regulatorischen Anforderungen, während die Studienautoren das Problem eher im Aufstülpen von KI auf zu komplexe Prozesse und einer mangelnden Schulung der Mitarbeiter sehen. Sinngemäß: Eine schlechte (Prompt-)Eingabe führt zwangsläufig zu einem schlechten Resultat.

Schauspielerisches Talent

Eine andere Untersuchung der Unternehmensberatung McKinsey ergab, dass 80 Prozent der Firmen, die Generative KI einsetzen, keine signifikanten Verbesserungen erzielen konnten, rund die Hälfte davon gab ihre KI-Projekte daraufhin auf.

Nicht weniger drastisch klingt es bei Harvard Business Review: Über 40 Prozent der befragten US-Arbeitnehmer berichteten, dass KI-Ergebnisse sich als gute Arbeit „tarnen“, aber wenig Substanz für die tatsächliche Lösung der Aufgabenstellung haben. Wer mit KI-Texten weiterarbeiten muss, verwendet jede Menge Zeit auf die Korrektur dieses „Workslop“ („Arbeitsabfall“) genannten Unsinns. Die Autoren warnen, dass dies den erhofften Produktivitätszuwachs regelrecht zerstört.

Das Problem liegt wohl auch am schauspielerischen Talent der Sprachmodelle, die ohne mit der Wimper zu zucken „halluzinieren“ und Fakten frei erfinden: So kann ein mit KI geschriebener Text auf den ersten Blick überzeugend und fehlerfrei wirken.

Die internationale Unternehmensberatung Deloitte hat unlängst etwa für rund 250.000 Euro ein Dokument über die Jobsuche im Sozialsystem für die australische Regierung verfasst. Dieses enthielt jedoch jede Menge Fehler, weil sich die dafür verwendete KI wissenschaftliche Belege und Zitate einfach „ausgedacht“ hatte. Eine australische Politikerin warf dem Unternehmen daraufhin vor, ein „menschliches Intelligenz-Problem“ zu haben. „Worskslop“ ist somit nicht nur ärgerlich und teuer, sondern kann für ein Unternehmen handfeste negative Folgen haben.

Vertrauenssache Datenschutz

Hinzu kommt die Datenschutz-Thematik: Schlagzeilen machte hier schon vor zwei Jahren ein Fall, in dem Mitarbeiter von Samsung Semiconductor internen Code und andere Daten an ChatGPT sendeten, nachdem das Unternehmen die Nutzung des Sprachmodells prinzipiell erlaubt hatte. Dadurch gelangten sensible Betriebsgeheimnisse nicht nur an OpenAI, sondern theoretisch auch an andere Nutzer des Sprachmodells.

Zwar ermöglichen es viele Anbieter heutzutage, die Verwendung der Daten für Trainingszwecke in den Einstellungen zu unterbinden. Doch das bleibt im US-Rechtsraum eher Vertrauenssache.

Dass Generative KI derzeit häufig nicht nur inhaltlichen Müll produziert (vom enormen Energie- und Wasserhunger einmal ganz zu schweigen), sondern auch gefährliche Desinformation, erscheint besonders alarmierend: Laut einer Studie der Europäischen Rundfunkunion geben KI-Assistenten Nachrichteninhalte in 45 Prozent der Fälle fehlerhaft wieder. Besonders mit Quellenangaben schludern sie, unterscheiden zweifelhafte Blogs kaum von seriösen Nachrichtenquellen und scheitern häufig bereits an einfachen Fragestellungen wie „Was exportiert China?“.

Vor diesem Hintergrund fordert die Rundfunkunion die EU und nationale Regulierungsbehörden auf, bestehende Gesetze zur Informationsintegrität, zu digitalen Diensten und zur Medienvielfalt konsequent durchzusetzen. KI-Assistenten müssten fortlaufend unabhängig überwacht werden.

Gemeinsam für freie Presse

Als Genossenschaft gehören wir unseren Leser:innen. Und unser Journalismus ist nicht nur 100 % konzernfrei, sondern auch kostenfrei zugänglich. Alle Artikel stellen wir frei zur Verfügung, ohne Paywall. Gerade in diesen Zeiten müssen Einordnungen und Informationen allen zugänglich sein. Unsere Leser:innen müssen nichts bezahlen, wissen aber, dass kritischer, unabhängiger Journalismus nicht aus dem Nichts entsteht. Dafür sind wir sehr dankbar. Damit wir auch morgen noch unseren Journalismus machen können, brauchen wir mehr Unterstützung. Unser nächstes Ziel: 50.000 – und mit Ihrer Beteiligung können wir es schaffen. Setzen Sie ein Zeichen für die taz und für die Zukunft unseres Journalismus. Mit nur 5,- Euro sind Sie dabei! Jetzt unterstützen

Mehr zum Thema

0 Kommentare