piwik no script img

Wirbel um KI von AppleBBC kritisiert „Apple Intelligence“

Die künstliche Intelligenz „Apple Intelligence“ hat für Falschmeldungen gesorgt. Der Sender BBC sieht seine Glaubwürdigkeit in Gefahr.

Sollte vielleicht zukünftig doch lieber wieder mehr der Intelligenz von Mit­ar­bei­te­r*in­nen aus Fleisch und Blut vertrauen: die BBC Foto: Kin Cheung/ap

Apples neues iOS-Update sorgt für Wirbel – und nicht gerade im positiven Sinne. Seit September steht iOS 18 zur Verfügung, mit ihm auch das neue Feature „Apple Intelligence“. Die vorläufig erst im englischsprachigen Raum nutzbare Apple-KI steht jetzt in der Kritik, Desinformation zu verbreiten. Der Nachrichtensender BBC beschwerte sich bei Apple: Die KI habe eine Push-Mitteilung falsch übersetzt.

In einem Beitrag der BBC Anfang Dezember ging es um den Fall des mutmaßlichen Mörders Luigi Mangione, der den Krankenkassen-CEO Brian Thompson in New York erschossen haben soll. Die KI von Apple fasste die Push-Nachricht der BBC für ihre Use­r:in­nen zusammen. Doch sie gab den Inhalt um Mangione falsch wider. Statt den Mord zu melden, dichtete Apples KI als Schlagzeile: „Luigi Mangione erschießt sich selbst“. Ein gravierender Fehler, der nicht nur den Inhalt der Meldung maßgeblich verfälschte, sondern durch diese Falschinformation auch die Glaubwürdigkeit der BBC infrage stellte.

Andere Nachrichtenhäuser melden ebenfalls Probleme

Der Pressesprecher des Nachrichtensenders erklärte nun, man habe Apple kontaktiert, um den Fehler anzusprechen. „BBC News ist das vertrauenswürdigste Nachrichtenmedium der Welt“, betonte er. „Es ist für uns wichtig, dass unsere Zu­schaue­r:in­nen allen Informationen und journalistischen Beiträgen, die in unserem Namen veröffentlicht werden, vertrauen können, und das gilt auch für Meldungen.“ Die anderen Nachrichten in der Push-Nachricht, über den Sturz des Assad-Regimes in Syrien und ein Update über den südkoreanischen Präsidenten Yoon Suk Yeol, gab die KI in der Kurzzusammenfassung korrekt wieder.

Die künstliche Intelligenz „Apple Intelligence“, soll den Alltag der Nut­ze­r:in­nen eigentlich vereinfachen. Einmal heruntergeladen fasst sie Textnachrichten und Meldungen zusammen, generiert Rückblicke aus Galeriefotos und mehr – nette Gadgets also. Ob diese allerdings nicht mehr Schaden anrichten als dass sie Mehrwert bringen, ist fraglich. Man kann sie aber auch deaktivieren – oder gar nicht erst herunterladen.

Die BBC ist mit ihrer Beschwerde gegen Apple nicht allein. Ebenso melden andere Nachrichtenhäuser Probleme mit der neuen KI-Funktion „Apple Intelligence“. Auch der wahre Inhalt einer Nachrichtenmeldung der US-amerikanischen Zeitung The New York Times vom 21. November fiel einer falschen Zusammenfassung zum Opfer. Aus der Schlagzeile, der Internationale Strafgerichtshof habe einen Haftbefehl gegen den israelischen Premierminister Netanjahu ausgestellt, machte Apple Intelligence: „Netanjahu verhaftet“.

Auch von dieser entstellten Push-Mitteilung kursierten daraufhin ungezählte Screenshots im Internet, die für Verwirrung sorgten. Von Apple selbst gibt es bisher keine offizielle Stellungnahme zu den Falschmeldungen. Deutsche Apple-Nutzer:innen können aber aufatmen: Das Update „Apple Intelligence“ wird hierzulande erst ab April 2025 verfügbar sein.

Humor und Empörung

Die Fehltritte der Technologie haben im Internet längst zu einer Welle von ironischen Kommentaren geführt. Ein besonders populäres Beispiel zeigt die Zusammenfassung einer Textnachricht auf der Plattform X. Ein Nutzer zitiert eine Textnachricht seiner Mutter. Sie hatte ihm geschrieben: „Diese Wanderung hat mich fast umgebracht!“ Apples KI generierte daraus eine Zusammenfassung, von der er einen Screenshot teilt: „Hat einen Selbstmordversuch unternommen, sich aber erholt und ist in Redlands und Palm Springs gewandert.“ Die Reaktionen anderer Nut­ze­r:in­nen fielen entsprechend empört aus. Einer schreibt: „Das ist komplett verrückt. Warum fasst Apple Texte zusammen, anstatt sie einfach anzuzeigen? Wem soll das helfen?“

Die Fragen sind berechtigt. Denn obwohl KI-gestützte Funktionen gekennzeichnet sind – ein kleines Pfeilsymbol weist auf ihre Verwendung hin – bleibt die Skepsis groß. Besonders im Journalismus, wo Glaubwürdigkeit alles ist, werfen die Fehler der KI ein schlechtes Licht auf Apple. Technologie soll den Alltag erleichtern, doch in Fällen wie diesen scheint sie mehr Probleme zu schaffen, als sie löst. Vielleicht ist es eine Erinnerung daran, die eigene Urteilsfähigkeit nicht völlig an Algorithmen zu delegieren.

taz lesen kann jede:r

Als Genossenschaft gehören wir unseren Leser:innen. Und unser Journalismus ist nicht nur 100 % konzernfrei, sondern auch kostenfrei zugänglich. Texte, die es nicht allen recht machen und Stimmen, die man woanders nicht hört – immer aus Überzeugung und hier auf taz.de ohne Paywall. Unsere Leser:innen müssen nichts bezahlen, wissen aber, dass guter, kritischer Journalismus nicht aus dem Nichts entsteht. Dafür sind wir sehr dankbar. Damit wir auch morgen noch unseren Journalismus machen können, brauchen wir mehr Unterstützung. Unser nächstes Ziel: 40.000 – und mit Ihrer Beteiligung können wir es schaffen. Setzen Sie ein Zeichen für die taz und für die Zukunft unseres Journalismus. Mit nur 5,- Euro sind Sie dabei! Jetzt unterstützen

Mehr zum Thema

5 Kommentare

 / 
  • Wieso sollte eine KI nicht genau so dumm sein, wie ein Homo sapiens, schließlich wird die KI von einen Homo sapiens programmiert! Es wäre vielleicht intelligent die KI von Menschen mit der höchsten Intelligenz programmieren und von den intelligentesten die wir unter uns haben, testen zu lassen!

  • Wer AI- Nachrichtenmeldungen Glauben schenkt glaubt auch Alice Weidel und Donald Trump!

  • Das ist noch nichtmal scharf genug. Es besteht überhaupt keinen Grund irgendeinen Anteil seiner Urteilsfähigkeit Algorithmen zu überlassen. Es wird in unserer Welt sowieso oft genug unfreiwillig passieren. "Intelligenz" ist in dem Zusammenhang ein haarsträubender Euphemismus. Ganz zu schweigen von anderen Problemen die durch KI entstanden sind, wie der immense Energieverbrauch.

    Wer nicht anfängt sein eigenes Hirn zu nutzen und sogar Datennetzwerke damit verwechselt, ist ein willkommenes Opfer autoritärer Tendenzen.

  • Die eigene Urteilsfähigkeit nicht VÖLLIG zu delegieren? KI ist eigentlich nur dann sinnvoll nutzbar, wenn ich sie in einem Themenbereich einsetze, den ich als Mensch selbst beherrsche und wenn ich die Arbeit investiere, die Ergebnisse auf Plausibilität und Wahrheitsgehalt zu überprüfen.



    Sonst wiederholt das Programm nur Stereotype oder halluziniert. Lasse ich z.B. die KI Code in einer Programmiersprache schreiben, von der ich keine Ahnung habe, wird das Ergebnis mit ziemlicher Sicherheit nicht richtig funktionieren, aber den Fehler zu finden, oft: ihn überhaupt zu erkennen, kann ich alleine dann nicht ansatzweise leisten!



    Der BBC kann ich nur raten, Expert:innen einzubinden, die die Ergebnisse prüfen, bevor sie als Meldung der weltweit seriösesten Nachrichtenquelle in die Welt gelangen. Schön blöd, ein gewaltiges Management-Desaster!

  • Für eine Gegendarstellung braucht es einen konkret Geschädigten der das einfordert.

    Sanktionen für bloße Falschberichterstattung sind so gut wie nicht vorhanden.



    Hinzu kommt der Tech-Alberichsmantel.

    Also muss man sich nicht wundern, dass die Tech-Konzerne keinen Heller in die Vermeidung von Fake-News stecken.