Wirbel um KI von Apple: BBC kritisiert „Apple Intelligence“
Die künstliche Intelligenz „Apple Intelligence“ hat für Falschmeldungen gesorgt. Der Sender BBC sieht seine Glaubwürdigkeit in Gefahr.
Apples neues iOS-Update sorgt für Wirbel – und nicht gerade im positiven Sinne. Seit September steht iOS 18 zur Verfügung, mit ihm auch das neue Feature „Apple Intelligence“. Die vorläufig erst im englischsprachigen Raum nutzbare Apple-KI steht jetzt in der Kritik, Desinformation zu verbreiten. Der Nachrichtensender BBC beschwerte sich bei Apple: Die KI habe eine Push-Mitteilung falsch übersetzt.
In einem Beitrag der BBC Anfang Dezember ging es um den Fall des mutmaßlichen Mörders Luigi Mangione, der den Krankenkassen-CEO Brian Thompson in New York erschossen haben soll. Die KI von Apple fasste die Push-Nachricht der BBC für ihre User:innen zusammen. Doch sie gab den Inhalt um Mangione falsch wider. Statt den Mord zu melden, dichtete Apples KI als Schlagzeile: „Luigi Mangione erschießt sich selbst“. Ein gravierender Fehler, der nicht nur den Inhalt der Meldung maßgeblich verfälschte, sondern durch diese Falschinformation auch die Glaubwürdigkeit der BBC infrage stellte.
Andere Nachrichtenhäuser melden ebenfalls Probleme
Der Pressesprecher des Nachrichtensenders erklärte nun, man habe Apple kontaktiert, um den Fehler anzusprechen. „BBC News ist das vertrauenswürdigste Nachrichtenmedium der Welt“, betonte er. „Es ist für uns wichtig, dass unsere Zuschauer:innen allen Informationen und journalistischen Beiträgen, die in unserem Namen veröffentlicht werden, vertrauen können, und das gilt auch für Meldungen.“ Die anderen Nachrichten in der Push-Nachricht, über den Sturz des Assad-Regimes in Syrien und ein Update über den südkoreanischen Präsidenten Yoon Suk Yeol, gab die KI in der Kurzzusammenfassung korrekt wieder.
Die künstliche Intelligenz „Apple Intelligence“, soll den Alltag der Nutzer:innen eigentlich vereinfachen. Einmal heruntergeladen fasst sie Textnachrichten und Meldungen zusammen, generiert Rückblicke aus Galeriefotos und mehr – nette Gadgets also. Ob diese allerdings nicht mehr Schaden anrichten als dass sie Mehrwert bringen, ist fraglich. Man kann sie aber auch deaktivieren – oder gar nicht erst herunterladen.
Die BBC ist mit ihrer Beschwerde gegen Apple nicht allein. Ebenso melden andere Nachrichtenhäuser Probleme mit der neuen KI-Funktion „Apple Intelligence“. Auch der wahre Inhalt einer Nachrichtenmeldung der US-amerikanischen Zeitung The New York Times vom 21. November fiel einer falschen Zusammenfassung zum Opfer. Aus der Schlagzeile, der Internationale Strafgerichtshof habe einen Haftbefehl gegen den israelischen Premierminister Netanjahu ausgestellt, machte Apple Intelligence: „Netanjahu verhaftet“.
Auch von dieser entstellten Push-Mitteilung kursierten daraufhin ungezählte Screenshots im Internet, die für Verwirrung sorgten. Von Apple selbst gibt es bisher keine offizielle Stellungnahme zu den Falschmeldungen. Deutsche Apple-Nutzer:innen können aber aufatmen: Das Update „Apple Intelligence“ wird hierzulande erst ab April 2025 verfügbar sein.
Humor und Empörung
Die Fehltritte der Technologie haben im Internet längst zu einer Welle von ironischen Kommentaren geführt. Ein besonders populäres Beispiel zeigt die Zusammenfassung einer Textnachricht auf der Plattform X. Ein Nutzer zitiert eine Textnachricht seiner Mutter. Sie hatte ihm geschrieben: „Diese Wanderung hat mich fast umgebracht!“ Apples KI generierte daraus eine Zusammenfassung, von der er einen Screenshot teilt: „Hat einen Selbstmordversuch unternommen, sich aber erholt und ist in Redlands und Palm Springs gewandert.“ Die Reaktionen anderer Nutzer:innen fielen entsprechend empört aus. Einer schreibt: „Das ist komplett verrückt. Warum fasst Apple Texte zusammen, anstatt sie einfach anzuzeigen? Wem soll das helfen?“
Die Fragen sind berechtigt. Denn obwohl KI-gestützte Funktionen gekennzeichnet sind – ein kleines Pfeilsymbol weist auf ihre Verwendung hin – bleibt die Skepsis groß. Besonders im Journalismus, wo Glaubwürdigkeit alles ist, werfen die Fehler der KI ein schlechtes Licht auf Apple. Technologie soll den Alltag erleichtern, doch in Fällen wie diesen scheint sie mehr Probleme zu schaffen, als sie löst. Vielleicht ist es eine Erinnerung daran, die eigene Urteilsfähigkeit nicht völlig an Algorithmen zu delegieren.
taz lesen kann jede:r
Als Genossenschaft gehören wir unseren Leser:innen. Und unser Journalismus ist nicht nur 100 % konzernfrei, sondern auch kostenfrei zugänglich. Texte, die es nicht allen recht machen und Stimmen, die man woanders nicht hört – immer aus Überzeugung und hier auf taz.de ohne Paywall. Unsere Leser:innen müssen nichts bezahlen, wissen aber, dass guter, kritischer Journalismus nicht aus dem Nichts entsteht. Dafür sind wir sehr dankbar. Damit wir auch morgen noch unseren Journalismus machen können, brauchen wir mehr Unterstützung. Unser nächstes Ziel: 40.000 – und mit Ihrer Beteiligung können wir es schaffen. Setzen Sie ein Zeichen für die taz und für die Zukunft unseres Journalismus. Mit nur 5,- Euro sind Sie dabei! Jetzt unterstützen
meistkommentiert
Anschlag in Magdeburg
„Eine Schockstarre, die bis jetzt anhält“
Exklusiv: RAF-Verdächtiger Garweg
Meldung aus dem Untergrund
Russische Männer auf TikTok
Bloß nicht zum Vorbild nehmen
Wirbel um KI von Apple
BBC kritisiert „Apple Intelligence“
Nach dem Anschlag in Magdeburg
Rechtsextreme instrumentalisieren Gedenken
Umgang mit nervigen Bannern
Bundesrat billigt neue Regeln für Cookies