piwik no script img

Wirbel um KI von AppleBBC kritisiert „Apple Intelligence“

Die künstliche Intelligenz „Apple Intelligence“ hat für Falschmeldungen gesorgt. Der Sender BBC sieht seine Glaubwürdigkeit in Gefahr.

Sollte vielleicht zukünftig doch lieber wieder mehr der Intelligenz von Mit­ar­bei­te­r*in­nen aus Fleisch und Blut vertrauen: die BBC Foto: Kin Cheung/ap

Apples neues iOS-Update sorgt für Wirbel – und nicht gerade im positiven Sinne. Seit September steht iOS 18 zur Verfügung, mit ihm auch das neue Feature „Apple Intelligence“. Die vorläufig erst im englischsprachigen Raum nutzbare Apple-KI steht jetzt in der Kritik, Desinformation zu verbreiten. Der Nachrichtensender BBC beschwerte sich bei Apple: Die KI habe eine Push-Mitteilung falsch übersetzt.

In einem Beitrag der BBC Anfang Dezember ging es um den Fall des mutmaßlichen Mörders Luigi Mangione, der den Krankenkassen-CEO Brian Thompson in New York erschossen haben soll. Die KI von Apple fasste die Push-Nachricht der BBC für ihre Use­r:in­nen zusammen. Doch sie gab den Inhalt um Mangione falsch wider. Statt den Mord zu melden, dichtete Apples KI als Schlagzeile: „Luigi Mangione erschießt sich selbst“. Ein gravierender Fehler, der nicht nur den Inhalt der Meldung maßgeblich verfälschte, sondern durch diese Falschinformation auch die Glaubwürdigkeit der BBC infrage stellte.

Andere Nachrichtenhäuser melden ebenfalls Probleme

Der Pressesprecher des Nachrichtensenders erklärte nun, man habe Apple kontaktiert, um den Fehler anzusprechen. „BBC News ist das vertrauenswürdigste Nachrichtenmedium der Welt“, betonte er. „Es ist für uns wichtig, dass unsere Zu­schaue­r:in­nen allen Informationen und journalistischen Beiträgen, die in unserem Namen veröffentlicht werden, vertrauen können, und das gilt auch für Meldungen.“ Die anderen Nachrichten in der Push-Nachricht, über den Sturz des Assad-Regimes in Syrien und ein Update über den südkoreanischen Präsidenten Yoon Suk Yeol, gab die KI in der Kurzzusammenfassung korrekt wieder.

Die künstliche Intelligenz „Apple Intelligence“, soll den Alltag der Nut­ze­r:in­nen eigentlich vereinfachen. Einmal heruntergeladen fasst sie Textnachrichten und Meldungen zusammen, generiert Rückblicke aus Galeriefotos und mehr – nette Gadgets also. Ob diese allerdings nicht mehr Schaden anrichten als dass sie Mehrwert bringen, ist fraglich. Man kann sie aber auch deaktivieren – oder gar nicht erst herunterladen.

Die BBC ist mit ihrer Beschwerde gegen Apple nicht allein. Ebenso melden andere Nachrichtenhäuser Probleme mit der neuen KI-Funktion „Apple Intelligence“. Auch der wahre Inhalt einer Nachrichtenmeldung der US-amerikanischen Zeitung The New York Times vom 21. November fiel einer falschen Zusammenfassung zum Opfer. Aus der Schlagzeile, der Internationale Strafgerichtshof habe einen Haftbefehl gegen den israelischen Premierminister Netanjahu ausgestellt, machte Apple Intelligence: „Netanjahu verhaftet“.

Auch von dieser entstellten Push-Mitteilung kursierten daraufhin ungezählte Screenshots im Internet, die für Verwirrung sorgten. Von Apple selbst gibt es bisher keine offizielle Stellungnahme zu den Falschmeldungen. Deutsche Apple-Nutzer:innen können aber aufatmen: Das Update „Apple Intelligence“ wird hierzulande erst ab April 2025 verfügbar sein.

Humor und Empörung

Die Fehltritte der Technologie haben im Internet längst zu einer Welle von ironischen Kommentaren geführt. Ein besonders populäres Beispiel zeigt die Zusammenfassung einer Textnachricht auf der Plattform X. Ein Nutzer zitiert eine Textnachricht seiner Mutter. Sie hatte ihm geschrieben: „Diese Wanderung hat mich fast umgebracht!“ Apples KI generierte daraus eine Zusammenfassung, von der er einen Screenshot teilt: „Hat einen Selbstmordversuch unternommen, sich aber erholt und ist in Redlands und Palm Springs gewandert.“ Die Reaktionen anderer Nut­ze­r:in­nen fielen entsprechend empört aus. Einer schreibt: „Das ist komplett verrückt. Warum fasst Apple Texte zusammen, anstatt sie einfach anzuzeigen? Wem soll das helfen?“

Die Fragen sind berechtigt. Denn obwohl KI-gestützte Funktionen gekennzeichnet sind – ein kleines Pfeilsymbol weist auf ihre Verwendung hin – bleibt die Skepsis groß. Besonders im Journalismus, wo Glaubwürdigkeit alles ist, werfen die Fehler der KI ein schlechtes Licht auf Apple. Technologie soll den Alltag erleichtern, doch in Fällen wie diesen scheint sie mehr Probleme zu schaffen, als sie löst. Vielleicht ist es eine Erinnerung daran, die eigene Urteilsfähigkeit nicht völlig an Algorithmen zu delegieren.

taz lesen kann jede:r

Als Genossenschaft gehören wir unseren Leser:innen. Und unser Journalismus ist nicht nur 100 % konzernfrei, sondern auch kostenfrei zugänglich. Texte, die es nicht allen recht machen und Stimmen, die man woanders nicht hört – immer aus Überzeugung und hier auf taz.de ohne Paywall. Unsere Leser:innen müssen nichts bezahlen, wissen aber, dass guter, kritischer Journalismus nicht aus dem Nichts entsteht. Dafür sind wir sehr dankbar. Damit wir auch morgen noch unseren Journalismus machen können, brauchen wir mehr Unterstützung. Unser nächstes Ziel: 40.000 – und mit Ihrer Beteiligung können wir es schaffen. Setzen Sie ein Zeichen für die taz und für die Zukunft unseres Journalismus. Mit nur 5,- Euro sind Sie dabei! Jetzt unterstützen

Mehr zum Thema

17 Kommentare

 / 
  • Man kann eine äusserst beunruhigende Entwicklung beobachten in Bezug auf KI. Vor allem die so genannten "sozialen" Netzwerke werden immer mehr von KI-Kanälen unterwandert. Ein Umstand, der mich alle bestehenden MItgliedschaften aufkündigen liess (waren sowieso nicht viele). Es ist höchste Zeit, sich über die Nachteile im Klaren zu werden, statt jeder medialen Sau, die durchs Dorf getrieben wird, hinterher zu rennen. Vielleicht kann die taz ja mal eine Artikelserie über die (jetzt schon) negativen Auswirkungen von KI und die damit verbundenen Gefahren initiieren.

  • Wieso sollte eine KI nicht genau so dumm sein, wie ein Homo sapiens, schließlich wird die KI von einen Homo sapiens programmiert! Es wäre vielleicht intelligent die KI von Menschen mit der höchsten Intelligenz programmieren und von den intelligentesten die wir unter uns haben, testen zu lassen!

    • @taz.manien:

      Das wäre in der Vergangenheit eine Möglichkeit gewesen, jetz ist die Sache gelaufen. Zumindest so lange, wie es Strom gibt...

    • @taz.manien:

      Wie genau alle Zusammenhänge sind, die die menschliche Intelligenz ergeben ist ja nicht geklärt, in Folge dessen würde ich bei den menschengemachten Algorithmen, die auf die Datensammlungen zugreifen nicht von Intelligenz sprechen. Das ist ein Hype für ausgefeilte Such- und Antwortalgorithmen. Schöpferisch ist die KI zu nichts in der Lage, da wird alles aus vorhandenen Versatzstücken zusammengebastelt. Wenn da Intelligenz wäre, könnte man dieser ja ungelöste Probleme jeder Art vorlegen und dafür innovative Lösungen erwarten, was nicht der Fall ist.

    • @taz.manien:

      Sorry aber Sie haben keine Ahnung was eine KI ist. Es geht bei der KI nicht um den, die Programmierer, sondern um selbst lernende Algorithmen, die den, die Programmierer überflüssig machen.

      • @weather2018:

        Und wer hat die selbst lernenden Algorithmen geschrieben? Wer kuratiert das Material, aus dem die Algorithmen selbst lernen?

      • @weather2018:

        Nicht... ganz.

        "Selbst lernen" ja - aber nur innerhalb eines vom Programmierer vorgegebenen Rahmens.

        Für eine authentische Intelligenz ist eine AUTARKE Informationsaufnahme und eine Fähigkeit zum AKTIVEN Aufsuchen neuer Informationen notwendig. Aber das baut niemand, außer bei Mährobotern oder so. Die Gründe liegen auf der Hand: authentische Intelligenz ist nicht gut steuerbar, d.h. sie hat keine berechenbare Profitabilität. Außer man sperrt sie auf einem so engen Raum ein (wie einen Mähroboter eben), dass der maximal mögliche Schaden sehr begrenzt ist.

        Vor einer wirklich intelligenten Kampfdrohne wären die eigenen Soldaten genausowenig sicher wie die gegnerischen - nichts und niemand wäre vor ihr sicher. Diese Unprognostizierbarkeit "von außen" ist ein Schlüsselkriterium für eine authentische Intelligenz. Deswegen wird daran nicht ernsthaft geforscht.

      • @weather2018:

        Ich sag nur noch: "Der Zauberlehrling".



        Aber Mo Gawdat hat es auch mit "AI is worse than climate-exchange" auf den Punkt gebracht.

  • Wer AI- Nachrichtenmeldungen Glauben schenkt glaubt auch Alice Weidel und Donald Trump!

    • @Heideblüte:

      Ok, Sie glauben also nichts was im öffentlich rechtlichen Rundfunk gesendet wird? Die arbeiten auch schon länger mit KI. Auch in den Nachrichten.

      • @weather2018:

        Die KI wäre eine äußerst segensreiche Entwicklung, würden nicht "die Menschen" sie in die Hände bekommen.



        Es kommt genau so wie nach der Erfindung des Faustkeils, des Feuermachens, der Dampfmaschine, der Ekeltrizität, der "sozialen" Netzwerke ..... : Sie wird zum Nutzer (bei weitem nicht zu redlichen Zwecken) einiger Weniger und zum Schaden unendlich Vieler missbraucht.

  • Das ist noch nichtmal scharf genug. Es besteht überhaupt keinen Grund irgendeinen Anteil seiner Urteilsfähigkeit Algorithmen zu überlassen. Es wird in unserer Welt sowieso oft genug unfreiwillig passieren. "Intelligenz" ist in dem Zusammenhang ein haarsträubender Euphemismus. Ganz zu schweigen von anderen Problemen die durch KI entstanden sind, wie der immense Energieverbrauch.

    Wer nicht anfängt sein eigenes Hirn zu nutzen und sogar Datennetzwerke damit verwechselt, ist ein willkommenes Opfer autoritärer Tendenzen.

  • Die eigene Urteilsfähigkeit nicht VÖLLIG zu delegieren? KI ist eigentlich nur dann sinnvoll nutzbar, wenn ich sie in einem Themenbereich einsetze, den ich als Mensch selbst beherrsche und wenn ich die Arbeit investiere, die Ergebnisse auf Plausibilität und Wahrheitsgehalt zu überprüfen.



    Sonst wiederholt das Programm nur Stereotype oder halluziniert. Lasse ich z.B. die KI Code in einer Programmiersprache schreiben, von der ich keine Ahnung habe, wird das Ergebnis mit ziemlicher Sicherheit nicht richtig funktionieren, aber den Fehler zu finden, oft: ihn überhaupt zu erkennen, kann ich alleine dann nicht ansatzweise leisten!



    Der BBC kann ich nur raten, Expert:innen einzubinden, die die Ergebnisse prüfen, bevor sie als Meldung der weltweit seriösesten Nachrichtenquelle in die Welt gelangen. Schön blöd, ein gewaltiges Management-Desaster!

    • @Zangler:

      Die BBC hat doch nichts falsches rausgegeben, die doofe Apple KI auf den Smartphones der Apple User hat das "selbständig" falsch zusammengefasst und der BBC ist das aufgefallen.



      Ich habe Kollegen, die sind Apple-Gläubige und lassen ihr Siri und die Applewatch ständig laufen, das wirkt manchmal schon pathologisch, wenn die alle paar Minuten auf die Applewatch schauen, weil ein Algorithmus der Meinung ist ihnen was mitzuteilen und die scheinbar noch stolz sind, wenn sie aufgrund von mitgehörten Gesprächen "personalisierte" Werbung erhalten.



      So lange man das selbst noch steuern kann ist das ja noch in Ordnung, allerdings kann man bei manchen neuen Smartphones die KI Funktionen der Apps nicht mehr überall abschalten, was dringend ermöglicht werden müsste.

      • @Axel Schäfer:

        "Die BBC hat doch nichts falsches rausgegeben"

        Soweit richtig - aber die Bildunterschrift oben im Artikel suggeriert etwas anderes. Wurde die im Hause taz KI-generiert? 🤔😇

        • @FriedrichHecker:

          Guter Punkt

  • Für eine Gegendarstellung braucht es einen konkret Geschädigten der das einfordert.

    Sanktionen für bloße Falschberichterstattung sind so gut wie nicht vorhanden.



    Hinzu kommt der Tech-Alberichsmantel.

    Also muss man sich nicht wundern, dass die Tech-Konzerne keinen Heller in die Vermeidung von Fake-News stecken.