Algorithmen bei Bilderkennung: Wenn die KI Beine zählt

Es gibt Dinge, die können Computer gut, aber Menschen nicht – und umgekehrt. Das kann für Verwirrung sorgen.

Sehr viele Pferdebeine auf einer Galopprennbahn

Was macht das Pferd zum Pferd? Foto: Legacy Releasing Corp./imago

Was ist das?“, fragt das Kind und zeigt auf die Abbildung eines Pferdes. „Das ist ein Pferd.“ – „Und warum ist das ein Pferd?“ Tja.

Kaum etwas zeigt das Dilemma von künstlicher Intelligenz so gut wie das Warum-Fragealter. Was macht das Pferd zum Pferd? Vier Beine? Haben Millionen andere Tiere auch. Die Größe? Es gibt Elefanten. Und Ponys. Die braune Farbe? Als würden Pferde nicht in allen Schattierungen und Mustern von Weiß über Braun bis Schwarz existieren. Mähne und Schweif? Schöne Grüße an Zebra und Esel.

Was also macht das Pferd zum Pferd? Klar, bei einem Bild ist es einfach: Ja, Pferd, check. Weniger trivial: Nur anhand einer Bildbeschreibung festzustellen, um welches Tier es sich handelt. Ohne den Namen zu erwähnen selbstverständlich und ohne einfach aufzuzählen, was es alles nicht ist. Da sind sich künstliche und menschliche Intelligenz auf einmal ganz nah.

Das ist sonst eher selten. Es gibt Dinge, die sind für Computer leicht, für die meisten Menschen aber eher nicht. Richtig gut Schach spielen zum Beispiel. Mal eben ausrechnen, was 358.345.739 geteilt durch 45.029 ergibt. In einer Textdatei mit 300 Millionen Buchstaben die Zeichenfolge xsdfjdsl finden. Und es gibt umgekehrt Dinge, die sind für die meisten Menschen leicht, aber für Computer eher nicht. Sprache verstehen. Emotionen in Gesichtern lesen. Oder eben erkennen, was auf einem Foto abgebildet ist.

Nehmen wir an, wir wollen einer KI beibringen, Pferde von Kühen zu unterscheiden. Um brauchbare Ergebnisse zu bekommen, brauchen wir dafür eine vierstellige Anzahl an Bildern, und zwar aussagekräftige und variantenreiche.

Sind die Pferde immer auf der Weide abgebildet, die Kühe aber im Stall, und bekommt der Algorithmus dann ein Bild von einem Pferd im Stall, wird er mit einiger Wahrscheinlichkeit sagen: Das ist eine Kuh. Denn er hat nicht gelernt, Pferde von Kühen zu unterscheiden, sondern Ställe von Weiden. Und wenn die Kühe auf unseren Trainingsbildern immer schwarz-weiß gefleckt sind, die Pferde aber braun, wird der Algorithmus eine braune Kuh mit größerer Wahrscheinlichkeit als Pferd deklarieren.

Wir brauchen also Pferde und Kühe in unterschiedlichen Umgebungen, in verschiedenen Farben und Größen, von vorne, von hinten, im Profil, in unterschiedlicher Belichtung. Und wenn wir dann einen tollen Satz von Trainingsdaten haben, damit unseren Algorithmus füttern, er auf den Testdaten wunderbar performt und wir ihm daraufhin das Bild eines Traktor vorlegen, wird er nicht etwa sagen: „Leute, wollt ihr mich verarschen.“ Sondern so etwas wie: Das ist zu 53 Prozent eine Kuh.

Das nächste Bild von einem Pferd war übrigens eines, auf dem Pippi Langstrumpf ihres gerade in die Luft stemmt. „Warum hebt das Kind das Pferd hoch?“, fragt das Kind. Liebe KI, du hast noch einen langen Weg vor dir.

Einmal zahlen
.

Fehler auf taz.de entdeckt?

Wir freuen uns über eine Mail an fehlerhinweis@taz.de!

Inhaltliches Feedback?

Gerne als Leser*innenkommentar unter dem Text auf taz.de oder über das Kontaktformular.

schreibt über vernetzte Welten, digitale Wirtschaft und lange Wörter (Datenschutz-Grundverordnung, Plattformökonomie, Nutzungsbedingungen). Manchmal und wenn es die Saison zulässt, auch über alte Apfelsorten. Bevor sie zur taz kam, hat sie unter anderem für den MDR als Multimedia-Redakteurin gearbeitet. Autorin der Kolumne Digitalozän.

Bitte registrieren Sie sich und halten Sie sich an unsere Netiquette.

Haben Sie Probleme beim Kommentieren oder Registrieren?

Dann mailen Sie uns bitte an kommune@taz.de.