talkshow
: Menschen sind auch nicht menschlich

Scholz wünscht sich, dass künftig Künstliche Intelligenz bei Asylverfahren hilft. Was erst einmal gruselig klingt, kann eine Chance sein, schnellere und humanere Entscheidungen hervorzubringen

Wie viele Zettel braucht es für einen Asyl­bescheid? Foto: Jungeblodt

Von Ann-Kathrin Leclère

Bleiben oder abschieben? Über diese Frage könnte bei Asylverfahren bald verstärkt künstliche Intelligenz entscheiden. Zumindest, wenn es nach Bundeskanzler Olaf Scholz geht. Der besuchte am Montag das BAMF und erklärte, dass durch die „Nutzung moderner Entwicklungen Routineentscheidungen schnell und trotzdem mit großer Qualität“ getroffen werden könnten.

Maschinen, die über das Schicksal von Menschen entscheiden? Das klingt eher nach gruseliger Science-Fiction als nach humanen Asylsystem, das wir dringend gebrauchen könnten. Aber vielleicht ist genau das der Punkt. Die deutschen Migrationsverfahren sind aktuell auch ohne künstliche Intelligenz unmenschlich. Sie können bis aufs Äußerste rassistisch sein. Und sie hängen von den Entscheidungen von Einzelpersonen ab, wie man nicht zuletzt am Fall des Geraer Richters Bengt-Christian Fuchs sehen konnte.

Fuchs verfasste mutmaßlich rechte Hetze gegen Geflüchtete im Netz und war gleichzeitig für Asylverfahren zuständig. Auffallend selten hatte er Klagen gegen abgelehnte Asylanträge stattgegeben, berichtete der MDR. Wegen der Vorwürfe entschied das Geraer Verwaltungsgericht nun: Er soll für Asylanträge nicht mehr zuständig sein.

Doch die Unmenschlichkeit herrscht auch andernorts, wie an dem Neid, mit dem die Union auf andere europäische Länder schaut, die verschärfte Abschieberegelungen in Drittstaaten zulassen wollen, zu erkennen ist – nach Italien zum Beispiel, das Asylanträge in Albanien prüfen lassen und erst nach einem positiven Bescheid die Menschen einreisen lassen will. Man kann die Unmenschlichkeit daran erkennen, dass gut ausgebildete Fachkräfte, die Deutschland eigentlich so dringend braucht, abgeschoben werden.

All diese Fälle zeigen: Das System ist unmenschlich, teuer und fehleranfällig. Vielleicht muss man deshalb den Gedanken zulassen, dass KI und eine in Deutschland so gefürchtete Digitalisierung einen Unterschied machen können. Sie könnte eine Hilfe sein für die unter bürokratischem Aufwand ächzenden Kommunen: zum Beispiel schneller Dokumente auslesen und Bescheide schreiben, die mit jedem einzelnen Asylantrag einhergehen. Eine Hilfe wären sie auch für die Menschen, die manchmal monatelang mit der Ungewissheit leben müssen, ob ihr Asylantrag angenommen oder abgewiesen wird.

KI-Systeme können so programmiert werden, dass sie objektiv und unvoreingenommen arbeiten, basierend auf klar definierten Kriterien und gesetzlichen Vorgaben. Das könnte zu faireren und konsistenten Entscheidungen führen, die nicht von den persönlichen Ansichten einzelner Ent­schei­de­r*in­nen abhängig sind.

Ganz ungefährlich ist der Einsatz von KI bei so lebenswichtigen Entscheidungen natürlich nicht. Klar ist, dass die Systeme regelmäßig überprüft werden müssen, um sicherzustellen, dass sie korrekt funktionieren und keine systematischen Fehler oder (unbewusste) Vorurteile enthalten. Denn jeder Algorithmus wird letztendlich von Menschen oder zumindest mit menschlich erzeugten Daten trainiert. Wie könnte man sicherstellen, dass sie nicht auf Basis von demjenigen Teil der Bevölkerung trainiert wird, bei der Einwanderung und Asyl an Rückhalt verloren haben?

Hinzu kommt, dass die KI die Menschen bei der Behörde nicht vollkommen ersetzen kann. Einerseits wegen der Arbeitsplätze, andererseits, weil jeder Schutzsuchende es verdient hat, bei seiner Suche in ein freundliches Gesicht zu gucken, das die Dramatik der Lebenssituation versteht.

Wie die Bundesregierung sich den Einsatz der KI beim BAMF vorstellt, ist unklar. Sobald der Plan steht, lohnt sich kritisches Hingucken. Doch Scholz’Besuch lässt ein bisschen Hoffnung zu. Denn wenn Menschen es nicht hinbekommen, ein humanes Asylverfahren zu gewährleisten, dann gelingt es vielleicht der Maschine.