piwik no script img

Künstliche Intelligenz in AsylverfahrenMenschen sind auch nicht menschlich

Scholz wünscht sich, dass künftig KI bei Asylverfahren hilft. Klingt gruselig, könnte aber auch zu schnelleren und humaneren Entscheidungen führen.

Wie viele Zettel braucht es für einen Asylantrag? Foto: Jungeblodt

Bleiben oder abschieben? Über diese Frage könnte bei Asylverfahren bald verstärkt künstliche Intelligenz entscheiden. Zumindest, wenn es nach Bundeskanzler Olaf Scholz geht. Der besuchte am Montag das BAMF und erklärte, dass durch die „Nutzung moderner Entwicklungen Routineentscheidungen schnell und trotzdem mit großer Qualität“ getroffen werden könnten.

Maschinen, die über das Schicksal von Menschen entscheiden? Das klingt eher nach gruseliger Science-Fiction als nach humanen Asylsystem, das wir dringend gebrauchen könnten. Aber vielleicht ist genau das der Punkt.

Die deutschen Migrationsverfahren sind aktuell auch ohne künstliche Intelligenz unmenschlich. Sie können bis aufs Äußerste rassistisch sein. Und sie hängen von den Entscheidungen von Einzelpersonen ab, wie man nicht zuletzt am Fall des Geraer Richters Bengt-Christian Fuchs sehen konnte.

Fuchs verfasste mutmaßlich rechte Hetze gegen Geflüchtete im Netz und war gleichzeitig für Asylverfahren zuständig. Auffallend selten hatte er Klagen gegen abgelehnte Asylanträge stattgegeben, berichtete der MDR. Wegen der Vorwürfe entschied das Geraer Verwaltungsgericht nun: Er soll für Asylanträge nicht mehr zuständig sein.

Doch die Unmenschlichkeit herrscht auch andernorts, wie an dem Neid, mit dem die Union auf andere europäische Länder schaut, die verschärfte Abschieberegelungen in Drittstaaten zulassen wollen, zu erkennen ist – nach Italien zum Beispiel, das Asylanträge in Albanien prüfen lassen und erst nach einem positiven Bescheid die Menschen einreisen lassen will. Man kann die Unmenschlichkeit daran erkennen, dass gut ausgebildete Fachkräfte, die Deutschland eigentlich so dringend braucht, abgeschoben werden.

Objektiv und unvoreingenommen

All diese Fälle zeigen: Das System ist unmenschlich, teuer und fehleranfällig. Vielleicht muss man deshalb den Gedanken zulassen, dass KI und eine in Deutschland so gefürchtete Digitalisierung einen Unterschied machen können.

Sie könnte eine Hilfe sein für die unter bürokratischem Aufwand ächzenden Kommunen: zum Beispiel schneller Dokumente auslesen und Bescheide schreiben, die mit jedem einzelnen Asylantrag einhergehen. Eine Hilfe wären sie auch für die Menschen, die manchmal monatelang mit der Ungewissheit leben müssen, ob ihr Asylantrag angenommen oder abgewiesen wird.

KI-Systeme können so programmiert werden, dass sie objektiv und unvoreingenommen arbeiten, basierend auf klar definierten Kriterien und gesetzlichen Vorgaben. Das könnte zu faireren und konsistenten Entscheidungen führen, die nicht von den persönlichen Ansichten einzelner Ent­schei­de­r*in­nen abhängig sind.

Ganz ungefährlich ist der Einsatz von KI bei so lebenswichtigen Entscheidungen natürlich nicht. Klar ist, dass die Systeme regelmäßig überprüft werden müssen, um sicherzustellen, dass sie korrekt funktionieren und keine systematischen Fehler oder (unbewusste) Vorurteile enthalten. Denn jeder Algorithmus wird letztendlich von Menschen oder zumindest mit menschlich erzeugten Daten trainiert. Wie könnte man sicherstellen, dass sie nicht auf Basis von demjenigen Teil der Bevölkerung trainiert wird, bei der Einwanderung und Asyl an Rückhalt verloren haben?

Hinzu kommt, dass die KI die Menschen bei der Behörde nicht vollkommen ersetzen kann. Einerseits wegen der Arbeitsplätze, andererseits, weil jeder Schutzsuchende es verdient hat, bei seiner Suche in ein freundliches Gesicht zu gucken, das die Dramatik der Lebenssituation versteht.

Wie die Bundesregierung sich den Einsatz der KI beim BAMF vorstellt, ist unklar. Sobald der Plan steht, lohnt sich kritisches Hingucken. Doch Scholz’ Besuch lässt ein bisschen Hoffnung zu. Denn wenn Menschen es nicht hinbekommen, ein humanes Asylverfahren zu gewährleisten, dann gelingt es vielleicht der Maschine.

Links lesen, Rechts bekämpfen

Gerade jetzt, wo der Rechtsextremismus weiter erstarkt, braucht es Zusammenhalt und Solidarität. Auch und vor allem mit den Menschen, die sich vor Ort für eine starke Zivilgesellschaft einsetzen. Die taz kooperiert deshalb mit Polylux. Das Netzwerk engagiert sich seit 2018 gegen den Rechtsruck in Ostdeutschland und unterstützt Projekte, die sich für Demokratie und Toleranz einsetzen. Eine offene Gesellschaft braucht guten, frei zugänglichen Journalismus – und zivilgesellschaftliches Engagement. Finden Sie auch? Dann machen Sie mit und unterstützen Sie unsere Aktion. Noch bis zum 31. Oktober gehen 50 Prozent aller Einnahmen aus den Anmeldungen bei taz zahl ich an das Netzwerk gegen Rechts. In Zeiten wie diesen brauchen alle, die für eine offene Gesellschaft eintreten, unsere Unterstützung. Sind Sie dabei? Jetzt unterstützen

Mehr zum Thema

20 Kommentare

 / 
  • Mal von dem technischen Missverständnis abgesehen, KI (oder was wir heute so nennen) könnten "unvoreingenommen" entscheiden -näheres unten schön von @Genderbender erklärt -, sollten gerade die Proponenten einer "menschlichen" Entscheidungspraxis vorsichtig sein, was sie sich wünschen. Denn das ist eigentlich in den seltensten Fällen eine kühle, vor allem korrekte (=weitgehend empathielose) Anwendung der rechtlichen Vorschriften. Meine Prognose wäre jedenfalls, dass bei allem rassistischen Bias, den es in menschlich besetzten Behörden geben mag, die Erfolgsquote bei einer völlig kaltherzigen KI eher sinken würde.

    • @Normalo:

      Jep. Auf den Punkt gebracht in "I Robot" mit Will Smith. Er und ein kleines Mädchen werden von einem LKW in einen Fluss gedrängt. Ein Roboter kommt vorbei und rettet Will Smith und nicht das Mädchen. Begründung des Roboters. Die Überlebenschance des Mädchens lag bei weniger Prozent als bei Will Smith, aber das Mädchen hatte eine Chance. Das Fazit: Ein Mensch hätte gewusst, dass man versucht, zuerst das Kind zu retten, auch wenn es geringere Überlebenschancen hat - Roboter haben nur Hirn, kein Herz.

  • und alles nur, weil einige Politiker, Richter, Staatsanwälte, Bamf-Mitarbeiter und Polizisten ihre "geheime" Gesinnung im Amt ausleben?



    Nein - das wird nix. Denn KI ist ein Werkzeug von Menschenhand. Damit ist es manipulierbar, so wie das jetzige System. Der einzige Weg ist die Maulwürfe in den demokratischen Systemen zu finden und ihnen ihre Wirkmächtigkeit zu nehmen. Siehe z.B. der zuletzt publizierte Fall eines Richters in Gera.

  • Generell würde ich der Autorin gerne zustimmen, wären da nicht die ernsthaften Bedenken von Menschen die sich weit besser mit all dem auskennen als ich.

    Meredith Witthaker (über die hier in der TAZ viel zu wenig berichtet wird) in Bestform:

    www.youtube.com/watch?v=iLzQXWq_Sp0

    de.wikipedia.org/w...Meredith_Whittaker

  • Teil der Bevölkerung ......, bei der Einwanderung und Asyl an Rückhalt verloren haben.

    Das ist allerliebst formuliert ;)

  • “Ein Herz für KI”

    In Anbetracht der bislang großen wirtschaftlichen Verluste, einer desolaten Wohnungs- Sozial- und Preissteigerungspolitik zugunsten der 800.000 Reichen und aller privilegienbehafteten beamtenrechtlich Beschäftigten wäre die bisherige Ära Scholz einschließlich einer m.E. asozialen 6%-igen Diätenerhöhung komplett durch KI ersetzbar gewesen:



    billiger hätte man all die ungeahndeten Steuergeldverschwendungen und Verschlechterungen für den Rest und der vor allem finanziell weniger gut gestellten Bürger nun wirklich nicht haben können.

    Wenn Trump aus der NATO ausscheidet, werden wir in Deutschland / Europa bald nur noch Sprengköpfe auf dem Teller haben, Lebensmittel teils schon jetzt unbezahlbar. Und wer Geld hat, wird (oder hat schon) Deutschland / Europa verlassen, der Rest ist Schweigen…

    Hat mal jemand aus der Regierung ausgerechnet, was die ganzen Kriegsfahr- und Fluggestelle samt aller zerstörenden Explosionen zur “Verbesserung” des Klimas beitragen?

    Ach nein?

    Gute Nacht, Ampel …



    (“grüner” Stromausfall ;-)

    … und das war’s mit KI.



    Juchuhhh!

  • Vielleicht müssen wir das scheinbar so Perverse durchdenken bzw. durchmachen.



    KI entscheidet menschlicher als Menschen.



    Ist letztendlich auch nur Menschenprodukt.



    Und was meinen wir, wenn wir reden von

    Menschlichkeit

  • Menschen sind auch nur Maschinen ! Zumindest für alle die, die einen Plan für den ganz großen Wurf haben, der (fast) alles zum Besten wendet.

    Julien Offray de La Mettrie hat im Jahr 1748 den 'Maschinenmenschen' nicht erfunden, er steht aber für den ideellen Wendepunkt der Einpassung des Menschenbildes in die Rationalisierung der Welt, als Summe einer jeweils eigenen Logik folgenden und so beherrschbaren Sachbereiche. Wer den Menschen als Maschine versteht, kann ihn optimieren oder auch ersetzen. Was dann vom Menschen noch Menschliches übrigbleibt und ob es sich als Maschine dann besser lebt, ist dann auch keine Frage mehr. Gemäß Spätwerk des James Lovelock, ist die hyperintelligente Maschine die evolutionäre Zukunft des Menschen. Im Novozän (2019) sei der Mensch Diener oder Teil der Maschinen oder er ist nicht mehr.

  • Ich fürchte, solange es immerhin noch menschliche Anhören gibt, wird man den Unterschied im Bescheid kaum merken. Schon jetzt wird in 53% der Fälle stumpf abgelehnt und die eigenen Erwägungen des Entscheiders zwischen all den seitenlangen Textbausteinen erkennt man eigentlich nur an den Rechtschreibfehlern.

  • Super. Einzelfälle heranziehen um zu schließen, das "System" wäre unmenschlich...

  • Ach du heiligs Blechle. Helfe gern.

    Was KI immer genau sein soll (geben tut‘s ja eh nich!) But.



    Als Hilfsmittel für Entscheidungen so nützlich - wie Textpausteine!



    Und so gefährlich! Woll



    Letztere machen - war über 20 Jahre damit befaßt - die BAMF-Bescheide für die Tonne •



    (Hab die überflogen - selten gelesen!;(



    Btw Justiz ist da nicht frei von! Gelle



    Aus dem Skat: Die höchst digitalisierte con Textbausteine Kammer!



    Kollegin zur Erprobung OVG: Mit spitzesten Fingern - Fehler en mass!



    &



    KI & wertende Entscheidungen? Vergeßt es!



    Mit Kalkülen etc haben sich schon in den 70ern an der Gießener Uni - Namen nicht mehr auf dem Schirm - die Zähne ausgebissen! Gelle



    & noch unbeackert => gerichtliche Überprüfung?!!!!



    (Verfassungsgarantie! Art 19 GG!)



    Däh! Vorlage VG Wiesbaden - Digi-Akten sind keine Akten iS der VwGO!



    verwaltungsgericht...ischen-gerichtshof



    &



    www.heuking.de/de/...chufa-scoring.html

    ps auch hier sei den Wiesbadener Kollegen erneut gedankt!



    Daß sie die die AsylFaktenDatei aufgezogen haben und damit dem Spuk von BMI & AA 👎

    • @Lowandorder:

      Danke!

      Wer an KI in Asylverfahren oder überhaupt in juristischen Entscheidungen glaubt, hat nie 2 Anträge und Bescheide gelesen.

  • „KI-Systeme können so programmiert werden, dass sie objektiv und unvoreingenommen arbeiten, basierend auf klar definierten Kriterien und gesetzlichen Vorgaben.“



    Das ist erstmal ne Behauptung die sich nicht decken lässt. ML basiert auf Daten, die Daten die von einer rassistischen Gesellschaft aufgenommen und strukturiert wurden. Diesen Bias aus rauszufiltern ist nicht einfach. Abgesehen davon, sind „KI-Systeme“ quasi nie transparent. Die Entscheidungen können nicht nachvollzogen werden. Jeder Fall müsste noch einmal einzeln geprüft werden.



    Glauben Sie bitte nicht daran, dass KI alles lösen kann. Das Geld ist besser in Anti-Diskriminierungs und Anti-Rassismus Workshops investiert als in irgend eine KI-Bude.

  • LLMs, aka AI/KI/ künstliche Intelligenz, funktionieren nicht so, wie sich die Autorin das vorstellt. Sie schreibt: "KI-Systeme können so programmiert werden, dass sie objektiv und unvoreingenommen arbeiten".



    Das zeigt eine komplette Unkenntnis über die Funktionsweise dieser Systeme. LLMs können möglicherweise durch Trainingsdaten in eine bestimmte Richtung beeinflusst werden, aber wie Entscheidungen getroffen werden, bleibt eine Blackbox. Besonders problematisch ist dies, wenn man wenig bis nichts über die Datensätze weiß, die als Basis für das Modell dienen. Aber selbst die einfachere Variante eines Algorithmus ist voreingenommen.



    In Österreich hat man das schon einmal beim Jobcenter mit einem Algorithmus versucht und ist glücklicherweise vor Gericht gescheitert. Dort konnten selbst die Verantwortlichen nicht erklären, aufgrund welcher Kriterien die Algorithmen arbeiteten. Man hatte es einfach den Technikpeoples überlassen. Selbstverständlich wurden beispielsweise Frauen und Menschen in ärmeren Wohngegenden von Förderungen ausgeschlossen. Und nun schreibt die Autorin allen Ernstes, man solle es gut finden, wenn undurchsichtige, selbstlernende Systeme Entscheidungen fällen?

    • @Genderbender:

      Danke …anschließe mich - mit Verlaub - es gibt doch auch andere ehrbare Berufe

  • Selten eine solchen Unsinn in der taz gelesen. Entscheidungen, die möglicherweise über Tod und Leben entscheiden einem Computer überlassen

  • Das ist doch ein alter Hut. Eine KI wird trainiert. Wenn sie von Rassisten trainiert wird, entscheidet sie rassistisch. Nur schneller und hinterher kann jeder sagen, es sei "objektiv" weil von einem Computer entschieden. Das Ganze Thema kennt man seit Jahren wenn nicht Jahrzehnten.

    Es gab z.B. Versuche, Einstellungsentscheidungen von maschinenoptimierten Programmen (KI hat nämlich mit Intelligenz so gar nicht zu tun) machen zu lassen. Und da diese Programme von Entscheidungen des menschlichen Personals trainiert wurde, hatte ein Mohammed bei der Einstellung die gleichen schlechteren Chancen gegenüber einem Maximilian, wie bei den Originalrassisten.

    • @Jalella:

      Yes! Hinzukommt - wie es in diesen Saftläden zugeht! Woll

      Unlängst kam ich a ☕️ ☕️ neben einem Freelancer Juristen zu sitzen. Hatte grad im BAMF angeheuert. Schwierig - wa. Ja - sei nicht einfach! Und erzählt a weng & Däh - neuerdings erscheine frauman auch vor Gericht! Echt - hab ich nie erlebt! Und da gäb‘s zur öh Vorbereitung auch ne schwarze Liste (hätte man sich denken können!;) Wer denn da so drauf stünde??? Ganz oben die …! Ich brach in schallendes Gelächter aus! Klar! Ne selten fitte Kappe - war zudem vorher mal Anwältin! Ja - aber da hilft kein warm anziehn! Die blättert die Sachen Fakten vs BMI & AA runter! So schnell kannst gar nich schaun! Alles in einem der schwierigsten Länder.



      Wir schieden friedlich. Über Bande hörte ich - daß einige Zeit später entnervt geschafft das Handtuch geworfen hat! Wen wundert’s!

      So geht das. ©️ Kurt Vonnegut



      “ Reife ist eine bittere Enttäuschung, für die es kein Heilmittel gibt, es sei denn, Lachen könnte als Heilmittel betrachtet werden ”

      • @Lowandorder:

        Ohne Humor geht in diesem Land sowieso nix (mehr). Ich habe gut Lachen, aber den Betroffenen ist das Lachen längst vergangen.

        Bodo Ramelow hat mal in einem Interview gesagt, dass in Thüringen Asylanträge endlos brauchen, er daraufhin mal mit einem Verantwortlichen in der Behörde geredet hat. Der sagte ihm kaltschnäuzig, dass das eben so sei. Dabei ließ er die Anträge einfach so liegen. Wir brauchen da auch keine AfD Regierung, die Exekutive setzt die entsprechende Politik schon jetzt um.

        • @Jalella:

          Letzteres - ja sojet hat Methode.

          Als vor! der Schleifung von Art 16 GG Anfang der 90er von der Exekutive viel zur Dramatrisierung getan wurde!



          Ein engagierter Anwalt später zur öffentlichkeitswirksam gepuschten Mehrfachbeantragung:



          “Ich habe auch keine Lust den 5. aliasAntrag zu vertreten. Aber erst jetzt stellen sie Leute ein - die Fingerabdrücke lesen können!“