piwik no script img

Künstliche IntelligenzMacht in falschen Händen

Die Aufholjagd bei Künstlicher Intelligenz in Europa droht, die Fehler des Silicon Valleys zu wiederholen. Es braucht eine Alternative zu privaten Akteuren.

Illustration: Katja Gendikova

K ünstliche Intelligenz galt zunächst als bloßer Hoffnungsträger für ökonomischen Fortschritt. Inzwischen avanciert die KI zum universalen Heilsbringer, dem man ohne Zögern auch soziale Herausforderungen anvertraut, von steigenden Depressionszahlen bis zur Bekämpfung der Klimakrise. Laut Studien könne KI in den kommenden 15 Jahren das Wirtschaftswachstum jährlich um 0,8 Prozent steigern – bis zu 4,5 Billionen zusätzliche Wertschöpfung. Verständlich, dass Deutschland hier nicht den Anschluss verlieren möchte.

Wäre da nicht eine gewaltige Gewitterfront, die dunkel am Horizont aufzieht und droht, den Hoffnungen und Heilsversprechen das Licht zu nehmen: die Macht autoritärer, anti-demokratischer Kräfte in Person von Elon Musk, Peter Thiel und anderen. Dass nicht wenige der Tech-Eliten wegen ihres antidemokratischen Wirkens wirklich gefährlich sind, ist spätestens seit Musks offener Unterstützung für die AfD im vergangenen Bundestagswahlkampf weitgehend geteilter Konsens in Deutschland.

Vom Musk’schen DOGE-Feldzug, ausgeführt im Geist der Sillicon-Valley-Devise „move fast and break things“ über Peter Thiels großzügige Förderung des Vizepräsidenten J. D. Vance bis hin zu ihren offenen Sympathien für Curtis Yarvin. Problem erkannt, Problem gelöst? Wohl kaum. Die eigentliche Gefahr liegt im reflexhaften Nachahmen. Nachgeahmt werden dabei nicht nur digitale Infrastrukturen, sondern eine Geisteshaltung, die längst auch diesseits des Atlantiks Fuß gefasst hat.

Jan-Philipp Siebold

ist Teil der Forschungsgruppe Ethik und kritische Theorien der Künstlichen Intelligenz an der Uni Osnabrück. Seine Forschung befasst sich mit Fragen von Macht, Affekten und Subjektivität.

Tempo wird zum Wert an sich, Macht wandert in technische Systeme und damit in die Hände privater Akteure. Zugleich verliert Rechtsstaatlichkeit im Namen eines verschlankten Staats an Gewicht. Man erinnere sich nur an die Aussage von Telekom-Chef Timotheus Höttges, Europa brauche ein „DOGE“.

Yannic Vitz ​

promovierte zu meri­to­kratischen Überzeugungen und moralischer Ungleichheit. Er lehrte an der Harvard University und baute Datenschutzstrukturen in gemeinnützigen Organisationen auf.

Schießübungen und Hühnerschlachten

Ex-Silicon Valley Coderin Aya Jaff reflektiert in ihrem Buch „Broligarchie“ selbstkritisch ihre eigene Zeit als ‚Tech-Bro‘ im Silicon Valley und warnt heute vor den Ideologien in der Tech-Welt. Als junge Studentin mit einem Stipendium des Milliardärs Tim Draper ins Silicon Valley eingeladen fand sie sich in einer Art Survival-Kult wieder: Waffenübungen, Hühnerschlachten, ritualisierte Härtetests gehörten zum Start-up-Habitus. „Mehr maskuline Energie“, fordert Mark Zuckerberg.

Regulierungsdrang dürfte bei Tech-Bros wohl als Ausdruck blanker Impotenz gelten, als regelrechte Kastration möglicher Innovationsergüsse. Wer diese Szenen nur als schrillen Exzess überdrehter Tech-Machos abtut, übersieht ideologische Tendenzen, die weit tiefer reichen. So zeigt der Philosoph Rainer Mühlhoff in seinem Buch „Künstliche Intelligenz und der neue Faschismus“, wie sich in Tech-Ideologien schon länger faschistoide Potenziale und Haltungen herausbilden: eine Mischung aus antidemokratischer Härte, sozialdarwinistischem Leistungsfetisch und technologischem Solutionismus.

Dass die Tech-Ideologien mit dieser Vermengung besonders anschlussfähig für autoritäre, faschistoide Politik geworden sind, zeigt sich nach Mühlhoff an drei Merkmalen: Erstens an einem dezidiert antidemokratischen Wirken, das rechtsstaatliche Verfahren, Verwaltungsabläufe und parlamentarische Streitkultur gezielt untergräbt. Zweitens an einer Gewaltförmigkeit, die aus einer Lust an Zerstörung und einem hierarchischen und entmenschlichenden Menschenbild erwächst.

Fatale Schicksalsergebenheit

Das zeigt sich in politisch administrativen und physischen Übergriffen ebenso wie in Form von Doxxing, Trollkampagnen, Hassreden sowie Deepfakes. Und drittens in der gezielten Indienstnahme neuester Technologien, die von ihren Befürworter:innen als unvermeidliche Naturkräfte dargestellt werden. All dies ist nicht als historische Gleichsetzung zu verstehen, sondern als Weckruf für die Gegenwart.

Regulierungsdrang dürfte bei Tech-Bros wohl als Ausdruck blanker Impotenz gelten, als regelrechte Kastration möglicher Innovations­ergüsse

Auf den ersten Blick scheint Europa gut gewappnet zu sein: Deutschland- und EuroStacks, der AI Act, die DSGVO, der Digital Market Act und Digital Services Act und nicht zuletzt die omnipräsente digitale Souveränität. Speziell die Dimensionen des EuroStack sind enorm: eine industriepolitische Initiative, die auf den Aufbau eigenständiger europäischer Infrastruktur für Chips, Cloud und Daten – und damit auch für KI – zielt.

Doch allein neueste Initiativen wie der digitale Omnibus, das Reformpaket der EU-Kommission, das nicht nur Digitalgesetzgebung vereinheitlicht, sondern wichtige Datenschutz- und Sicherheitsstandards abschwächt, ist Ausdruck des neuen Kurses hin zu einem weit geteilten Fortschritts- und Technikoptimismus. Nach der Isolierung der vermeintlichen US-amerikanischen Gefahr – Alt-Right-Politik und wahnsinnige Tech-Bros, wogegen hier europäische Werte und verlässliche Regulierung gelten – geht es jetzt darum, sich unbesorgt der eigenen technologischen KI-Aufholjagd zu widmen.

So hören wir, man komme an der Implementierung von künstlicher Intelligenz ohnehin nicht vorbei, Europa brauche mehr Start-up-Mentalität, könne sich mehr Regulierung schlicht nicht leisten, da man sonst im globalen Wettbewerb mit den USA und China zurückfalle. Kurzum, es brauche eine „Innovationsführerschaft“, wie Kanzler Friedrich Merz die Richtung vorgab.

KI beschleunigt antidemokratische Politik

Was als nüchterne Notwendigkeit präsentiert wird, ordnet politische Entscheidungen den vermeintlichen Sachzwängen des Wettbewerbs unter, erklärt technologische Entwicklungen für unvermeidlich und vertieft so bestehende staatliche Abhängigkeiten von unternehmerischer Macht. Auch in Deutschland ist KI Beschleuniger antidemokratischer Politik. Wie rasch staatliche Handlungsfähigkeit in Abhängigkeiten von privaten Infrastrukturen gerät, lässt sich am Einsatz der polizeilichen Analysesoftware Gotham der US-Firma Palantir in mehreren Bundesländern beobachten.

Zum Einsatz kommen prädiktive Analysesysteme zur automatisierten Zusammenführung großer Datenbestände, die Gegenstand von Verfassungsbeschwerden sind. Alternativlosigkeit als Argument – und das bei einer Überwachungssoftware für die Polizei. Damit dehnt sich nur der Datenhunger privater Tech-Unternehmen auf staatliche Institutionen aus, zugleich wird auch seit Jahrzehnten vorliegende Forschung zur prädiktiven Polizeiarbeit ignoriert, die zeigt, dass die strukturelle Diskriminierung marginalisierter Gruppen in solchen Systemen kein Bug ist.

Der Schweiz war die Gier nach Daten zu gefährlich. Für deutsche Sicherheitsbehörden ist es das offenbar nicht. Der verbreitete Investor:innensprech, der Maschinen Intelligenz, Autonomie oder gar Kreativität zuschreibt und KI als kommende Superintelligenz imaginiert, verdeckt, womit wir es tatsächlich zu tun haben.

Das Logo der taz: Weißer Schriftzung t a z und weiße Tatze auf rotem Grund.
taz debatte

Die taz ist eine unabhängige, linke und meinungsstarke Tageszeitung. In unseren Kommentaren, Essays und Debattentexten streiten wir seit der Gründung der taz im Jahr 1979. Oft können und wollen wir uns nicht auf eine Meinung einigen. Deshalb finden sich hier teils komplett gegenläufige Positionen – allesamt Teil des sehr breiten, linken Meinungsspektrums.

Demgegenüber eröffnet eine Betrachtung von KI als soziotechnisches Machtgefüge die Möglichkeit, ihre tiefe Verstrickung in bestehende soziale Praktiken, institutionelle Arrangements, ökonomische Interessen und politische Narrative sichtbar zu machen. Diese Perspektive reicht weiter als die im kapitalistischen Rausch produzierten Science-Fiction-Erzählungen der Big-Tech-Konzerne. KI erscheint hier weniger als quasi göttliche Naturgewalt denn als politisches Projekt.

Verführerischer Tech-Solutionismus

Darin wird durch Machine-Learning-Verfahren erzeugtes prädiktives Wissen eingesetzt, um gesellschaftliche Ungewissheit in Scores und Risikoprofile zu übersetzen. Als „Menschensortiermaschine“, wie es Mühlhoff nennt, extrahiert KI aus kontextunabhängig angehäuften Daten korrelative Muster, um Wahrscheinlichkeitsaussagen zur Anwendung scharfzustellen. Auf Einzelne bezogen sind dies Bewertungen darüber, wer Kredit erhält, wer als zu risikoreich gilt oder wie über den Zugang zu Jobs und Sozialleistungen mitentschieden wird.

Zugleich rücken die materiellen Bedingungen in den Blick: massive Datenextraktion, ausbeuterische Klick- und Labelarbeit im Globalen Süden, energiehungrige Rechenzentren, globale Lieferketten, ein enormer Verbrauch von Wasser, der Abbau seltener Erden sowie die fortlaufende Einbindung unserer eigenen kognitiven Leistungen über unsere Endgeräte. In den Händen weniger Tech-Konzerne reicht es daher nicht, wenn diese künftig europäisch statt US-amerikanisch firmieren.

Solange regulatorische Schutzmechanismen aufgeweicht und politische Gestaltungsspielräume zugunsten privatwirtschaftlicher Akteure verschoben werden, bleibt das Kräfteverhältnis unverändert – und nährt den bereits jetzt drohenden privatwirtschaftlichen Leviathan weiter. Wo KI als politisches Projekt in bestehende Macht- und Marktlogiken eingebettet ist, geht ihre Ausweitung häufig mit einer Verschiebung von Entscheidungsmacht hin zu privatwirtschaftlichen Akteuren einher, getragen von einer Tech-Kultur, die Geschwindigkeit, Skalierung und technische Machbarkeit über demokratische Aushandlung stellt.

Am gravierendsten zeigt sich dies dort, wo KI für soziale Probleme in Stellung gebracht wird: als vermeintlich neutrale Lösung, der man reflexhaft folgt, sobald man sich vom Tech-Solutionismus verführen lässt. Gerade deswegen braucht es eine grundlegende Skepsis gegenüber Tech-Lösung für soziale Probleme. Wem nützt es, wenn komplexe politische Konflikte in schnelle Maßnahmen übersetzt werden, die reduzieren, vereinfachen, pauschalisieren?

Wo Ressourcenknappheit, Ungleichheit oder institutionelle Schieflagen als Rechenprobleme erscheinen, stabilisieren Prognosen und Scores bestehende Verhältnisse, statt sie zu verändern. Anstelle einer überstürzten KI-Aufholjagd lohnt sich daher die Erinnerung an ein Prinzip des Datenschutzpioniers Wilhelm Steinmüller: Technik muss sozial beherrschbar sein, demnach gestaltbar, begrenzbar und demokratisch verantwortet.

In einer Zeit, in der autoritäre und faschistische Tendenzen erstarken und technokratische Lösungen für soziale Probleme an Attraktivität gewinnen, liegt die historische Chance darin, einen eigenständigen Weg zu wählen: KI nicht entlang bestehender Macht- und Marktlogiken und jener dominanten Tech-Kultur zu imitieren, sondern als gesellschaftliches Projekt zu begreifen, über deren Zwecke, Grenzen, Einsatz – oder auch Abschaffung – demokratisch verfügt werden muss.

Gemeinsam für freie Presse

Als Genossenschaft gehören wir unseren Leser:innen. Und unser Journalismus ist nicht nur 100 % konzernfrei, sondern auch kostenfrei zugänglich. Alle Artikel stellen wir frei zur Verfügung, ohne Paywall. Gerade in diesen Zeiten müssen Einordnungen und Informationen allen zugänglich sein. Unsere Leser:innen müssen nichts bezahlen, wissen aber, dass kritischer, unabhängiger Journalismus nicht aus dem Nichts entsteht. Dafür sind wir sehr dankbar. Damit wir auch morgen noch unseren Journalismus machen können, brauchen wir mehr Unterstützung. Unser nächstes Ziel: 50.000 – und mit Ihrer Beteiligung können wir es schaffen. Setzen Sie ein Zeichen für die taz und für die Zukunft unseres Journalismus. Mit nur 5,- Euro sind Sie dabei! Jetzt unterstützen

Mehr zum Thema

18 Kommentare

 / 
  • ... Zum Einsatz kommen prädiktive Analysesysteme zur automatisierten Zusammenführung großer Datenbestände, ....



    ----



    Allein die o.a. "statistischen Modelle" künstliche Intellizenz zu nennen ist eine "LÜGE"!



    Unser Alltag ist, entgegen aller "feuchten Träume" der "Technikfreaks" NICHT determinierbar! Siehe dazu "Laplacescher Dämon" & das "Zeitproblem!" (1)



    Weiterhin ist die Datenbasis, Auswahl Umsetzung, Programmierung ... nicht fehlerfrei! Auf nicht "fehlerfreien" Grundlagen kann keine "Soft" Lösungen "die stimmen" finden!



    Und wenn die "Lösungen nicht stimmen" stellt sich die Frage nach der "Verantwortung" die beim Umsetzen solcher Lösungen automatisch entstehen!



    So lange "Mensch" dazwischen geschaltet ist, ist die Haftungsfrage einfach!



    Sobald der o.a. "Filter" aber übergangen wird, "KI/AI" ohne direkte "Handlungen" auslöst, "beim Auto, in der Produktion, uvam." stellt sich die o.a. Frage!!!



    Btw. Es ist mMn. absolut unwahrscheinlich, dass die "Hersteller, Vertreiber, .... " dieses "Technik" "Verantwortung" für Handlungen IHRER Produkte übernehmen werden!



    Das wars für KI, mMn. in jedem Rechtssystem! :-(((

    (1) de.wikipedia.org/w...cescher_D%C3%A4mon

    • @Sikasuu:

      Philosophisch und erkenntnistheoretisch ist das zwar sicher alles richtig in der Praxis reichen aber im Allgemeinen Ergebnisse die gut genug und an der korrekten Lösung nahe genug dran sind. Die Entstehung von Wetter etwa ist ein chaotischer Prozess der letztlich davon abhängt welches Molekül in der Atmosphäre mit welchem anderen kollidiert oder nicht. Trotzdem ist es mit geeigneten Modellen möglich relativ gute und praktisch verwertbare Vorhersagen zu erstellen.



      Keine Software und auch kein anderes menschliches Artefakt ist vollkommen und fehlerfrei. Und trotzdem setzen wir sie auch für extrem kritische Aufgaben wie die Steuerung von Ampelanlagen, Autopiloten oder Beatmungsgeräten ein. KI bedeutet hier keine wirklich fundamentale Veränderung.

      • @Ingo Bernable:

        Keine Software und auch kein anderes menschliches Artefakt ist vollkommen und fehlerfrei. Und trotzdem setzen wir sie auch für extrem kritische Aufgaben wie die Steuerung von Ampelanlagen, Autopiloten oder Beatmungsgeräten ein.



        ----



        Es gibt keine "Fehlerfreie Technik", erst recht keine Software! Das ist allgemeiner Standard im Denken von Technikern!



        Doch in der "realen Welt" haften die Produzenten usw. für IHRE Fehler! In der IT niemand für DAS was ein Programm machen soll!



        Außerdem sind die von DIR aufgeführten "Steuerungen & Prozesse" IMMER letztlich unter HUMANER Kontrolle!



        Selbst die simple Ampel signalisiert dem Fahrer zwar,"Rot >< Grün", doch selbst wenn die defekt ist, bleibt die Haftung beim Nutzer!



        "KI bedeutet hier keine wirklich fundamentale Veränderung"



        DOCH! KI/AI, deren "Hersteller" behaupten, Ihre "Produkte" können "Entscheidungen" treffen, OHNE das der Faktor "Mensch" kontrollieren MUSS, braucht!



        Genau DAS ist DER Unterschied!



        Beispiel gefällig?



        Ein Autopilot, Flieger arbeitet bekannte Daten ab, ist aber auf Hard- & Software-Ebene mehrfach redundant & vom "Piloten & Control" überwacht, hat massive "Wartungsauflagen"!



        "Autonome Autos" z.B. machen DAS nicht! :-(

        • @Sikasuu:

          Selbstverständlich können sie mit einem Softwarehersteller auch eine Lizenz mit umfassender Produkthaftung verhandeln. Vorausgesetzt eben sie sind bereit die dafür nötigen Testaufwände zu bezahlen.



          Die Möglichkeit von mehr oder weniger menschlicher Kontrolle ist völlig unabhängig davon ob es um KI oder irgendeine beliebige andere Technik geht. Dennoch käme wohl kaum jemand auf die Idee jeden banalen Regelkreis und sei es ein Backofenthermostat wegen des immer gegebenen Fehlerpotentials kleinteilig manuell zu überwachen. Man wägt das Risiko, dass im worst case die Bude brennt, ab und geht es ein. Und entgegen ihrer Behauptung wird in aller Regel eben nicht propagiert im blinden Vertrauen Entscheidungen an KI zu delegieren, sondern meist mit jeder Ausgabe der Hinweis auf potentiell falsche und gefährliche Informationen mitgeliefert.



          Halten wir fest: Technik arbeitet fehlerhaft. Menschen auch. KI ebenfalls. Keine fundamentale Veränderung. Alle drei muss man kontrollieren und ist dennoch nicht sicher.

          • @Ingo Bernable:

            ... mit einem Softwarehersteller auch eine Lizenz mit umfassender Produkthaftung verhandeln. Vorausgesetzt eben sie sind bereit die dafür nötigen Testaufwände zu bezahlen.



            ----



            Bei Massenware wie OS, Office, usw. ? Typische "Coderantwort". :-)

            "... jeden banalen Regelkreis und sei es ein Backofenthermostat wegen des immer gegebenen Fehlerpotentials kleinteilig manuell zu überwachen.



            ----



            Du hast schon mal einen Herd "von innen Gesehen?

            "Man wägt das Risiko, dass im worst case die Bude brennt, ab und geht es ein...."



            ----



            S.o.



            Das der Herd mit der "vorgeschalteten" Sicherheitstechnik "telefoniert" (FI-Schalter, Sicherungen) es Rauchmelder gib, Herde einen internen Überhitzungsschutz haben, halt mal den Gehäuselüfter im Heißluftherd an, uvam) übersehen "Blackbox- & Schnittstellenzauberer" gerne!



            Das "Autopiloten" im Flieger massiv mindestens 3 fach redundant sind, bei weit weniger "Regelungsbedarf" mehr Platz im Raum & von mindestens 2 Profis im & EINEM draußen überwacht werden, auch.



            Da soll beim PKW, im Mischverkehr, 2-3t Masse, bis zu 100 => N Km/h mit ein paar Sensoren & Funk-/Wlan Anbindung, Rechner an Board, selbst entscheiden? :-((



            Der Bumms ist eingepreist? Na JA! ;-(

            • @Sikasuu:

              Ja, prinzipiell auch bei OS, Office, etc. Alles eine Frage des Budgets. Aber zur Wahrheit unter praktischen Gesichtspunkten gehört dann eben auch, dass außer ihnen kaum jemand Bedarf an einem komplett formal verifiziertem Schreibprogramm hat.



              Die Frage der redundanten Auslegung ändert am Grundproblem nur wenig. Im besseren Fall können sie damit die Fehlerquote reduzieren, ausschließen können sie sie aber niemals, im schlechteren Fall haben sie mit der Redundanz aber auch die Fehlerquelle dupliziert und nichts gewonnen. Es macht keinen fundamentalen Unterschied. Ja, der Bumms ist immer mit eingepreist, beim Flieger und genauso beim Auto und zwar unabhängig davon ob das ein Oldtimer ohne jegliche Elektronik an Bord oder ein komplett autonomes Vehikel ist.

  • Falsche und rictige Hände

    Zitat: "Macht in falschen Händen."

    Macht ist immer in falschen Händen...

  • Aus der Abteilung "könnte, hätte, würde":



    "... Laut Studien könne KI in den kommenden 15 Jahren das Wirtschaftswachstum jährlich um 0,8 Prozent steigern – bis zu 4,5 Billionen zusätzliche Wertschöpfung. ..." Die Studien kommen aber auch eher zu dem Schluss, dass die Zahl enstehender und wegfallender Arbeitsplätze sich in etwa die Waage hält und wo Wertschöpfungszuwächse in Deutschland regelmässig landen wissen wir ja. Also Vorteile sehen anders aus.

  • Der Zug dürfte wohl abgefahren sein. Eine Aufholjagd würde ja bedeuten, dass man bei der Entwicklung schneller sein müsste als jene zu denen man aufholen möchte. Die aber haben bereits Billionenbeträgen in die Technologie investiert, während die EU meint mit 200 Mrd. den Rückstand ausgleichen zu können. Aber selbst wenn man bereit wäre das zigfache an Geld in die Hand zu nehmen, fehlte es immer noch an Infrastruktur, Rechenzentren und vor Allem an den wirklich fähigen Köpfen, die in den USA teils auch hunderte Millionen Jahresgehalt verdienen können. Wie will man die abwerben? Mit der Aussicht auf Internet über Kupfer und eine zunehmend xenophobe Ggesellschaft?

    • @Ingo Bernable:

      Danach hätte, wer scheitert, schon gewonnen. Die Autoren wollen ja gerade keine solche Aufholjagd, bei der man das Silicon‑Valley‑Modell reflexhaft nachahmt. Sie kritisieren, dass Tempo und Effizienz zum Selbstzweck („zum Wert an sich“) werden. Sie lehnen diese Geisteshaltung ab und befürworten als Alternative zu privaten Akteuren wohl öffentlich finanzierte und in jedem Fall demokratisch kontrollierte KI‑Infrastrukturen .

      • @Yes:

        Also KI-Aufholjagt als staatliches IT-Projekt? Na ja, wenn man Tempo und Effizienz als abzulehnende Geisteshaltungen betrachtet ist man ja mit der Digitalisierung der öffentlichen Verwaltung oder Projekten wie ePA, Phoenix, FISCUS oder GAIA schon mal auf dem richtigen Weg.

        • @Ingo Bernable:

          Zu Risiken und Nebenwirkungen fragen Sie wohl besser die Autoren. Aber „demokratisch verantwortet“ heißt nicht, dass die KI-Projekte vom Staat umgesetzt werden sollen, sondern lediglich, dass sie demokratisch organisiert sind. Die Entscheidungen sollen transparent sein und die Nutzer an ihnen beteiligt werden. Open Source und Rechenschaftspflichten könnten dabei ebenfalls hilfreich sein. Am Ende sollen jedenfalls Künstliche Intelligenzen entstehen, die gemeinwohlorientiert arbeiten, statt den Profitinteressen einzelner zu dienen.



          Ein paar solcher Projekte gibt es schon:



          demokratische-ki.de/



          idemki.de/projects



          www.civic-coding.d.../ki-und-demokratie

          • @Yes:

            Das ist ja alles ganz nett, aber man müsste es eben schon irgendwie hinbekommen solche Projekte mit den nötigen Ressourcen auszustatten die es bräuchte um in der Aufholjagd gegen Big Tech auch nur den Hauch einer Chance zu haben. Mit einer Handvoll ehrenamtlicher FOSS Entwickler wird man da nicht viel erreichen können. Zumal Rechenschaftspflichten gerade bei solchen Modellen noch schwieriger durchzusetzen sein dürften als bei staatlichen oder kommerziellen Projekten. Wenn der engagierte Feierabendcoder nun auch noch fürchten muss für seine Beiträge in Regress genommen zu werden, wird er sich wahrscheinlich doch lieber ein anderes Hobby suchen.

  • Die Kritik im Artikel ist völlig richtig. Nur wird sich an den Verhältnissen nichts ändern, wenn sich Kritiker nur mit Kritik aufhalten und Alternativen so wolkig-nebulös wie im letzten Absatz daherkommen.



    Tatsächlich gibt es eine mögliche Alternative, und zwar innerhalb der Marktwirtschaft:



    Es bräuchte europäische KI-Entwicklungen, die von den regulatorischen Bedingungen ausgeht - also Security by Design.



    Das wäre dann auch eine Chance, überhaupt vor den US-amerikanischen und chinesischen Konkurrenten bestehen zu können: Denn der Vorsprung in Infrastruktur, Daten und Modelltraining ist so immens, dass er in direkter Rivalität nicht in 10 Jahren aufzuholen ist - darüber sollte man sich keine Illusionen machen.



    Doch wenn Datenschutz Pflicht ist, können Anwendungen, in denen er bereits eingebaut ist, seine Einhaltung auch nachweisen. Die Datenkraken wären dann entweder komplett raus, oder sie hätten Schwierigkeiten nachzuweisen, dass der angebaute Schafspelz die Anforderungen erfüllt.



    Das kann jedoch nur klappen, wenn die Regulatorik



    a) ernsthaft durchgesetzt wird und



    b) sich nicht zu schnell ändert.



    Das erfordert auch Trotz gegen Trump.



    Wird also im Moment wohl nichts.

    • @Frauke Z:

      Ihr Vorschlag bedeutet nicht weniger als die Suche nach dem Heiligen Gral. Security by Design erfordert Determiniertheit. Alles was derzeit unter "KI" läuft basiert aber zentral auf stochastischen Prozessen deren zwangsläufige Unsicherheit man dann mit einer ganze Palette an 'angeschraubten' Sicherheitsmechanismen wie Alignment, Guardrails, LoRAs, Pruning, Systemprompts, In- und Output-Filtern, etc. wenigstens halbwegs einzufangen. Oft genug mit eher mäßigem Erfolg. Security by Design liefe deshalb wohl darauf hinaus eine komplett neue und andere Art von KI entwickeln zu müssen.

      • @Ingo Bernable:

        Mit Sicherheit meinte ich hier nicht notwendigerweise sicher zuverlässige Ergebnisse, sondern z.B. eine klare Trennung von Nutzung und Trainingsdaten.



        Im Übrigen kann man auch eine deterministische Prüfung von Mindeststandards an den Output anhängen. Das hilft auch dabei, wenn man zielgenauere, kleinere Modelle entwickelt, anstatt mit einem Mega-Modell alles erschlagen zu wollen.

        • @Frauke Z:

          Keine Frage Trennung von Trainings- und Nutzerdaten ist sinnvoll und datenschutzrechtlich eigentlich auch notwendig, bei den US-Anbietern aber nur gegen Aufpreis und blindes Vertrauen zu bekommen. Mit Security-by-Design hat es für meine Begrifflichkeiten aber eher wenig zu tun.

          Ein Ergebnis das deterministisch verifizierbar ist wird aber - zumindest in den allermeisten Fällen - auch deterministisch und damit sehr viel effizienter berechenbar sein. Für solche Anwendungen wäre dann aber entsprechend ganz klassische Programmierung deutlich naheliegender als der Einsatz von KI.

  • Ergänzend zum Artikel möchte ich auf jung & naiv #818 hinweisen, in dem Rainer Mühlhoff, Philosoph und Mathematiker, ebenfalls Uni Osnabrück, im Gespräch mit Thilo Jung seine Thesen näher erläutert.