piwik no script img

Auswirkungen Künstlicher IntelligenzDie Ängste, die wir riefen

Hunderte Ex­per­t*in­nen sehen in Künstlicher Intelligenz das „Risiko der Auslöschung“ für die Menschheit. Warum dieses Statement gefährlich ist.

Bleibt wohl Spielfilm-Fantasie: ein Leben wie in grünen Zeichenkaskaden des „Matrix“-Codes Foto: Landmark Media Press/action press

Angst ist ein mächtiges Tier. Es lähmt manche von uns. Andere flüchten rennend hinter den nächstgelegenen Busch oder stellen sich der Angst schreiend und hauend im Verteidigungsmodus entgegen. Angst lässt uns Logik und Ratio vergessen. Und selbst wenn wir eigentlich unterschiedliche Dinge fürchten: Weil Angst nicht bloße Emotion ist, sondern auch Fantasie über das, was uns da bedrohen könnte, kann sie uns einen.

Zum Beispiel unter dem Statement, das am Dienstag auf der Seite des Center for AI Safety online gestellt wurde. Aus einem einzigen Satz besteht dieses Statement: „Das Risiko der Ausrottung durch Künstliche Intelligenz sollte eine weltweite Priorität sein neben anderen Risiken für die gesamte Gesellschaft wie Pandemien und Atomkrieg.“

Hunderte Menschen haben das unterschrieben: Ex­per­t*in­nen aus der Wissenschaft, Digi­tal­mi­nister*innen, Fachleute aus der Wirtschaft, die selbst an KIs arbeiten. Künstliche Intelligenz stellen sie damit auf eine Stufe mit Vernichtungs­waf­fen und millionenfach tötenden Krankheiten, gegen die wir uns – die Pest und Corona haben es bewiesen – nur schwer wehren können. Was sonst sollen jene bekommen, die den Aufruf und die Un­ter­zeich­ne­r*in­nen sehen, wenn nicht: Angst.

Welche Anwendungsfelder der Künstlichen Intelligenz in dem Statement gemeint sind? Das bleibt offen. Es könnte um Chat-KIs gehen, die manchmal die Wahrheit sagen, manchmal lügen, abhängig davon, was ihre Berechnungen als wahrscheinlichste Abfolge von Wörtern herausschmeißen.

Prophezeiung des Untergangs

Es könnte um die Medizin gehen, in der mithilfe von KI große Fortschritte gemacht werden, etwa in der Erkennung von Krebszellen. Es könnte um KI gehen, die Logistik verbessern oder bei der Ortung von militärischen Zielen helfen könnte. Hinter diesem einen Satz könnte sich so vieles verbergen, selbst Fantasien im Stil der „Matrix“-Reihe oder des „Terminator“.

KIs, die sich verselbstständigen, die ein Bewusstsein entwickeln, die sich ihre eigenen Ziele suchen, bei denen die Menschen ihnen sklavisch dienen müssen, wenn sie ihnen nicht so lange im Weg stehen wollen, bis Agent Smith sie ins Grab ballert. Stellen Sie sich vor, was Sie wollen. Aber haben Sie vor allem eins: Angst.

Das Ziel des Statements sei es, eine Diskussion zu ermöglichen, „Bedenken auszusprechen über manche der größten Risiken fortgeschrittener KIs“. Doch klare Bedenken werden gar nicht ausgesprochen, nur eine undefinierte Prophezeiung des Untergangs wird formuliert. Das Konkrete fehlt und damit wird den Le­se­r*in­nen des Statements vermutlich auch die Option zur Diskussion genommen.

Mehr als reine Emotionen

Wenn hundert Menschen in einem Saal stehen und man ihnen sagt: „Ihr müsst etwas Schreckliches verhindern“, weiß niemand, um was es geht. Wenn hundert Menschen in einen Saal gehen, in dessen Ecken Tische stehen, an denen sie sich jeweils mit einer Gefahr beschäftigen können, werden sie sich wohl die aussuchen, die für sie am relevantesten scheint, von der sie am meisten wissen, die vielleicht die größte Neugier weckt. So kann man über seine Bedenken sprechen. So findet man Lösungen.

Wenn die Un­ter­zeich­ne­r*in­nen des Statements wirklich eine Art gesamtgesellschaftlichen Workshop starten möchte, an dessen Ende Gefahren bedacht und möglichst minimiert werden sollen, dann sollten sie diesem Workshop auch Themen geben und nicht nur reine Emotion.

taz lesen kann jede:r

Als Genossenschaft gehören wir unseren Leser:innen. Und unser Journalismus ist nicht nur 100 % konzernfrei, sondern auch kostenfrei zugänglich. Texte, die es nicht allen recht machen und Stimmen, die man woanders nicht hört – immer aus Überzeugung und hier auf taz.de ohne Paywall. Unsere Leser:innen müssen nichts bezahlen, wissen aber, dass guter, kritischer Journalismus nicht aus dem Nichts entsteht. Dafür sind wir sehr dankbar. Damit wir auch morgen noch unseren Journalismus machen können, brauchen wir mehr Unterstützung. Unser nächstes Ziel: 40.000 – und mit Ihrer Beteiligung können wir es schaffen. Setzen Sie ein Zeichen für die taz und für die Zukunft unseres Journalismus. Mit nur 5,- Euro sind Sie dabei! Jetzt unterstützen

Mehr zum Thema

40 Kommentare

 / 
  • Nahezu jede Technologie hat ein Potential für Mißbrauc, wobei ich KI derzeit noch auch einem sehr niedrigen Einstiegslevel sehe, was die Leistungsfähigkeit angeht. Sicher kann KI einige "Jobs" ersetzen, evtl. die der "einfachen" (und derzeit noch hochbezahlten) Programmierer. Aber das ist der Lauf der Dinge. Kaum jemand wird den Traktor verfluchen, weil durch ihn nun weniger Bauern mit Pflug und Ochsen unterwegs sind. Und um bei der der IT zu bleiben: Es wird weiterhin und noch mehr Bedarf an wirklichen Experten geben, die dann auch mal gern 10.000€ oder mehr pro Monat verdienen werden. Nur: Low-Level-Jobs werden eben von Maschinen übrnommen, so wie möglich ist.

  • LowAndOrder hat's schon auf den Punkt gebracht. "KI" gibt es nicht.

    Seit locker 70 Jahren geistert dieser inflationär gebrauchte Marketingbegriff bereits durch die Technikwelt, und jedesmal hieß es, in 5 oder 10 Jahren brauchen wir uns um nix mehr zu kümmern.

    Da ging es allein darum, Gelder abzugreifen. Solange Menschen inkl derer, die dazu forschen, nicht verstehen, was Intelligenz eigentlich ist, wie will man dann von "künstlicher Intelligenz" reden? Noch am nächsten dran ist die Definition: Intelligenz ist die Fähigkeit, zu *verstehen*. Was versteht ein Rechner, eine Software, ein Staubsaugerroboter, ein Chatbot? Nichts. Genausogut könnte man diesen Dingen Humor zusprechen. Alexa, erzähl einen Witz.

    Außerdem sind Microsoft und Google derzeit massiv in der Defensive gegenüber den "KI"-Startups und haben hektisch versucht, solche Techniken in ihre Produkte zu integrieren, mit bisher geringem Erfolg und großem Aufwand.

    Eine heutige "KI" sucht aus einer riesigen Menge an Daten die Antwort heraus, die gemäß ihren Trainingsdaten die mit dem höchsten Score ist. Statistik plus Sprachmodell, mit riesigem Datenbestand, Rechenaufwand und Energieverbrauch. Holzhammer ohne Sinn und Verstand.

    Ein zentrales Problem, das durch "KI" verstärkt wird, ist die ohnehin schon hohe Verantwortungslosigkeit großer Unternehmen. Rechtsfreier Raum. Das Zustandekommen des Schufa-Scores ist bekanntlich Geschäftsgeheimnis, inakzeptabel genug. Aber wenn man der Schufa die Bude mal auf den Kopf stellen würde, würde man evtl die Regel finden, dass die Nachbarschaft mit Migrationshintergrund den Score senkt. Wenn da aber eine "KI" den Score berechnet, hätte man keine Chance mehr, dem Laden die kriminellen Praktiken nachzuweisen.

    Deswegen sind viele Läden so gaga auf "KI". Sorry, keine Ahnung, was da an Trainingsdaten reinging, haben wir von XY bezogen. Is klar.

    Vorher war der Hype Blockchain, bevor Bitcoin und Co als Schneeballsystem auffielen. Jetzt halt "KI".

    • @uvw:

      Ich glaube, das mit dem Witz kriegt Alexa hin. Die gängigen Flachwitze brauchen keine Intelligenz. Künstliche Intelligenz wird es dann geben, wenn es künstliches Leben gibt. Könnte man das denn unterscheiden, und wenn ja, wozu?

    • @uvw:

      "Eine heutige "KI" sucht aus einer riesigen Menge an Daten die Antwort heraus, die gemäß ihren Trainingsdaten die mit dem höchsten Score ist."



      Wenn das so wäre, wäre es ein Datenbank wie man sie seit über 60 Jahren baut. Die KI-Modelle basieren, sehr vereinfacht gesagt, auf verschalteten Layern künstlicher Neuronen, die ähnlich wie ihr biologisches Pendant je nach Input und Training feuern oder eben nicht. Die riesigen Datenmengen werden dabei für das Training benötigt, aber nicht im eigentlichen Sinne abgespeichert, entsprechend kann eine KI da auch nichts heraussuchen.

    • @uvw:

      > Seit locker 70 Jahren geistert dieser inflationär gebrauchte Marketingbegriff bereits durch die Technikwelt, und jedesmal hieß es, in 5 oder 10 Jahren brauchen wir uns um nix mehr zu kümmern.

      Der wesentliche Unterschied zu den vergangenen KI-Hypes ist, dass jetzt die Hardware zur Verfügung steht, um Modelle zu trainieren, die von der Konnektivität langsam in die Größenordnung des menschlichen Gehirns vordringen (Gehirn: 100 Billionen Synapsen, GPT-4: wahrscheinlich > 1 Billionen Parameter).

      > Solange Menschen inkl derer, die dazu forschen, nicht verstehen, was Intelligenz eigentlich ist, wie will man dann von "künstlicher Intelligenz" reden? Noch am nächsten dran ist die Definition: Intelligenz ist die Fähigkeit, zu *verstehen*.

      Von Intelligenz gibt es unzählige Definitionen. Ursprünglich kommen viele aus der Psychologie und sind nur wenig hilfreich, wenn man über nicht menschliche Intelligenz redet. Persönlich finde ich die einfache Definition sinnvoll, dass Intelligenz, die Fähigkeit ist, Probleme zu lösen. Es gibt ein Spektrum von Systemen mit Intelligenz für ein enges Problemfeld (Schachprogramm, Regenwurm) bis zu solchen mit sehr breitem Problemfeld (Menschen).

      > Eine heutige "KI" sucht aus einer riesigen Menge an Daten die Antwort heraus, die gemäß ihren Trainingsdaten die mit dem höchsten Score ist.

      Mal abgesehen davon, dass da nichts "gesucht" wird: Was macht das menschliche Gehirn denn anders? Die großen Sprachmodelle verwenden ja neuronale Netze, die auf einer einfachen Modellierung von menschlichen (oder tierischen) Nervenzellen basieren. Wenn die Modellierung gut genug ist -- und die Ergebnisse der letzten Zeit sind so beeindruckend, dass das durchaus plausibel ist -- werden diese oder ähnliche Modelle früher oder später das Niveau menschlicher Intelligenz erreichen und übertreffen.

  • Das mag vielleicht in der Wortwahl ein wenig drüber sein, ist aber keineswegs falsch.

    Den gleichen Fehler, eine neue revolutionäre Technologie ohne Beschränkung, ohne moralische Grenzen auf dier Menschehit loszulassen hat man oft genug gemacht. Vor allem die Folgen eines Internets ohne die vorher erworbene Medienkompetenz sind immens.

    Wir wundern uns über ausufernde Verschwörungstheorien, Querdenker, destabilitsierende Propaganda, unbeherrschbare Informationsflut, weltweit vernetzte AltRight Szene, Trump & Co., Amokläufer mit webcam, Live-Ticker zum Ukraine Krieg etc, über Milliuonen von Menschen die nicht mehr durchblicken und nach einfachen Antworten dürsten.

    Technologische Entwicklungen, die das Leben aller Menschen auf Dauer revolutionieren werden müssen mit einer ernsthaften Auseinandersetzung über die gesellschaftlichen Konsequenzen und gegebenenfalls mit Regulierung einhergehen.

    Sich auf die kleinteiligen Anfänge und die positiven Anwendungen zu beschränken ist doch arg naiv.

  • Die Unterzeichner haben ausdrücklich und bewusst die Reduzierung auf diesen Einsatz gewählt, damit es nicht in endlosen Diskussionen ändert und eine große Gruppe von Fachleuten schnell unterzeichnen kann.



    Das wird an verschiedenen Stellen erwähnt, vielleicht hätte der Autor dieses Beitrages diese Information auch finden können, wenn seine Meinung nicht schon vorher festgestanden hätte..

  • Ich finde es ja nicht schlimm, wenn man nur bis zur ChatGPT, zu Kassensystemen und eventuell noch zu positiven medizinischen Einsatzgebieten blicken kann (doch auch da wird es schon kritisch). Doch wäre es nicht sinnvoll, andere Meinungen zumindest wahrzunehmen, sich anzuschauen, wer da was und mit welcher Argumentation unterschrieben hat? Bill Gates und Stuart Russell sind jetzt nicht gerade als Memmen und "Angstmacher" bekannt. Aber klar, gegen Geistesgrößen wie den Autor dieses Artikels oder Sascha Lobo kommen sie natürlich nicht an. Schön, wenn dann auch noch "der Gesetzgeber" als Instanz bemüht wird.

  • Wenn man schonmal auf der Seite des Statements ist (save.ai), ist es nur ein Klick weiter unter AI Risk und schon hat man die gewünschte Konkretisierung. Mit zwei weiteren Klicks landet man auf inem ML savety workshop. Also nur so als Anregung...

    • @SK24 :

      Stimmt. In sojet Anregungen-für-tazis liegt ein weiterer tieferer Sinn der Genossenschaftskonstruktion! Wollnich.



      Deren Hartmäuligkeit & Lernresistenz -



      Ist mit Verlaub - allerdings verblüffend •



      Alte chinesische Weisheit: “Gib einem Mann einen Fisch & er ist satt.



      Lehre ihm 🎣en - wird er nie wieder Hunger haben!“ Naja - schön wär‘s! Woll



      Liegt vermutlich am Klimawandel - wa;)

  • Der Aufruf ist wahrscheinlich so verfasst -- Twitter-kompatibel, möglichst extrem -- weil heutzutage nur so genügend Aufmerksamkeit zu erzeugen ist. Der (längere) Aufruf zum KI-Moratorium vor einigen Monaten ist ja mehr oder weniger konsequenzenlos verhallt.

    Leider schaffen es anscheinend auch Journalisten nicht, auch nur minimal zu recherchieren, bevor sie zu einem Thema etwas schreiben. Wenn viele Experten eines Fachgebiets einen solchen Aufruf unterschreiben, wäre meine erste Reaktion, mich ein wenig zu informieren, um was es da eigentlich geht (dazu findet man problemlos auch ein paar Erklärbärvideos auf Youtube). Stattdessen kommt ein Kommentar, der oberflächlich herumrätselt.

    Nein, es geht nicht um medizinische oder militärische Entwicklungen, Chatbots oder um Terminator- oder Matrix-Szenarien. Das zeigt nur, dass sich das "Wissen" des Autors über KI anscheinend hauptsächlich aus SciFi speist.

    Es gibt eine Reihe offensichtlicher Themen: Vom eigentlich positiven, dass KI in naher Zukunft den größten Teil der Jobs effizienter erledigen können wird als Menschen, bis hin zu dystopischen Szenarien, in denen mächtige KI von wenigen zum effizienten Unterdrücken der Mehrheit der Bevölkerung verwendet wird.

    Bei "Risiko der Auslöschung" geht es aber darum, dass eine übermenschliche allgemeine KI mit fehlendem Alignment, tatsächlich wahrscheinlich die Menschheit auslöschen wird. Übermenschlich meint hier eine Fähigkeit weit jenseits der von Menschen (so wie Schachprogramme nicht mehr von Menschen zu schlagen sind), allgemein, dass dies auf praktisch allen Gebieten so ist. Alignment ist die Ausrichtung an menschlichen (Sekundär-)Zielen.

    Beispiel: Eine solche KI wird beauftragt, den Klimawandel so schnell wie möglich zu stoppen. Sie entwickelt ein Virus, dass alle Menschen innerhalb von Wochen tötet. Der CO2-Ausstoß sinkt auf 0. Aufgabe erfüllt.

    • @Trollator:

      Die Leute hinter dem Aufruf scheinen allerdings anderer Meinung zu sein worum es ihnen ging und worum nicht:



      www.safe.ai/ai-risk#

      • @Ingo Bernable:

        Das CAIS betrachtet ein breiteres und detailliertes Spektrum von Risiken. Der einleitende Absatz zum Statement spricht davon, dass man die Diskussion über die "most severe risks" erleichtern will. Nun darf man sich selber aussuchen, welche der aufgelisteten man für die ernstesten hält.

        In 6. und 7. geht es um Alignment. 8. führt eigentlich nur einen Grund aus, warum mächtige KI gebaut wird, und dass Misalignment dabei ein besonderes Problem ist. 1. (Waffen) ist der einzige Punkt mit Auslöschungspotential, der nicht unmittelbar mit Alignment zu tun hat, aber mittelbar eigentlich schon, da KI, die auch an die Genfer Konvention hält, die Zivilbevölkerung nicht auslöschen sollte.

        TL;DR: Ich sehe nicht, dass die Autoren, etwas ganz anderes meinten.

    • @Trollator:

      Guter Kommentar. Sehr gutes Beispiel.

    • @Trollator:

      "Bei "Risiko der Auslöschung" geht es aber darum, dass eine übermenschliche allgemeine KI mit fehlendem Alignment, tatsächlich wahrscheinlich die Menschheit auslöschen wird."

      Wenn man eine KI mit Klimadaten füttert, würde sie vermutlich tatsächlich so etwas vorschlagen.

      Würde man aber sozioökonomische Daten hinzufügen, wäre das Ergebnis für die ärmeren 95% der Menschheit folgenlos oder sogar positiv.

      Und vielleicht geht es ja im Kern darum: Selbstschutz einer weltverbrennenden Elite.



      Aber ich glaube nicht, dass ein Elon Musk so weit denkt.

      • @Ajuga:

        Ein paar Missverständnisse:

        1. Die künftige KI, um die es geht, wird nicht vorschlagen sondern tun. Und praktisch sind wir etwa mit AutoGPT schon zu 90% dort angekommen.

        2. Die aktuellen großen Sprachmodelle sind mit Unmengen an Daten "gefüttert". Fragt man etwa ChatGPT über die Wohlstandsverteilung auf der Welt, bekommt man passende detaillierte Antworten. Und das ist nicht deshalb, weil es irgendwo nachschlägt, sondern weil es diese Informationen gelernt hat.

        Das Problem ist, wie diese Modelle trainiert werden: Sie lernen, die Antworten zu produzieren, die ihre menschlichen Trainer hören wollen. Das heißt aber nicht, dass sie sich dann in jeder Situation so verhalten, wie gewünscht. Das ist das Alignment-Problem und es ist bisher nicht gelöst.

        Wenn das Rennen um immer mächtigere KI so weiter geht wie bisher und diese autonom agieren kann, dann kann mangelhaftes Alignment fatal werden. Ich gehe davon aus, dass Elon Musk das sehr wohl verstanden hat.

    • @Trollator:

      Auslöschung? Whow. Mal den Trollator anwerfen.



      “Wir amüsieren uns zu Tode“ weiß schon Neil Postmann



      &



      Ludwig 🦌 laß gehn - “1928“ -



      www.youtube.com/wa...lnIGhpcnNjaCAxOTI4



      & OK OK -



      vllt wird’s nicht ganz so schlimm - wa!



      “Die grüne Wolke“ by A.S. Neil - wie passend! Woll (Übs. Harry Rowohlt;)



      “Gemeinsam mit dem 99fachen Millionär Pyecraft unternehmen acht Kinder und ihr Lehrer Neill eine atemberaubende Reise mit dem Luftschiff. Doch als sie wieder auf der Erde landen, müssen sie feststellen, dass alle Menschen in Stein verwandelt worden sind! Nur ein paar gnadenlose Gangster, zügellose Zuchthäusler und andere seltsame Gestalten sorgen noch für Trubel. Und hinter alldem steckt eine geheimnisvolle grüne Wolke ...



      Bereits 1938 erdachte der revolutionäre Pädagoge A. S. Neill diese abenteuerliche Geschichte für seine Schüler der Projektschule Summerhill. Bis heute gilt «Die grüne Wolke» als Beispiel für einen antiautoritären Erziehungsstil!!! - und als Klassiker der Kinderliteratur.“ Ach was! ©️ Loriot -



      &Däh!



      Zeichnungen von F. K. Waechter - 🙀🥳

      kurz - Es bleibt also noch Hoffnung •

  • Gemeint ist hier nicht die heutzutage verfügbare sogenannte KI (die nicht intelligent ist) inklusive großer Sprachmodelle, sondern wirklich intelligente Systeme (zur Abgrenzung AGI genannt, also generelle KI) der Zukunft. Die Warnung davor ist mehr als plausibel. Für die meisten Wesen auf diesem Planeten kommt die größte Bedrohung von der bisher einzigen intelligenten Spezies.

    • @dnamej:

      Ja, ich schließe mich Ihrer Meinung an.

      Ursprünglich hatte ich eine gewisse Hoffnung bezüglich der Künstlichen Intelligenz nachdem ihr natürliches Pendant so versagt hat.

      So wie es aussieht hat aber inzwischen die Evolution eingesehen, daß die Intelligenz kein Merkmal ist das uns irgendwie weiterbringt, was dann auch das Ende aller KI-Versionen bedeuten würde. Weil, was will die KI noch, wenn sich niemand vor ihr fürchtet.

    • @dnamej:

      Sehr richtig.

  • Salute! Auf dass sich die Industriegesellschaften immer mehr in Abhängigkeiten von digitalen Prozessen begeben …

    Mal ehrlich:



    Wer mag in einer völlig “roboterisierten” Welt noch leben wollen?

    Viele wissen doch schon heute nicht, wofür die ganzen Knöpfe an ihrem Lenkrad “gut” sind. Warum nicht?



    Weil es an vermeintlichem Fortschritt, sprich überflüssigen technischen “Kreationen”, nur so wimmelt.

    Bleibt die Frage:



    Wer denkt noch…. (nach)?



    Dank KI vermutlich bald nur noch sehr wenige.



    Auf diesem Hintergrund ist doch wohl eher ein “Gute Nacht-Lied” anzustimmmen, oder?



    Und genau das konnten vermutlich schon Neandertaler … ;-)

  • 9G
    95820 (Profil gelöscht)

    „Nur in einem bin ich als Mensch besser dran



    Darum mag er mich beneiden



    Denn ich bin der von uns beiden



    Der die Kühlschranktür allein aufmachen kann



    Und das sind Momente, die genieße ich



    Denn ich weiß, dann wünscht mein Hund, er wäre ich.“



    www.youtube.com/watch?v=6y9L7LJ5CC0



    Solang die KI-Maschinen die Energie für ihre Aktivitäten nicht selbst erzeugen können, sind sie einem Hund unterlegen.



    Aber sie sind tolle Werkzeuge.

    • @95820 (Profil gelöscht):

      Stimmt. Das war der Hund meiner Mutter auch. Brachte ihre Katze ihn doch dazu - per Pfote 🐾 - die Speisekammertür zu öffnen - damit sie mausen konnte. - 🙀🥳 -

      Na Mahlzeit & die Menschen too. Denn.



      Pinkelte sie in den Spülstein - mauzte sie doch so lange - bis jemand kam & den Hahn aufdrehte & roch am Abflußknie so lange - bis sie sich trollte.



      (Tragische Begrenztheit: als sie aus blanker Wut der Eifersucht - Mutters künftigen “ehemaligen Verlobten“ a Sofa in den Nacken sprang: wurde sie abgeschafft. But. Für zwei Kids causal - immerhin!;)) & 💤 💤💤 😴

  • Ich finde das Statement sehr passend für die jetzige Situation.

    Die Menscheit steuert aus mehreren Gründen auf einen Abgrund zu.

    Das "Ein-Satz-Statement" auf der Seite des Center für AI Safety faßt treffend zusammen, in welcher Lage sich die Menschheit im Jahre 2023 befindet.

    Und wenn es die nächsten Monate blöde läuft, dann könnten sehr viele Menschen in den nächten Jahren den Löffel abgeben. Dank KI, Atomkrieg, Pandemie.

    Ob das Angst erzeugt? Natürlich!

    Ist so ein Statement gefährlich?

    Nein, ganz in Gegenteil, es zeugt von der Fähigkeit zu vorausschauendem Denken mit dem Schwerpunkt auf Risikominimierung.

  • 3G
    31841 (Profil gelöscht)

    Mir wird das alles zu intelligent. Hat schon jemand eine KI-Maschine "gefragt", was das nun wieder bedeutet?

  • Vllt hilft ja das als rationalisierende Folie weiter! Woll.

    KI - gibt es nicht •



    KI - ist eine allzu durchsichtige Erfindung im Zuge der Wissenschaft&Forschungsentwicklung:



    Um besser Forschungsgelder abzugreifen & besser öffentliches Interesse im politischen Raum zu generieren •

    unterm——



    Selbst eine starke KI kann ihre Schlüsse noch nicht auf andere Gebiete übertragen. Solange Computer kein Einfühlungsvermögen für Lebewesen haben, solange sie weder Sinn für Humor noch die Fähigkeit besitzen, von einer Situation in eine andere zu springen, wird es keine Künstliche Intelligenz geben.“



    “Es denkt nicht!“ Rudolf Seising



    &



    Heinz von Foerster - der den Kampf um Forschungsgelder & die Erfindung von KI als Türöffner beschreibt! “Sie haben damit gewonnen!“

  • German Angst

    Ein Messer ist Lebensgefährlich, wenn es im Bauch steckt.



    Benzin ist sehr gefährlich, wenn es im Hau brennt.



    Und KI ist gefährlich, wenn sie falsch eingesetzt wird.



    Richtig eingesetzt jedoch kann die KI für die Menschen ein großer Nutzen sein.



    Für die Vermeidung von Schäden ist der Gesetzgeber verantwortlich, er hat die Regeln zu definieren.

    • @Rudi Hamm:

      Na dann bin ich ja beruhigt, wenn Philipp Amthor verantwortlich ist für's Vermeiden von Schäden ;-)



      Wer zur Kenntnis genommen hat, welche KI-Maschinenmonster jetzt schon in den Beständen mancher Militärs verfügbar sind, sieht das eventuell etwas beunruhigter.

    • @Rudi Hamm:

      Es geht hier nicht um maschinelles Lernen, das man zielgerichtet mehr oder weniger sinnvoll/ethisch einsetzen kann. Es geht um wirkliche Intelligenz ("AGI"), ggf der menschlichen überlegen.

      • @dnamej:

        Selbst diese Entwicklung wird nicht verhinderbar ein, selbst wenn sie "verboten" wird.

      • @dnamej:

        Noch nie konnte man "Fortschritt" verhindern.



        Was immer entdeckt und entwickelt wurde, kam auch zum Einsatz. Es ist ein frommer Glaube zu denken, dass die KI aus moralischen Gründen nicht schon längst beim Militär in Erprobung und Einsatz ist.



        Man kann es kritisieren und ächten, man kann es nicht verhindern.



        Biologische und chemische Waffen sind völlig zu Recht geächtet und verboten, es gibt sie trotzdem.



        Und genau so wird dies mit der Morallosen Anwendung der KI auch sein.

  • Es ist vor allem ein Phantom, vor dem wir Angst haben. Wir nennen etwas, das aus berechneten Wahrscheinlichkeiten von Wortabfolgen Sätze bastelt, intelligent.

    Diese Intelligenz, die eine ist, nur weil wir sie so nennen, schmücken wir dann mit dem Epitheton "künstlich", um uns von ihr zu unterscheiden, um ein Wir und ein Fremdes zu konstruieren. Und weil Künstliches seit Rousseau eine sündhafte Abkehr vom Natürlichen ist, ist dieses von uns geschaffene Fremde also bedrohlich. Also erschauern wir, wenn ChatGPT einen Satz mit "Ich als ..." beginnt. Dabei gibt es de facto kein Ich, das das sagen könnte. Das ist pure Anmaßung. Anmaßung, die wir zulassen, die wir sogar zu lesen wünschen - damit das Konstrukt sich bewahrheitet.

    Anders formuliert: Wir fürchten uns vor etwas, das wir erschaffen haben, um uns vor ihm fürchten zu können. Eine Geisterbahn auf dem Jahrmarkt erfüllt den gleichen Zweck.

    • @Birne Helene:

      "Wir fürchten uns vor etwas, das wir erschaffen haben, um uns vor ihm fürchten zu können. Eine Geisterbahn auf dem Jahrmarkt erfüllt den gleichen Zweck."

      Der erste Satz trifft auch auf die Atombombe zu. Der zweite dann nicht mehr.

    • @Birne Helene:

      Erst vor ein paar Tagen wurde mit KI-Unterstützung ein neuer und wohl recht vielversprechender Wirkstoff gegen multiresistente Keime entwickelt. Ein Mittel also nachdem man angesichts der rapide zur Neige gehenden Reserveantibiotika bereits lange und intensive geforscht hat. Ist nun die Annahme, dass sich mit einem vergleichbaren Ansatz ähnlich spektakuläre Durchbrüche möglicherweise auch in der Erforschung biologischer oder chemischer Kampfstoffe erzielen lassen sollten wirklich nur Geisterbahngrusel?



      www.forschung-und-...bakterium-13377542

      • @Ingo Bernable:

        Ist das Messer schuld, wenn man es einem anderen in den Bauch steckt, oder nicht doch der Mensch, der es mutwillig falsch anwendet?

        • @Rudi Hamm:

          Plutonium oder VX-Gas sind ja auch nicht daran schuld wenn man sie in Bomben steckt und dann auf irgendeine Stadt wirft. Trotzdem gibt es international strikte Regularien um eine Proliferation zu verhindern, demgegenüber ist die Schwelle die für einen missbräuchlichen Einsatz von KI überwunden werden muss praktisch inexistent.

  • Weitaus realistischer als die Matrix ist wohl ein Szenario in dem irgendwer KI für irgendwelche üblen Zwecke einsetzt und dabei zu überraschend bis ungewollt effizienten Ergebnissen kommt. Bliebe die Frage wie man den Geist wieder in die Flasche kriegen will? Die Algorithmen sind bekannt, oftmals gar Open Source und die nötige Rechenleistung für das Training eines Modells lässt sich einkaufen oder auch per in jeder gewünschten Menge über die Cloud anmieten. Es kann also jeder Hobbyentwickler und jeder Superschurke sofort und ungehindert anfangen seine eigene KI zu basteln, ganz ohne dafür erstmal Plutonium oder Hochleistungsgaszentrifugen auftreiben zu müssen.

  • Ich würde dem Artikel vollkommen zustimmen, wenn er nicht an einer Stelle unglücklicherweise von “lügen” schriebe. Heutige KI-Systeme lügen nicht, sondern erzeugen gelegentlich Blödsinn, ohne es zu merken. Heutige KI-Systeme sind nämlich immer noch weit entfernt davon, zu verstehen, was sie erzeugen, geschweige denn, gezielt etwas anderes zu behaupten, als was sie als wahr ansehen. Wobei auch diese Formulierung schon irreführend ist, denn heutige KI hat weder Ansichten noch weiß sie etwas, denn sie kennt keine Bedeutungen sondern nur Wahrscheinlichkeiten.

    • @Fünfpluseins:

      Das ist irrelevant. Die Gefahr geht nicht von der KI selbst aus, sondern von den Menschen, die sie benutzen.



      Und das ist mit einer Regulierung der KI nicht mehr zu verhindern. Vielleicht ist die Warnung ja genau deswegen so wage und ohne konkrete Ideen.



      Da sind Leute, die bemerkt haben, wie anfällig für Missbrauch ihre Erfindung ist. Die haben schlicht selbst Angst. Die Gründung eines Gremiums, das eine öffetntliche Warnung abgibt ist damit nicht mehr als eine Übersprungshandlung.