piwik no script img

Künstliche Intelligenz in DeutschlandWissing gegen mehr KI-Regulierung

Programme wie das Sprachsystem ChatGPT entwickeln sich schnell weiter. Der Digitalminister sieht große Chancen – und will keine strengen Regeln für KIs.

Die KI entfesseln? Digitalminister Volker Wissing (FDP) ist gegen strengere Auflagen für KI Foto: Zacharie Scheurer/dpa

Berlin dpa | Digitalminister Volker Wissing (FDP) hat sich gegen eine zu strenge Regulierung von Systemen mit künstlicher Intelligenz (KI) ausgesprochen, die vor allem auf ein Verbot oder eine Eindämmung ausgerichtet ist. Künstliche Intelligenz werde sich sehr schnell und massiv im Alltag der Menschen etablieren, sagte Wissing am Mittwoch der Deutschen Presse-Agentur. Der FDP-Politiker hatte in der vergangenen Woche im Rahmen einer USA-Reise mit OpenAI auch eine der führenden KI-Firmen besucht, die derzeit mit ihrem eloquenten Textroboter ChatGPT im Fokus der Öffentlichkeit steht.

ChatGBT basiert auf dem KI-Modell GPT-3, mit dem Texte generiert werden können, die man für das Werk eines Menschen halten kann. „Mit der kommenden Generation des KI-Sprachmodells GPT-4 werden Dinge möglich, die unser Leben verändern werden“, sagte Wissing.

Dazu gehörten beispielsweise Simultanübersetzungen in alle Sprachen in Sekundenschnelle, das Ausarbeiten von Reden oder auch Vorträgen innerhalb von Sekunden zu beliebigen Themen mit einer sehr hohen Sprachpräzision und mit einer beindruckenden Sprachfertigkeit. „Ich bin mir sicher, dass viele Menschen in Deutschland und Europa dies nutzen werden.“

Eine Regulierung dieser KI sei notwendig, sagte der Digitalminister. „Wir sollten dabei aber nicht prohibitiv denken, also nicht überlegen, wie wir das möglichst zurückdrängen, einschränken oder gar verbieten können. Wir sollten uns vor allem auf die Frage der Transparenz konzentrieren und alles aus der Perspektive der Anwenderinnen und Anwender her denken.“

Wissing warnt EU-Parlament

Die Verantwortlichen bei OpenAI seien auch bereit, sich an einer guten Regulierung beratend zu beteiligen, betonte Wissing. „Wenn wir uns auf verlässliche Standards und Zertifizierungen einigen, ist dies auch im Interesse der Unternehmen.“ Wichtigster Geldgeber des Start-ups ist Microsoft.

Wissing sagte, seine größte Sorge bei der KI-Regulierung sei, dass es auf europäischer Ebene eine Mehrheit geben könne, die glaube, durch Verbote die Anwendung dieser KI-Systeme einschränken zu können. „Insbesondere im EU-Parlament gibt es zum Teil solche Bestrebungen. Wir würden dann letztlich nur feststellen, dass die KI-Systeme von den Anwendern trotzdem intensiv genutzt werden, ohne dass wir in einer sinnvollen Regulierung unsere Wertvorstellungen einbringen konnten.“

Deutschland und Europa bräuchten kein Verbot der KI, sondern Wege, Werte wie Demokratie und Transparenz zu gewährleisten. „Es darf nicht passieren, dass KI-Algorithmen so manipuliert werden, dass von deren Antworten immer nur bestimmte gesellschaftliche oder politische Gruppen profitieren.“

taz lesen kann jede:r

Als Genossenschaft gehören wir unseren Leser:innen. Und unser Journalismus ist nicht nur 100 % konzernfrei, sondern auch kostenfrei zugänglich. Texte, die es nicht allen recht machen und Stimmen, die man woanders nicht hört – immer aus Überzeugung und hier auf taz.de ohne Paywall. Unsere Leser:innen müssen nichts bezahlen, wissen aber, dass guter, kritischer Journalismus nicht aus dem Nichts entsteht. Dafür sind wir sehr dankbar. Damit wir auch morgen noch unseren Journalismus machen können, brauchen wir mehr Unterstützung. Unser nächstes Ziel: 40.000 – und mit Ihrer Beteiligung können wir es schaffen. Setzen Sie ein Zeichen für die taz und für die Zukunft unseres Journalismus. Mit nur 5,- Euro sind Sie dabei! Jetzt unterstützen

Mehr zum Thema

30 Kommentare

 / 
  • "Es darf nicht passieren, dass KI-Algorithmen so manipuliert werden, dass von deren Antworten immer nur bestimmte gesellschaftliche oder politische Gruppen profitieren."

    Ich wage mal die Vermutung, dass eine "objektive" Intelligenz viel stärker diskriminieren wird, als es sich mancher vorstellen mag.



    Für mich ist aber das Problem der Zieldefinition viel gravierender. Wer definiert die Ziele, die mit der künstlichen Intellligenz erreicht werden soll.

  • „Es darf nicht passieren, dass KI-Algorithmen so manipuliert werden, dass von deren Antworten immer nur bestimmte gesellschaftliche oder politische Gruppen profitieren.“

    Ich wage mal eine vorsichtige Prognose:



    Es wird passieren, dass KI-Algorithmen so funktionieren, dass von deren Antworten immer nur bestimmte gesellschaftliche oder politische Gruppen profitieren.

  • Ein Messer ist ein sehr nützliches Werkzeug oder auch eine tödliche Waffe.



    KI ist ein Werkzeug und zuerst einmal weder gut noch schlecht. Der Mensch bestimmt, ob er das "Werkzeug" KI zum Nutzen oder zum Nachteil für die Menschen einsetzt.



    Verhinderbar wird die KI ohnehin nicht sein, Fortschritt hat sich noch nie verhindern lassen.

  • Erzeugt die KI klugen Inhalt, oder täuscht sie nur geschickt klugen Inhalt vor?



    So, dass es nur die besten Experten bemerken.



    Das wäre fatal, denn vorgetäuschte Klugheit gibt es schon unter den Menschen zu genüge...

    "(Profit first, Denken second.



    FDP-Minister find ich erschreckend.)"

    frei nach Mondschaf

  • Nuja, wenn schon die "Robotergesetze" (de.wikipedia.org/wiki/Robotergesetze) obsolet geworden sind als die ersten gebaut wurden, braucht mer sich bei "richtiger" KI/AI den Aufwand garned erst zu machen.



    Deutschland hinkt wohl mit der gesellschaftlichen Auseinandersetzung genauso 20+ Jahre hinterher wie mit der allgemeinen KI/AI -Entwicklung.



    Also wenn Volker Asphalt Wissing dazu irgendwas konstruktives beitragen will, fragt er jemand*in wo sich mit ChatGBT auskennt, damit die (angebliche, Turing-Test usw.) KI/AI eine allgemeinverständliche Abhandlung der ethischen Belange zu erstellen und dem Volke zu präsentieren. Das würde wohl ned die Welt kosten und wäre besser angelegt als jeder m Straße nach Planungen, die 30+ Jahre alt sind.

  • @Srfboi, @_tester @Ingo Bernale

    OpenAI um das es im Artikel u.a. auch geht ist nicht Open Source. 😂



    OpenAI ist ein Unternehmen mit von Elon Musk und Microsoft als zentrale Geldgeber.

    • @Rudolf Fissner:

      Es hat auch niemand behauptet, dass OpenAI Open-Source sei. Ich würde mir nur sehr wünschen, dass es so wäre :).

  • Ich kann es nicht erwarten bis Colossus endlich die Kontrolle übernimmt, oder Bob, oder Daemon, oder HAL, oder ...

  • Ich empfehle mal als Einstieg t3n.de/news/timnit...orscherin-1343791/



    KI diskriminiert immer, das ist ja auch ihr Kernjob. Der Trick dabei ist möglicherweise, die Trainingsphase entsprechend zu designen, um das zu vermeiden.



    Dumm ist nur, dass ja der eigentliche Witz an KI ist, dass ihre Ergebnisse besser sein sollen als die, die ihre Entwickler zustande brächten. Spätestens wenn dieses Ziel erreicht ist, ist der Ursprung der Diskriminierung nicht mehr erkennbar, und aus dem diskriminierenden Ergebnis wird das einzig richtige, was sag ich, das einzig mögliche.



    The Singularity is Near.

  • "Es werden Dinge Möglich die unser Leben Verändern ... das Ausarbeiten von Reden oder auch Vorträgen innerhalb von Sekunden zu beliebigen Themen mit einer sehr hohen Sprachpräzision und mit einer beindruckenden Sprachfertigkeit" sagte Wissing -

    Klasse, Herr Wissing sollte schnellstmöglich ein gutes Vorbild sein und seinen Posten als Minister räumen um sich durch ChatGBT ersetzen lassen. Vieleicht sind dann ja die Äusserungen aus dem Verkehrsministerium erstmalig für mich wieder erträglich!

    • 9G
      95820 (Profil gelöscht)
      @niko:

      Vielleicht ist ja V.W. ein Feldversuch. "K" - ja, "I" - weiß nich.



      Billig first, Bedenken second.



      FDP-Minister find ich erschreckend.

  • OK, damit ist dann das selbstfahrende Auto gestorben?



    Begrüße ich sehr!

    • @Herry Kane:

      Schade, dass sie so denken.



      Das selbst fahrende Auto könnte ein Segen für alte Menschen und Menschen mit Behinderung sein. Es könnte ihnen wieder Mobilität ermöglichen, welche selbst eine ÖPNV nicht bieten kann.

    • @Herry Kane:

      Es lebe ab jetzt das selbstredende Auto!

  • "Es darf nicht passieren, dass KI-Algorithmen so manipuliert werden, dass von deren Antworten immer nur bestimmte gesellschaftliche oder politische Gruppen profitieren."



    Tja, dass hat ja nix mit Manipulation sondern mit der Funktion zu tun, aber genau deswegen braucht man Regeln. Mal ganz abgesehen von den Generierung von Schadcode. Braucht man dafür auch keine strenge Regulierung?



    Das Problem ist, wenn man diese Dinge Privatfirmen überlässt. Open-Source mit einer starken Community ist für die FDP Teufelswerk weil "umsonst". Ein ganz Schlimmes Wort. Es muss immer wenige (oder nur einen, siehe K. Marx) geben, der wie bei Twitter richtig Reibach macht. Dann sagen alle wie schlimm das ist und es gäbe keine Alternative. Das ist aber wie beim Klimawandel, man muss nur wollen, aber vielleicht ist das wie beim Porsche-Fahren, das kann auch nicht jeder wollen, dafür haben wir ja einen Experten in der Regierung.

    • @Surfbosi:

      "Mal ganz abgesehen von den Generierung von Schadcode."



      Und was hat das mit der Funktionsweise von AI zu tun?



      "siehe K. Marx"



      Wie wäre denn Open Source aus marxistischer Perspektive (Stichwort: Expropriation der Arbeitskraft) zu beurteilen? Und wo sind eigentlich die FOSS Projekte für den Betrieb von Flugzeugen, Lungenmaschinen und AKWs? Davon, dass jede*r den Code lesen kann, es dann aber niemand tut wird Software auch nicht sicherer.

      • @Ingo Bernable:

        Wenn nur eine Firma hinter der Software steht und der Code nicht von der Community überprüft wird, bedeutet das nicht automatisch, dass der Code sicherer ist.



        Es erzeugt jedoch Druck auf die Firma, keine bösartigen Funktionen in den Code einzubauen. Der Grund dafür ist, dass die Entwickler wissen, dass im Falle eines Problems nachvollzogen werden kann, was im Code falsch war und sie dafür verantwortlich gemacht werden können. Dies erhöht den Druck auf die Hersteller, verantwortungsvoll zu handeln

        • @__tester:

          Nun denne. "Bösartige Programmierer"

          Ist Open Source dann bösartig, weil die allermeisten Programierer auch angestellt an Closed Source arbeiten?



          Oder ist Closed Source genau so gut, weil in den Betrieben i.d,R. keine "bösartigen Programmierer" arbeiten

        • @__tester:

          Das Interesse von Softwarefirmen ihren Kund*innen bösartige Funktionen unterzujubeln dürfte etwa so groß sein wie das Interesse von Restaurents ihren Gästen Arsen unters Essen zu mischen. Im Falle eines Problems gibt es bei einer solchen Firma immerhin eine klare Zuständigkeit und auch eine klare Interessenslage es zu beheben. Bei FOSS bleibt nur zu hoffen, dass das Projekt noch aktiv ist und irgendwer aus der Community demnächst mal Spaß daran hat seine Freizeit zu investieren oder eben selber den Debugger anzuschmeißen. Und wo müssen Entwickler*innen wohl eher fürchten für ihre Fehler verantwortlich gemacht zu werden, in einem bezahlten Job oder in einer Situation in der sie innerhalb einer Community ehrenamtlich coden?

          • @Ingo Bernable:

            Triggerwarnung: Es folgt gleich kapitalistisches Argumentieren :D.



            Der Vergleich mit einem Restaurant hinkt meiner Meinung nach ein bisschen. Wenn ich mich in einem Restaurant vergifte, wird sich das schnell herumsprechen und alle werden dieses Restaurant meiden, da es genügend Alternativen gibt - so weit so Marktwirtschaft. Bei großen Softwareherstellern handelt es sich jedoch meist um Quasi-Monopole mit sehr hohen Markteintrittsschranken. Wir haben bei Facebook, Twitter usw. bereits gesehen, dass sie sich jeden Müll erlauben können und die Leute keine Möglichkeit haben auszuweichen.



            Momentan sehe ich das Problem bei Suchempfehlungen von YouTube, Instagram usw. Es sind KI-Algorithmen, aber niemand weiß, wie sie funktionieren. Diese Algorithmen begünstigen mMn die Bildung von extremen Meinungen (und auch Verschwörungstheorien). Man muss kein Experte sein, um zu erkennen, dass man diese Algorithmen leicht so ändern könnte, dass eine extreme Meinung bevorzugt wird.

    • @Surfbosi:

      Kannst du mir bitte aufzeigen, wo es in den offiziellen (oder inoffiziellen) Positionen der FDP heißt, dass sie gegen Open-Source sind? In Artikel geht es lediglich darum, dass Wissing sich gegen ein Verbot von Open-Source ausspricht (was ich auch als unklug und ineffektiv erachte). Persönlich bin ich ein großer Anhänger von Open-Source und wünsche mir eine stärkere Förderung durch die Politik. Meiner Ansicht nach sollten Parteien wie die Grünen, Sozialdemokraten und liberale (wie liberale die FDP tatsächlich ist, sei mal dahingestellt :) ) diese Förderung voranbringen. Im Moment sehe ich jedoch keine Partei, die diese Förderung aktiv unterstützt.

      • @__tester:

        "In Artikel geht es lediglich darum, dass Wissing sich gegen ein Verbot von Open-Source ausspricht "

        Da ist mir wohl ein freudscher Versprecher/schreiber passiert :).







        Ich wollte schreiben:



        "In Artikel geht es lediglich darum, dass Wissing sich gegen ein Verbot von KI ausspricht "

  • KI ist ein sehr wichtiges Thema und sollte nicht überreguliert werden...



    Aber dennoch sehe ich es auch so, dass es beobachtet und reguliert werden muss, schwieriges Thema...

    • @Tim Blicker:

      Meiner Meinung nach ist das eines der wichtigsten Themen unserer Zeit. Verbieten ist aus meiner Sicht die schlimmste Option. Ich bin selbst beruflich in der Softwareentwicklung tätig und würde bevorzugen, wenn der Staat Open-Source stark fördert. Ich würde sogar so weit gehen, dass man vielleicht sogar Unternehmen zwingt, ihren Code nach einer gewissen Zeit als Open-Source zur Verfügung zu stellen (ähnlich wie bei Patenten). Das dümmste, was ich bisher gehört habe, ist sowas wie eine Maschinensteuer für Software. Damit verlieren wir komplett den Anschluss an die USA und China und müssen uns dann von diesen (bei den Amis Milliardäre und Geheimdienste und bei den Chinesen eine "kommunistische" Diktatur) abhängig machen.

      • 9G
        95820 (Profil gelöscht)
        @__tester:

        "..und müssen uns dann von diesen (bei den Amis Milliardäre und Geheimdienste und bei den Chinesen eine "kommunistische" Diktatur) abhängig machen."



        Das taten "wir" längst und freiwillig.



        War ja so billig



        (Billig first, Bedenken second.



        FDP-Minister find ich erschreckend.)

  • „aus der Perspektive der Anwenderinnen und Anwender her denken.“ wer soll das sein? Werbetreibende, profitorientierte Unternehmen, Geheimdienste, Militärs?

    • @guzman:

      Schüler, Studierende, Journalisten…. Die sich Texte schreiben lassen.

      Jeder wird dann mit einer App immer testen müssen, ob ein vorliegende Text von einer Person oder einer KI geschrieben wurde.

      • @fly:

        Ich glaube das wird nur begrenzt möglich sein und wenn überhaupt dann nur in der Anfangsphase.

        Das wird echt spannend bei der Frage nach dem Urheberrecht.