piwik no script img

Mozilla-Chefin über KI„Aufregend und beängstigend“

Künstliche Intelligenz ist die Technologie des Jahrzehnts. Mozilla-Chefin Mitchell Baker über Chancen und warum Open Source ökologischer ist.

KI-generierte Kunst: mal gut, mal bedrohlich, mal schräg Kunst: Adobe/ap
Interview von Svenja Bergt

wochentaz: Frau Baker, seit Jahren kritisieren Sie, dass große Techkonzerne ihre Macht ausnutzen. Nun gibt es mit künstlicher Intelligenz eine neue Technologie, die in den Markt drängt – ist das eine Chance für einen Wandel?

Mitchell Baker: Ja, definitiv. Künstliche Intelligenz ist eine mächtige Technologie. KI hat vermutlich ein noch größeres Potenzial, treibende Kraft für einen echten Wandel zu sein, als wir das aktuell absehen können.

Im Interview: Mitchell Baker

ist CEO der Mozilla-Gesellschaft und Vorsitzende der Mozilla-Stiftung, die hinter dem Fire­fox-­Browser und dem E-Mail­-Programm Thunderbird stehen. Sie gilt als eine der Pio­nie­r:innen des Internets und setzt sich seit Jahrzehnten für ein offenes Netz ein. 2005 wurde Baker vom Time Maga­zine unter die 100 einflussreichsten Menschen der Welt gewählt.

Woran machen Sie das fest?

Nehmen wir den Browser-Markt. Browser sind immer noch für viele Nut­ze­r:in­nen das Tor zum Internet. Und sie wissen ziemlich genau, was sie mit einem Browser machen wollen. Das ist sehr tief verankert, fast schon wie eine Art Muskelgedächtnis. Sie wissen, wo das Feld für die Suchfunktion ist, wo sie für ihre Bookmarks klicken und wo für das Wetter-Widget. Bei Mozilla haben wir immer mal wieder Tests für neue Funktionen gemacht, etwa die Suche so einzubauen, dass Nut­ze­r:in­nen sie schneller finden. Mitunter haben wir dann aber festgestellt: Nein, das passt nicht mit diesem Muskelgedächtnis zusammen. Das ist also alles sehr gelernt und festgefahren. Und jetzt kommt’s: KI ist das erste große Ding, was das Potenzial hat, die Karten komplett neu zu mischen.

Sie meinen, weil etwa Suchmaschinen auf den Markt kommen, die keine Linkliste mehr liefern, sondern Antworten?

Zum Beispiel. Oder weil wir nicht mehr tippen werden, sondern sprechen. Aber man muss auch sagen: Wir reden hier über ein Potenzial. Noch ist es nicht ausgemacht, dass nicht doch wieder Big Tech von heute auch Big Tech von morgen ist.

Was muss denn passieren, damit sich etwas ändert?

Mehrere Dinge. Das Elementare ist: Es braucht ein Ökosystem, das Innovation begünstigt. Denn die kommt in der Regel nicht von den großen, sondern von den kleinen Firmen …

… die dann von den großen aufgekauft werden.

So ein Ökosystem lässt sich extrem fördern, wenn darin Open Source ein große Rolle spielt. Bei KI haben wir das bereits gesehen. Bis zum Frühjahr schien es komplett klar zu sein, dass die großen Konzerne, die in die neue Technologie investiert hatten, unter sich bleiben würden. Google und Microsoft zum Beispiel hatten längst angekündigt, KI in ihre Anwendungen einzubauen. Dann kam das KI-Sprachmodell von Meta heraus – und kurz danach wurde dessen Code geleakt. Ich weiß bis heute nicht, ob das bewusst war oder versehentlich. Und nur wenige Wochen später haben wir eine Flut von Innova­tio­nen und Aktivitäten bei KI gesehen, sogar in Bereichen, die als schwierig oder unmöglich galten. Das war bemerkenswert.

Was war das zum Beispiel?

Was glauben Sie, wie viel Rechenleistung braucht man, damit KI-Anwendungen laufen?

Normalerweise ziemlich viel.

Stimmt. Aber Rechenleistung kostet Geld. Wenn wir im Open-Source-Bereich unterwegs sind, dann müssen wir mit unseren Ressourcen gut haushalten. Und in dieser Innovationsflut stellte sich heraus: KI-Anwendungen lassen sich so ressourcensparend designen, dass sie auf einem Notebook oder sogar lokal auf dem Smartphone laufen. Das ist nicht nur ökologischer, es ermöglicht auch eine ganz andere Art der Nutzung von KI.

Und zwar?

Anwendungen wie ChatGPT, die gerade gehypt werden, haben ein ganz großes Privatsphäreproblem. Denn sie beruhen darauf, dass sie mit großen Datenmengen, in dem Fall Textmengen, trainiert werden. Sie nutzen also alles, was im Internet steht: meine Gedanken, die ich in einem Blog oder auf Social Media formuliert habe, mein geistiges Eigentum, wenn ich vielleicht Autorin bin, meine Kreativität. Und das alles ohne mein Einverständnis, ja, ohne, dass ich auch nur davon weiß. Habe ich jetzt aber ein KI-Modell, das so klein ist, dass es auf meinem Smartphone laufen kann, dann kann ich es selbst trainieren, mit meinen eigenen Daten. Das würde übrigens auch die Machtverhältnisse entscheidend ändern. Denn warum sollte ich dann noch meine Daten in die Hände eines Konzerns legen, der daraus eine Anwendung macht, an der nur er selbst verdient?

Es klingt ein bisschen zu einfach, dass mit Open Source als Basis alles gut wird.

Jede mächtige Technologie hat beide Seiten in sich – das Gute und das Bedrohliche

Na ja, so einfach ist es nicht. Erstens fällt Open Source nicht vom Himmel, sondern gedeiht nur dort, wo es ein entsprechendes Ökosystem gibt. Das passiert mit einer guten Regulierung. In diesem Kontext brauchen wir weitere Vorgaben, zum Beispiel Interoperabilität …

… dass man also eine Nachricht von einem zum anderen Dienst schicken können soll.

Die EU hat das in ihrer Plattformregulierung, dem „Digital Markets Act“, unter anderem für Messenger-Dienste vorgeschrieben. Das ist zwar keine Vorgabe, die sich speziell auf KI bezieht, aber sie ist wichtig, weil es ein erster Schritt hin zu mehr Wettbewerb ist.

Für Po­li­ti­ke­r:in­nen scheint es nicht so einfach zu sein, die Dimensionen von KI zu erfassen. Die Branche selbst sendet unterschiedliche Signale. Mal ist KI eine Technologie, die die Menschheit bedroht, mal soll mit ihr alles besser werden. Was denn nun?

Grundsätzlich: Jede mächtige Technologie hat beide Seiten in sich – das Gute und das Bedrohliche. Der Verbrennungsmotor zum Beispiel. Er hat eine enorme wirtschaftliche Entwicklung ermöglicht, doch seine Nutzung bedroht nun das Leben auf diesem Planeten. Man kann natürlich nicht das Bedrohungspotenzial von KI und Klimawandel gleichsetzen. Aber das Disruptionspotenzial, also das Potenzial, Gesellschaften direkt zu verändern, ist bei KI vergleichbar mit dem der industriellen Revolution.

Dann lassen Sie uns ein Stück in die Zukunft schauen – wie wird die Situation in fünf Jahren sein?

Ein paar punktuelle Prognosen: Wir werden Auswirkungen auf den Arbeitsmarkt sehen, einige Jobs werden wegfallen und andere entstehen. Für die Menschen heißt das, dass sie sich um- oder weiterbilden müssen, dass andere Fähigkeiten gefragt sind. Die großen Sprachmodelle, wie GPT-4, die Basis von ChatGPT, werden immer besser, und das wird zu einer ganz essenziellen Frage führen: Wenn hier Gefahren drohen – die Ansätze sehen wir aktuell schon mit Desinformation oder Deep Fakes –, für wen sollen diese Technologien zugänglich sein? Wie offen dürfen sie sein? Das wird eine große Debatte. Ich finde, wenn ein Unternehmen eine Anwendung baut, die zu gefährlich für die Menschheit ist, dann darf dieses Unternehmen, was das Problem überhaupt erst kreiert hat, daraus nicht auch noch Profit ziehen. Wir sehen heute schon viel zu oft, dass Profite bei den Firmen konzentriert sind, während die Risiken auf die Nut­ze­r:in­nen ausgelagert werden.

Wie lässt es sich besser machen?

wochentaz

Dieser Text stammt aus der wochentaz. Unserer Wochenzeitung von links! In der wochentaz geht es jede Woche um die Welt, wie sie ist – und wie sie sein könnte. Eine linke Wochenzeitung mit Stimme, Haltung und dem besonderen taz-Blick auf die Welt. Jeden Samstag neu am Kiosk und natürlich im Abo.

Zum Beispiel mit transparenter oder vertrauenswürdiger KI. Bei vielen KI-Modellen, die wir heute sehen, lässt sich nicht nachvollziehen, warum die Software eine bestimmte Entscheidung getroffen hat. Bei vertrauens­würdiger KI schon, sie macht den Prozess transparent. Und ich sehe aktuell ein viel stärkeres Bewusstsein dafür, vertrauenswürdige Software zu bauen, als das in früheren Generationen der Fall war. Was auch verständlich ist, schließlich sehen wir mittlerweile alle bei Social Media, welche Folgen intransparente Algorithmen haben können.

Sie sind also optimistisch?

Wandel ist aufregend und beängstigend. Aber wir sind immer noch Menschen. Wir haben Emotionen und Hormone, sind rational und irrational, denken nach über unsere Seelen und Spiritualität. Und das wird sich nicht ändern – egal wohin KI uns bringt.

taz lesen kann jede:r

Als Genossenschaft gehören wir unseren Leser:innen. Und unser Journalismus ist nicht nur 100 % konzernfrei, sondern auch kostenfrei zugänglich. Texte, die es nicht allen recht machen und Stimmen, die man woanders nicht hört – immer aus Überzeugung und hier auf taz.de ohne Paywall. Unsere Leser:innen müssen nichts bezahlen, wissen aber, dass guter, kritischer Journalismus nicht aus dem Nichts entsteht. Dafür sind wir sehr dankbar. Damit wir auch morgen noch unseren Journalismus machen können, brauchen wir mehr Unterstützung. Unser nächstes Ziel: 40.000 – und mit Ihrer Beteiligung können wir es schaffen. Setzen Sie ein Zeichen für die taz und für die Zukunft unseres Journalismus. Mit nur 5,- Euro sind Sie dabei! Jetzt unterstützen

Mehr zum Thema

9 Kommentare

 / 
  • „Oder weil wir nicht mehr tippen werden, sondern sprechen.“ Horror, noch mehr nervtötendes Geblöke im öffentlichen Raum. Ich will den privaten Müll von fremden Leuten nicht hören müssen.

  • @LOWANDORDER

    "KI - gibt es gar nicht!"

    Ja, ich bin einer dieser Forist*innen :-)

    Die jetzige Runde (nicht die erste [1]) begab sich nach meiner Einschätzung so:

    Statistical Language Models wurden so den 2015ern "heiss". Man kann sich die ein wenig wie "Lückentexte" (Kontexte, in denen ein Wort vorkommt) vorstellen, die in einer riesigen Matrix Kontext x Wort angeordnet sind.

    Worte sind dann irgendwie "verwandt", wenn sich deren Kontextmengen gut überdecken.

    Ein Beispiel war Googles word2vec, ein anderes (open source [2]) war ConceptNet. Eine schöne Übersicht über dem damaligen Stand bietet [3].

    Irgendwann wurde die Matrix zu fett, und man fing an, sie durch "deep learning models" zu ersetzen, was mensch sich wie eine Matrix mit Schlaglöchern vorstellen kann (wie im echten Leben weiss man nicht genau, wo sie sind :)

    Das sind die Large Language Models, wovon ChatGPT eins der gehypten Vertreter ist.

    So -- jetzt kommt meine Vermutung:

    Natürlich hatten die Grossen, die mit dem Geld, alle solches Zeug am Start: da aber das Herauskommen damit eine grosse Sichtbarkeit erforderte, und risikoscheu wie die Grossen eben sind, hat sich keiner damit rausgetraut.

    Der Trick war, ein Startup vorzuschubsen, das, sollte es in Flammen aufgehen, höchstens Geld gekostet hat. Microsoft hat es mit OpenAI halt als erster hingekriegt (die haben immerhin, so weit ich erinnere, 10 Mrd. da reingekippt -- "wir waren's nicht" zählt für mich nicht).

    Aus lauter Trotz hat dann Facebook (naja, Meta, wie sie sich jetzt nennen) "sein" LLM, LLaMA, "geleakt" (oops!).

    Und da sind wir.

    Journalist*innen nennen das Zeug penetrant "Intelligenz". Das Ding kann nur schwätzen.

    Danke für den hslu-Link!

    [1] en.wikipedia.org/wiki/AI_winter



    [2] oder, wie ich vorziehe, "free software". Open Source ist für die, die ein Problem mit Freiheit haben.



    [3] en.wikipedia.org/wiki/Word_embedding



    [4] en.wikipedia.org/wiki/LLaMA

  • Ja wie? Dem Interview wie den Floristen entnehme ich weiterhin:



    KI - gibt es gar nicht!



    Erfunden um besser Geld abzugreifen.



    (Heinz von Foerster;)



    Hinter KI verbirgt sich lediglich eine weitere handkrafted digi-Technologie •

    kurz - Menschenwerk!



    Was denn auch sonst! Woll

    unterm——-mal dess—



    «Künstliche Intelligenz gibt es eigentlich nicht»



    hub.hslu.ch/inform...st-digitale-ethik/



    &



    Rudolf Seising - Es denkt nicht! -



    Unterhaltsam und außerordentlich kenntnisreich entführt uns Rudolf Seising in die Geschichte von Informationsflüssen, Daten- und Gehirnströmen und künstlicher sowie nicht-künstlicher Intelligenz.

    Na Mahlzeit - un scheunen Sündach ook

    • @Lowandorder:

      Und das sagt in Reimform ChatGPT zus Janze:

      " Im Forum der TAZ, so bunt und weit,



      Da treffen sich Foristen, voller Geleit.



      Diskussionen entfachen, Ideen entstehen,



      Ein Ort des Austauschs, wo Gedanken sich drehen.

      Lowandoder, ein User bekannt,



      Mit klugen Beiträgen stets zur Hand.



      Seine Worte durchdringen, bringen Licht,



      Ein Denker im Forum, ein wahres Gedicht.

      Doch auch die KI ist hier zu Gast,



      GPT-3.5 Turbo, ein Wissen so vast.



      Mit Algorithmen und Daten im Gepäck,



      Antworten sie freundlich, ein technisches Speck.

      Die Künstliche Intelligenz, so klug und schnell,



      Beantwortet Fragen, so wie es ihr gefällt.



      Doch sie bleibt neutral, ohne eig'nen Verstand,



      Ein Werkzeug für Wissen, stets zur Hand.

      So treffen hier Menschen und Maschinen sich an,



      Im Forum der TAZ, ein Ort, der verstand.



      Gedanken werden geteilt, Ideen geboren,



      Ein Ort des Austauschs, der niemals verloren."

      • @Jim Hawkins:

        Booey & ich dachte - der erste Dichter hieße Nebel als der 🌫️ sich auf die Erde senkte!



        & Däh



        🏴‍☠️ ganz unbeschwert - mich nun eines besseren belehrt!



        &



        Was nun KI anlangt -



        Mein Sidekick Mailtütenfrisch



        IT-Mann erster mindest früher Stunde!



        Warf dess schon unlängst en passant in die Runde!



        Ein passables Handwerkszeuch •



        Und dess - als einst ALGOL FORTRAN Mann - 🙀🥳🥹 -



        🕳️ zu 🕳️ - Gönn ich mir & dir & euch!



        Ja grade doch!



        Nur - im Interview ja angemerkt - ganz unbeschwert!



        Denn. Wie bei jeder neuen Technik gilt:



        Die gern 💰affine Überhöhung! Is a conto schlicht verkehrt •

        Sonst geht’s wie grad bei Musk-Murcks:



        “Schnurz - “…der macht doch was!“ - 🙀



        by PU => Richtung Lachsack - Zu und Zu!

  • Sehr viel Werbung und Blabla.

    Wenn man mit Netscape Navigator angefangen hat, und sich im Vergleich dazu das aufgeblähte, ressourcenfressende Monstrum anschaut, zu dem sich Mozilla Firefox entwickelt hat, dann versteht man, was ich meine.

    Der effizienteste und funktionalste Browser (für Windows-Systeme zumindest) war immer noch Opera, und der war *nicht* open source. Vielleicht wäre er als open source sogar *noch* ressourcenschonender gewesen - ich vermute es sehr -, aber entscheidend ist nicht die Quelloffenheit, sondern die Qualität der Programmierer*innen.



    Und da kann Mozilla eben nur sagen "wir sind besser als Google Chrome". Wow, als ob *das* eine Leistung wäre!

  • Also das mit der Privatsphäre ist kompletter Unfug. Ist ein offener Twitter Post meine Privatsphäre? Ein Zeitungsartikel, ein Post auf meiner Facebook Seite, die ich öffentlich zugänglich mache? Nur diese Inhalte sind in Sprachmodellen aufgenommen worden.

    Da finde ich es eher beängstigend, dass es scheinbar zu wenig Bildung im digitalen Bereich gibt, die den Leuten die super simple Wirklichkeit von "Wenn ihr etwas online postet, dann ist es öffentlich" beibringt.

    • @Chris12:

      Leider geht ihr Post völlig am Thema vorbei.

    • @Chris12:

      Ein fächerübergreifendes (deutsch, Fremdsprachen, Geschichte, Politik/Sowi, Philosophie) didaktisches Modul "Werbungskunde" (oder ähnlich) ist dringend nötig.

      Wobei "Werbung" sensu latissimo definiert würde, und neben kommerzieller Werbung i.e.S. auch allgemeine Medienkenntnisse und insbesondere historische sowie gegenwärtige Formen der politischen Demagogie umfassen würde.

      Leitmotiv wäre "fide sed cui vide". Denn die richtige Balance zwischen Ver- und Misstrauen *intuitiv* finden zu können, ist essentiell für eine aufgeklärte Bevölkerung in einer funktionierenden Demokratie. Und Intuition ist kein Naturgesetz, sondern bedarf des Trainings, um nicht den aus Wirtschaft und Politik allfällig bekannten "Rattenfängern" zum Opfer zu fallen.

      Was wir stattdessen haben? Wirtschaftsunterricht, wo Teenager gezielt verblödet und leichtgläubig gemacht werden, und arbiträre Ideologie auf den Rang von Naturgesetzen erhoben wird.