piwik no script img

Illustration: Christina S. Zhu

ChatGPT löst Bildungskrise ausHausaufgaben aus der Maschine

Schüler überlassen das Schreiben ganzer Aufsätze einer künstlichen Intelligenz. Kritiker fürchten, dass der Persönlichkeitsentwicklung dadurch etwas Zentrales verlorengeht. Stimmt das?

D ie ersten Videos liefen zum Jahreswechsel auf Sihams Smartphone ein. Von da an folgte ein Tiktok-Kurzclip auf den nächsten, neben Kosmetik-, Tanz- und Tiervideos immer wieder ChatGPT, die geniale Erfindung. „Ständig erzählte irgendjemand, wie einfach man damit Hausaufgaben machen kann und wie es das ganze Schulleben auf den Kopf stellen würde“, sagt die Schülerin aus der Fritz-Karsen-Schule in Berlin-Neukölln. „Also habe ich es selbst ausprobiert.“

Seit ChatGPT Ende November 2022 gestartet ist, drehen sich die Diskussionen in sozialen Netzwerken oft um das auf einer künstlichen Intelligenz (KI) basierende Sprachsystem. Und Spiegel, Zeit, FAZ machen KI zum Titelthema. Was KI bereits alles kann, wo KI schon überall eingesetzt wird, wann KI unsere Arbeit übernimmt. Wöchentlich gibt es neue Experteninterviews, oder die KI schreibt die Kolumnen gleich selbst – wie einmal im Monat in der wochentaz, wo die künstliche Intelligenz Anic T. Waed Autorin der Kolumne „Intelligenzbestie“ ist.

wochentaz

Dieser Text stammt aus der wochentaz. Unserer Wochenzeitung von links! In der wochentaz geht es jede Woche um die Welt, wie sie ist – und wie sie sein könnte. Eine linke Wochenzeitung mit Stimme, Haltung und dem besonderen taz-Blick auf die Welt. Jeden Samstag neu am Kiosk und natürlich im Abo.

ChatGPT, so heißt es, könne komplexe Fragen beantworten, gebe Erklärungen und Tipps, helfe genauso schnell bei der Reiseplanung, wie sie einen Computercode oder ein neues Theaterstück schreibt.

„Zuerst habe ich die Englischaufgaben damit gemacht“, sagt Siham. „Frage eingeben und die Antwort kopieren. Das geht total einfach, wenn man mal faul ist oder keine Zeit hat.“ Auch bei grundsätzlichem Lernstoff, für den im Unterricht der Oberstufe mal wieder nicht genug Zeit blieb, hilft ChatGPT nach. Dadurch wurde die KI zum Standard-Tool der 17-Jährigen. „Wenn mir die Antwort nicht ausreicht, schreibe ich:,Erkläre das genauer', oder ich stelle meine Frage anders. Schon bekomme ich einen neuen, detaillierteren Text, der mir beim Lernen hilft.“

War das jetzt schon gemogelt?

In diesen Tagen macht sich mal Begeisterung breit, mal Besorgnis. Dabei hätten wir auch schon vor Jahren von KI überwältigt sein können: Erst bezwingt ein Computer den Weltmeister im Schach, dann helfen Navis beim Autofahren, später empfehlen uns Algorithmen personalisierte Inhalte wie Bücher, Musik, Filme und Schnäppchen. Aber so richtig von den Socken sind wir erst, als eine KI beginnt, auf Zuruf verrückte Bilder zu zeichnen oder in einem Chatfenster mit uns zu plaudern. Faszinierend und gruselig zugleich.

Gruselig vor allem für Schulen und Universitäten. Denn dort, wo Schreiben eine Persönlichkeit ausbilden, kritisches Denken fördern und junge Menschen zu mündigen BürgerInnen erziehen soll, beginnen die jungen Menschen, das Schreiben einer Maschine zu überlassen.

Wenn dieser Schritt aber von einem Computer übernommen wird, geht in der Persönlichkeitsentwicklung nicht etwas Zentrales verloren? Muss das Bildungswesen einschreiten? Kann man das überhaupt verhindern?

Gerade wurde Siham von ihrem Lehrer erwischt. Was heißt schon „erwischt“: „Warum soll ich nicht ChatGPT benutzen? Ist doch auch nicht groß anders als Googeln.“ Siham sucht in ihrem Chatverlauf mit ChatGPT, um welches Thema es ging, kann den Dialog mit der Sprach-KI aber auf die Schnelle nicht finden. Es war im Politikkurs, die Hausaufgabe hatte irgendwas mit Verfassungsorganen und dem Bundesrat zu tun. „ChatGPT hat da auch ganz gute Antworten geliefert, aber dann ist mein Lehrer stutzig geworden.“

„Das war Zufall“, sagt Lehrer Friedemann Gürtler. „Ich hatte mit ChatGPT gespielt und viele dieser typischen, abwägenden Antworten erhalten.“ Si­hams Sätze in der Hausaufgabe hatten einen ganz ähnlichen Ton. „Die abwägende Antwort hat nicht so recht zu der eindeutigen Fragestellung gepasst.“

Hat Siham etwas Verbotenes getan? Hat sie getäuscht? Plagiiert? Friedemann Gürtler war sich da auch nicht so ganz sicher. Also hat er Siham gebeten, ein Referat über ChatGPT zu halten. Da hatten schon die meisten SchülerInnen in Sihams Oberstufe von dem Programm mitbekommen. „Inzwischen nutzt jeder ChatGPT für die Schule“, sagt Siham. „Das ist total nützlich und auch richtig so. Nur wird es ab jetzt für die Lehrkräfte schwierig werden, die schriftlichen Leistungen zu bewerten.“

ChatGPT soll in Minnesota eine Juraprüfung bestanden haben

Dass Computer Fließtexte generieren, die sich nicht von jenen unterscheiden lassen, die Menschen verfassen, ist für die Lehre ein Riesenproblem. ChatGPT soll an der Uni von Minnesota sogar schon eine Juraprüfung bestanden haben. Auch im Theo­rieteil, den MedizinerInnen ablegen müssen, um in den USA praktizieren zu dürfen, hat ChatGPT locker die vorgeschriebene Mindestpunktzahl erreicht.

Warum also nicht einfach ChatGPT verbieten?

In den USA ist das teilweise schon geschehen, der Schulbezirk in New York hat sich dazu entschieden. In der EU feilen Kommission und Parlament seit zwei Jahren am Artificial Intelligence Act, dem ersten Regelwerk für KI. Sogenannte Hochrisikoanwendungen sollen dabei eingeschränkt werden wie die Gesichtserkennung oder die Prüfung der Kreditwürdigkeit. ChatGPT ist per Definition auch ein Hochrisiko, solange die generierten Texte nicht einer Person zugeschrieben werden. Irgendjemand muss ja dafür gerade­stehen, sollte die Maschine sexistischen, rassistischen, manipulativen, zusammengelogenen Mist verzapfen. Kann man Schulen so eine Maschine zumuten?

Berliner Firma bringt eigene Version heraus

Gerade einmal fünf Tage brauchte ChatGPT, um weltweit eine Million NutzerInnen zu erreichen. Kein anderer Onlinedienst hat diese Marke so schnell geknackt. Instagram brauchte knapp drei Monate, Twitter zwei Jahre. Der irrwitzige Hype überrascht auch Fachkreise, denn Sprachmodelle wie GPT, die bei Google LaMDA und bei Face­book OPT-175B und jetzt LLaMA heißen, gibt es schon etwas länger, auch wenn sie noch nicht frei nutzbar sind.

GPT steht für Generative Pretrained Transformer und ist ein neuronales Netz, dessen Verbindungen sich zwischen den Rechenknoten bei Erfolg verstärken. Dadurch lernt das Netzwerk, ähnlich wie unser Gehirn es tut. Die künstliche Intelligenz wurde mit massenhaft Textdaten trainiert: Artikel, Aufsätze, Blogeinträge, wissenschaftliche Papers, Belletristik, Kochrezepte – Millionen Texte, größtenteils aus dem Internet und ein beträchtlicher Stapel Fachbücher.

Es ist in etwa so, als hätte man ein Kind in eine Bibliothek gesperrt, wo es sich mit der Zeit einen Sinn aus den Texten zusammengereimt hat. Welcher Buchstabe folgt mit welcher Wahrscheinlichkeit auf den anderen? Welches Wort folgt auf welches Wort? Welche Wortfolgen passen grammatikalisch und inhaltlich zusammen? Auf der Grundlage von erlernten statistischen Wahrscheinlichkeiten imitiert ChatGPT menschliche Sprache und erzeugt mit jeder Anfrage einen neuen Text. In seiner inzwischen dritten Version macht das Programm das so gut, dass unsereins in der Regel die Luft wegbleibt.

Für ChatGPT wurde das bestehende Sprachmodell lediglich mit einer Chatfunktion garniert. Das macht es leicht, das Programm zu benutzen, und bringt auch noch Spaß mit ins Spiel. So können alle „prompten“, also eine Anfrage an das Programm richten. Und die Erfinder von ChatGPT konnten ihr Monster auf die ganze Welt loslassen, das seitdem durch die Prompts von derzeit weit über 100 Millionen Menschen weiter trainiert und verbessert wird.

„Mir wäre es lieber, wenn ChatGPT auch mal zugeben würde, dass es keine Ahnung hat“: Lilli, 10. Klasse Illustration: Christina S. Zhu

Dass diese kostbaren Daten gerade Sekunde für Sekunde den Internet­riesen durch die Lappen gehen, macht ChatGPT zu dem großen Ding, das es gerade ist. Zum ersten Mal spurtet Google nicht vorweg, sondern muss nachziehen. Hastig hat es sein eigenes künstliches Sprachmodell namens Bard veröffentlicht, das bei dessen Vorstellung gleich mal eine falsche Info verbreitete und die Aktie von Googles Mutterkonzern Alphabet absacken ließ. Chinas Suchmaschine Baidu antwortet derweil mit ihrem Chatbot Ernie.

Ernie und Bard, kein Witz. Und ausnahmsweise gibt es mit dem Heidelberger Unternehmen Aleph Alpha auch einen deutschen Player, der in Sachen KI auf Augenhöhe mitmischt.

Andere Firmen nutzen GPT3 für ihre Produkte, alle können die Sprach-KI kostenfrei in ihre Software einbauen. Zu diesen Firmen gehört auch Mindverse aus Berlin-Spandau. Geschäftsführer Noel Lorenz, 25 Jahre alt, spaziert durch die neuen Räume, in die er vor Kurzem mit seinem Team eingezogen ist. Sein Personal verdoppelt sich gerade, der hintere Trakt der Etage ist noch eine Baustelle.

„Von GPT3 war ich schon fasziniert, als es noch in der Beta­phase steckte“, erzählt Lorenz. Da war das Modell endlich in der Lage, selbstständig Muster in seinen Daten zu erkennen und menschenähnliche Texte zu erstellen. Das gelang, weil die KI mit einer Datenmenge trainiert wurde, die bald 1.500-mal so groß war wie die der Vorgängerversion.

Vor zwei Jahren gegründet, surft Mindverse nun auf der Erfolgswelle von ChatGPT mit. „Im Vergleich zu GPT kann Mindverse besser Deutsch und ist dank seiner Livedaten aus dem Internet moderner“, sagt Lorenz. ChatGPT greift nur auf Datensätze bis zum Jahr 2021 zurück. Seit zehn Jahren programmiert Lorenz, vor sieben Jahren hat er seine erste Firma gegründet, dann verkauft. Er hat ein bisschen Medizin studiert, ist aber lieber zu BWL gewechselt. Der schwarze Steve-Jobs-Rolli unter dem Sakko lässt erahnen, welche Richtung seine Karriere einschlagen soll.

Neben der Chatfunktion bietet Mindverse zusätzliche Feintuning-Modelle, die sich gezielter auf die Datensätze beziehen als bei ChatGPT. „Das neuronale Netzwerk antwortet nur so gut, wie es gefragt wird. Daher konkretisieren wir die Anfragen mit unserer Software.“ Eine Funktion ist dafür gemacht, Stichpunkte in Fließtext zu verwandeln, eine andere soll Aufsätze mit Thesen und Argumenten schreiben, die nächste werbewirksame Überschriften erfinden oder Songtexte dichten.

„Die KI wird ständig von unseren Power­usern trainiert und bewertet“, sagt Lorenz. Das bedeutet, dass das Sprachmodell weiter lernt und umso menschlicher wird, während es den Gesprächspartner spielt. Außerdem bezieht die Maschine Formeln ein, die die Lesbarkeit von Texten berechnen: das Flesch-Kincaid-Grade-Level, den Gunning-Fog-Index, den Coleman-Liau-Index. Diese Formeln zählen Buchstaben, Silben und Wörter und berechnen, wie verständlich ein Satz sein muss. Unabhängig von dessen Inhalt ist das wichtig für die Suchmaschinenoptimierung. Je besser die berechnete Lesbarkeit, desto höher das Ranking bei Google und Co.

Im Gegensatz zur ersten Version von ChatGPT gibt Mindverse auch die Websites an, die die KI als Quelle genutzt hat. Das könnte bei Hausarbeiten ein entscheidender Vorteil sein. „Wir haben bestimmte offizielle Websites als seriös eingestuft und bewerten Quellen höher, je häufiger sie verlinkt werden“, sagt Noel Lorenz. Außerdem hat der Mindverse-Kopf auch an den Datenschutz gedacht. Die Prompts und Entwürfe können über anonyme Konten verfasst werden.

Das hat Thomas Süße auf das Programm aufmerksam gemacht. Er steht vor einem Smartboard in den Räumen des Campus Gütersloh, einem schlichten weißen Gebäude hinter dem Bahnhof, auch „Gleis 13“ genannt. Die Studierenden machen hier hauptsächlich etwas mit Maschinen: Mechatronik, Engineering, Logistik, digitale Technologien. Sozialwissenschaftler Süße bringt die menschliche Komponente in die Maschinenwelt, indem er zur Transformation der Arbeit forscht. „Die Technisierung verändert, beschleunigt, erleichtert unsere Arbeit“, erklärt der Professor. „Sie setzt uns aber auch unter Druck.“

Technostress nennt Thomas Süße das, die Schattenseite der Digitalisierung. Er kritzelt blaue Pfeile und Kürzel an die Wand und denkt laut: „Bislang haben sowohl Hochschulen als auch Schulen nur sehr wenig wissenschaftliche Erkenntnisse darüber, wie Schüler und Studierende die Sprach-KI sinnvoll nutzen.“ Es gibt noch keine gesicherten Antworten. Wie auch, ChatGPT ist zu neu – und das Bildungswesen zu langsam. „Darum brauchen wir jetzt Grundlagenforschung, und zwar schnell.“

Doch Lernerfolg lässt sich nicht so einfach nachweisen. Gelernte Kompetenz, das umfasst neben Fachwissen auch kreatives Schaffen, kritisches Denken, Zusammenarbeit, die Fähigkeit, sich mitzuteilen. „Das sind alles persönlich empfundene und eingeschätzte Werte“, sagt Süße. „Mein Job ist es, diese schwer erfassbaren Variablen besser messbar zu machen.“ Dazu will er eine große Gruppe SchülerInnen befragen, die regelmäßig eine Sprach-KI nutzt.

Der Plan: Eine Klassenstufe soll ihre Facharbeit schreiben und dabei Mindverse verwenden dürfen. „Wir wollen wissen, welche Rolle die Sprach-KI spielt: ob sie Ideen einbringt, als Sparringpartnerin im Schreibprozess hilft, oder Co-Autorin wird.“ An der ersten Untersuchung werden 120 junge Leute teilnehmen. Wie praktisch, dass die benötigte Kohorte quasi vor der Haustür des Professors lernt.

Den richtigen Umgang mit ChatGPT lernen

Das Evangelisch Stiftische Gymnasium (ESG) in Gütersloh ist ein bisschen besonders. Protestanten gründeten es, als die ersten Maschinen begannen, die Arbeitswelt auf den Kopf zu stellen, und die Aufgaben des Handwerks übernahmen. Es heißt, hier würden RichterInnen, ChirurgInnen und ManagerInnen von morgen die Schulbank drücken.

Der in Gütersloh ansässige Medienkonzern Bertelsmann hat den Backsteinbau der Schule um eine verspiegelte Mediothek mit Tonstudio und Videoschnittraum ergänzt. Seit einem Vierteljahrhundert sind Laptops hier Teil des Unterrichts. Dank Lernplattform und Endgeräten wechselte das ESG im Lockdown spielend in den Distanzunterricht. Und auch bei der Verwendung von Sprach-KIs gibt es an dieser Schule nur wenig Berührungsängste.

Deutschlehrer Hendrik Haverkamp hat seine 8. Klasse erst neulich gegen ChatGPT antreten lassen. Die Aufgabe war eine Gedichtanalyse. Nachdem die Schülerinnen und Schüler ihre Arbeiten abgegeben hatten, kam die KI an die Reihe. Sie brauchte nur ein paar Sekunden, um ihren Text abzuliefern: eine fein strukturierte Analyse mit aufeinander aufbauenden Argumenten und ohne einen Rechtschreibfehler. „Das sah auf den ersten Blick nach einer hervorragenden Arbeit aus“, erzählt Haverkamp. „Nur war der Text inhaltlich komplett falsch.“

Sprachmaschine statt Wissensmaschine

Die KI schrieb das Gedicht „Berliner Abend“ von Paul Boldt lieber Erich Kästner zu und erzählte etwas über hübsche Naturbeobachtungen, die in Boldts Schilderungen nicht wirklich vorkommen. Die Argumente der Maschine waren teils erzkonservativ, teils weltfremd. Das erste Urteil der Klasse über ChatGPT: „Boomer-Tool“. „ChatGPT ist wie ein Insidergag: Ich verstehe ihn nur dann, wenn ich genug darüber weiß“, sagt Haverkamp.

Es ist Mittwoch, ein eisiger Morgen, erste Stunde, Deutsch. In der 8. Klasse sind die Laptops aufgeklappt, kein Heft, kein Stift liegt auf den Tischen. Lehrer Haverkamp steht vor dem Bildschirm an der Wand, wo früher mal eine Kreidetafel hing, und schickt ein paar Meldungen über Elon Musk auf den Monitor. „Welche Nachricht ist Fake und von ChatGPT, welche ist echt?“ Es gibt erste Vermutungen, der Schreibstil der KI ist der Klasse längst vertraut.

„ChatGPT macht keine Umschreibungen wie ‚Der 51-Jährige‘.“ „Das Wort ‚Milliarden‘ würde nicht mit,Mrd.' abgekürzt.“ Haverkamp zeigt der Klasse ein Tool, das künstlich generierte und von Menschen verfasste Texte unterscheiden können soll. Kann es aber nicht. Die Sprach-KI ist zu weit entwickelt, das Prüfungsprogramm aufgeschmissen. Dann kopiert ein Schüler fix einen Textbaustein der menschengemachten Meldung aus der Zeitung, sucht im Netz und findet die Quelle.

„Mir wäre es lieber, wenn ChatGPT auch mal zugeben würde, dass es keine Ahnung hat“, sagt Lilli aus der 10. Klasse. „Eine eigene Meinung würde ihr auch gut stehen.“ Im Projektunterricht beschäftigt sich die 16-Jährige gerade mit den sogenannten Neuen Medien. „Die KI relativiert alle Argumente und geht nicht so richtig in die Tiefe. Man braucht eigenes Wissen und muss skeptisch bleiben, damit man keine Fehler übernimmt.“ Bei Themen, für die es kein Richtig oder Falsch gibt, sagt Lilli, wenn es ethisch, emotional oder persönlich wird, dann sei ChatGPT blank.

ChatGPT ist eine Sprachmaschine, keine Wissensmaschine. Das Programm schwafelt, immer selbstbewusst, immer wieder inhaltsarm. Es verwendet Worthülsen, bedient sich aus Quellen wie Blogs oder der Boulevardpresse, ignoriert direkte Zitate, liest nicht zwischen den Zeilen, erzählt lieber irgendetwas, als gar nichts zu texten. Viele Floskeln, inflationär verwurstete Fremdwörter, sicheres Auftreten bei völliger Ahnungslosigkeit, eine Illusion des Plausiblen.

Dennoch arbeitet auch Lillis Mitschüler Max viel mit dem Sprachtool. „Wenn ich einen Aufsatz schreibe oder etwas programmieren will. Die KI verkürzt die Zeit für die Fleißarbeit, damit ich mehr Zeit für die Denkarbeit habe.“ Wegen der Sache mit ChatGPT waren auch schon mehrere Medienleute am Gymnasium und haben mit ihm gesprochen. Gerade erst kam ein Fernsehteam vorbei, erzählt Max. Die hätten für ihren Beitrag aber mal schön seine Antworten verdreht. „Es kam so rüber, als würde ich die KI aus purer Faulheit alle Hausaufgaben erledigen lassen.“ Ganz so einfach sei das nun auch wieder nicht.

Im Mai werden Max und Lilli ihre Facharbeiten schreiben, KI-unterstützt, für die Studie von Thomas Süße. „Ich kann mir vorstellen, dass das Programm eine Inspirationsquelle sein wird“, sagt Lilli. „Es hat mir vorher schon gute Überschriften oder auch Argumente vorgeschlagen, auf die ich selbst nicht gekommen wäre. Warum sollte ich solche Ideen nicht benutzen.“

Für die meisten SchülerInnen und Studierenden ist das noch nicht so selbstverständlich wie für Lilli und Max. Künstliche Intelligenz für eine Abschlussarbeit zu verwenden ist zwar kein Plagiat. Dafür müsste das geistige Eigentum einer Person gestohlen werden, und noch machen wir zwischen Mensch und Maschine einen klaren Unterschied. Jedoch kann man die Texte einer KI auch schlecht als eigenes geistiges Eigentum ausgeben. Das wäre eher als Täuschungsversuch zu werten.

Was ist erlaubt, was verboten?

Diese Art der vermeintlichen Täuschung bringt zwei Probleme mit sich.

Erstens: Das ohnehin schon überlastete Lehrpersonal müsste nach maschinellem Ghostwriting fahnden. Aber wann? Und wie? Schon jetzt bekommt es kein Tool hin, zielsicher KI-Content zu erkennen. Das wird auch in Zukunft kaum gelingen, da die Sprach-KI ja ständig besser, menschenähnlicher wird.

Zweitens: Wo fängt die Täuschung an? Ganz sicher, wenn man ganze KI-generierte Absätze verwendet. Aber auch schon bei ein paar Worten? Oder bei einer Idee, die mir von allein nicht eingefallen ist? Oder wenn ich meinen Text durch ein Rechtschreibprogramm laufen lasse? Wenn ich einen Taschenrechner benutze?

Im Gegensatz zu den USA scheinen es die Bundesländer nicht auf ein Verbot von ChatGPT abzusehen. Auf der Bildungsmesse Didacta in Stuttgart hieß es gerade: Sprach-KI hat zu viel Potenzial, um sie zu verbieten.

Seitens des Hessischen Kultusministerium hieß es: KI-Anwendungen könnten „Schülerinnen und Schüler individuell in ihrem Lernprozess unterstützen“. Viel konkreter wird es bis dato nicht. Immerhin veröffentlichte das nordrhein-westfälische Schulministerium einen Leitfaden zum Umgang mit KI. Darin wird die Arbeit mit Textrobotern nicht verboten, stattdessen auf die Pflicht der Schulen hingewiesen, ­Medienkompetenz zu lehren.

Eine Richtlinie, wie die Lehrerinnen und Lehrer künftig Leistungen prüfen sollen, hat noch niemand geschrieben. Und so scheint es, als würden wir der künstlichen Intelligenz genauso begegnen wie den anderen Krisen der jüngeren Zeit auch. Klima, Corona, KI-Weltherrschaft: Wir sehen es kommen, wir wissen, dass wir handeln müssen – und sitzen es lieber aus.

„Die Angst ist vor allem so groß, weil es an Erfahrung fehlt“, sagt Anja Strobel. Die Psychologin forscht im Bereich „Hybrid Societies“ an der TU Chemnitz daran, wie der Mensch mit der Maschine interagiert und ein vertrauensvolles Miteinander in der Arbeitswelt möglich ist. Strobel hat Interviews ausgewertet, die der Gütersloher Sozialwissenschaftler Thomas Süße mit ArbeiterInnen in einer Fabrik geführt hat. Sie sprachen darin über ihre Erfahrung, eine künstliche Intelligenz wie einen Azubi anzulernen.

„Wir haben uns angesehen, wie Menschen Roboter wahrnehmen, welche Eigenschaften sie ihnen zuschreiben und welche Aufgaben sie die Roboter übernehmen lassen“, erklärt die Psychologin. Denn der technologische Fortschritt entwickelt sich nur in die Richtung, die wir bereit sind mitzugehen. Der optimistische Weg ist der: Die KI wird viel Arbeit vereinfachen und Jobs nur dort ersetzen, wo sie neue schafft.

Die Maschinen könnten die anstrengenden, die monotonen Aufgaben übernehmen, sagt Anja Strobel, während die Menschen sich auf das Kreative, das Sinnstiftende, das Miteinander konzentrieren. „Doch das unberechenbare Neue macht uns nervös. Das kennen wir auch aus anderen Bereichen unseres Lebens.“

Was ChatGPT betrifft, hat Strobel weniger Sorge, dass es den universitären Alltag stark beeinflussen wird. „Wir haben einiges ausprobiert und unseren Spaß damit gehabt“, sagt die Professorin. „Manches kann das Programm gut, woanders versagt es grandios.“ Den Uni-Alltag würde die Sprach-KI zunächst wenig verändern. „Die Studierenden dürfen generell keine Texte für bare Münze nehmen, nur weil sie gut klingen.“ Die Prüfungen hat Anja Strobel auch vorher schon lieber mündlich abgenommen. „Das ist zwar sehr zeitaufwendig, aber im Gespräch kann ich ganz anders schauen, ob die Studierenden verstanden haben, was sie gelernt haben.“

Die starken Schüler lassen sich von den Argumenten der KI inspirieren

Wenn es nach Lehrer Haverkamp geht, ist dagegen der Punkt erreicht, den Unterricht und die Prüfungskultur grundlegend zu ändern. „Stellen Sie sich vor, Sie sollen Ihr Handy abgeben, das WLAN ausstellen und sich in einen Raum einschließen, um dort nach 90 Minuten mit einer ausgefeilten Darlegung Ihrer Standpunkte herauszukommen“, schildert er die gängige Prüfungssituation. „Im wahren Leben würde das niemand von Ihnen erwarten, aber genau das erwarten wir von unseren Schülern.“

Kann man das nicht verändern? Schwierig. Zwar sind die Lehrpläne längst kompetenzorientiert, was bedeutet, dass weniger Wissen, dafür mehr Fähigkeiten vermittelt werden. Aber in der praktischen Umsetzung bleibt es meist beim Pauken für den Wissenstest. Die KI kann das jetzt ändern. Vielleicht erzwingt sie es sogar. Denn sie würde es den Lehrkräften leichter machen, ihren Unterricht auf den Lernprozess zu beziehen. Will heißen: mehr Weg statt Ziel, mehr Entwicklung als das geschriebene Ergebnis.

Vom „Flipped Classroom“ ist schon lange die Rede. Dort sollen Hausaufgaben und Vermittlung des Stoffs vertauscht werden: zu Hause Inhalt erarbeiten, im Unterricht anwenden. Die Sprach-KI als Lernassistent macht’s möglich. Ganze Unterrichtsstunden würden hinfällig, weil die Grundlagen ein Programm übernehmen könnte. „Dann müsste ich die Klasse nicht mehr zu stumpfsinnigen Aufgaben ermutigen, die ich danach stumpfsinnig korrigieren muss“, sagt Haverkamp. „Stattdessen könnte ich die Zeit für Feedback nutzen und die Schülerinnen und Schüler individuell betreuen.“

Noch bevor die Studie über die Facharbeiten am Gymnasium in Gütersloh beginnt, hat Haverkamp schon eine Ahnung, was dabei herauskommen wird. Der Deutschlehrer ließ bereits eine Arbeit schreiben, bei der die Klasse ChatGPT nutzen durfte. Die von der KI stammenden Argumente sollten die SchülerInnen kenntlich machen. „Die besten Noten bekamen diejenigen, die die wenigsten KI-Anteile übernommen hatten. Sie ließen sich nur inspirieren. Je schwächer die Schüler in der Arbeit waren, desto mehr hatten sie übernommen.“

Bildungsschere wächst durch Sprach-KIs

Daraus ergibt sich neben der Frage der Prüfung und der Täuschung ein viel größeres Problem: die Bildungsschere. „Die starken Schüler profitieren am meisten von der KI“, sagt Haverkamp. „Sie können die Technologie reflektierter einsetzen. Die einen nutzen die gewonnene Zeit zum Lernen, die anderen für außerschulische Hobbys.“

Die KI könnte die Schere gleich in vielerlei Hinsicht auseinandertreiben: zwischen den Schulen mit besserer und schlechterer Ausrüstung, zwischen den leistungsstärkeren und leistungsschwächeren Schülerinnen und Schülern – und auch zwischen den Armen und Reichen, wenn die kostenpflichtige Premium-Sprach-KI mal besser sein wird als die herkömmliche.

Und das gilt nicht nur für Uni und Schule. Wir alle begegnen künstlicher Intelligenz, benutzen sie aktiv oder unbewusst. Die einen wissen, dass sie von einer Maschine mit Infos geflutet werden. Andere lassen sich eventuell beeinflussen. Wahrscheinlich wird es bald normal sein, dass wir zwischen KI-Inhalten und von Menschen verfassten Texten unterscheiden, zwischen Billigware und feingeistigem Handwerk. Sofern wir den Unterschied überhaupt merken.

In dieser Woche hat OpenAI sein neues Sprachmodell GPT4 veröffentlicht. Im Vergleich zu seinem Vorgänger GPT3 hat es einen fünfmal so großen Datensatz und kann statt nur in Textform auch in Bildern antworten.

taz lesen kann jede:r

Als Genossenschaft gehören wir unseren Leser:innen. Und unser Journalismus ist nicht nur 100 % konzernfrei, sondern auch kostenfrei zugänglich. Texte, die es nicht allen recht machen und Stimmen, die man woanders nicht hört – immer aus Überzeugung und hier auf taz.de ohne Paywall. Unsere Leser:innen müssen nichts bezahlen, wissen aber, dass guter, kritischer Journalismus nicht aus dem Nichts entsteht. Dafür sind wir sehr dankbar. Damit wir auch morgen noch unseren Journalismus machen können, brauchen wir mehr Unterstützung. Unser nächstes Ziel: 40.000 – und mit Ihrer Beteiligung können wir es schaffen. Setzen Sie ein Zeichen für die taz und für die Zukunft unseres Journalismus. Mit nur 5,- Euro sind Sie dabei! Jetzt unterstützen

Mehr zum Thema

46 Kommentare

 / 
  • Im "Bildungsbürgertum" haben die Eltern schon immer den Kindern bei Schularbeiten geholfen oder sie sogar gemacht.



    Also ist der neue KI- Elternhelfer nur ein Stück Gleichberechtigung mehr und macht bei intelligentem Einsatz nicht dümmer sondern schlauer. Die Lehrer sollen nicht so tun als ob sie unersetzbar wären. .



    Und wir wissen doch wie viele Politiker bei ihren Doktorarbeiten "Unterstützung" hatten...

  • > Künstliche Intelligenz für eine Abschlussarbeit zu verwenden ist zwar kein Plagiat. Dafür müsste das geistige Eigentum einer Person gestohlen werden, und noch machen wir zwischen Mensch und Maschine einen klaren Unterschied

    Sorry, das sehe ich anders, wenn die KI mit ganzen Büchern, Fachzeitschriften und Artikeln trainiert wurde, wurde am Ende geistiges Eigentum vieler Autoren und Journalisten verwendet bzw. Copyrights verletzt - vermutlich ohne die Autoren zu fragen oder informieren, geschweige denn sie finanziell zu entschädigen. Das Geld kassieren andere.

    Ein bewährtes Prinzip im Internet…

  • Danke für den kompetenten Artikel, eine solche Qualität findet sich nicht oft in der Presse!

    Zum Kern: jede technologische Erneuerung führt zur Infragestellung unseres Selbstbildes. In den 60ern sah man noch das Schachspiel als Metapher für die Intelligenz, 20 Jahre später konnte es die Maschine besser niemand sieht heute mehr Schachprogramme als besonders intelligent an. Was hat das mit den Sprach KIs zu tun?

    Die stellen unsere Idee von Originalität und Urheberschaft in Frage. Man sagt, wer schreiben möchte sollte erstmal viel, viel lesen. Halt, ist das nicht die Vorgehensweise von Sprachgeneratoren?! Also, viel gelesen und zwar soviel, daß man gar nicht mehr weiß, woher die "Inspiration" eigentlich kommt. In Wirklichkeit "plagiieren" wir von morgens bis abends und lediglich bei Kleinkindern fällt uns noch auf, daß dieses Gequatsche nachgeplappert und unverstanden ist. Der erste Beruf, der durch KI wegfällt ist Ghostwriter für Politiker.

    Originalität ist sehr oft nur eine Illusion, tatsächliche Kreativität ist bei den Menschen extrem, extrem selten. Karl Valentin sagte "Es ist zwar schon alles gesagt, aber noch nicht von jedem." OK, das war kreativ und darum zitierbar!

    Wir sollten uns von der Idee geistigen Eigentums verabschieden, die ist nicht haltbar und die Funktionsweise von Sprachgeneratoren ist der Beweis.

  • Guter, differenzierter Artikel. Hat sich für mich gelohnt ihn zu lesen.



    Meine Erfahrung mit ChatGPT ist übrigens: Je mehr Ahnung man von einer Sache hat, desto mehr muss man den Bot korrigieren, wenn er einen kurzen Beitrag zu dem Thema verfassen soll.

    • @Reiner Wadel:

      So what. Die meisten Leute und vor allem auch SchülerInnen haben von fast allem sehr wenig Ahnung.

      Die falschen Fakten, die in die Texte eingeNewarbeitet werden, bleiben unberücksichtigt.

      Damit wird der Wert von Fakten auf Dauer noch mehr relativiert und es werden neue Varianten von Fake News in die Welt gesetzt.

      Brave New World.

      • @cazzimma:

        Warum "Brave New World"? - Es war noch nie anders...

  • KI kann meiner Ansicht nach weder kreativ noch Humor, weshalb sie sich immer dann selbst entlarvt, wenn genau das gefordert ist.

    Aus der Kolumne Kreativ kann ich auch! von Anic T.:

    „Man könnte sagen, dass unsere Kolumne eine machtvoll raffinierte Artort ist. Wir bieten ein bestaunliches Schlemmerbuffett leckerer Klassiker, anstatt mit findunfreundlichem Diebespackdenken zu arbeiten. Wir liefern Designbooster und Nahrungsmittel-Liebeleckerbissen, die den Bedarf des Lesers vollkommen erfüllen.“

    Mag sein, dass viele Hausarbeiten von Schüler*innen oder Studierenden überwiegend per Copy and Paste zusammengeschustert sind. Weshalb sich die sie Unterrichtenden prüfen sollten, was genau sie abfragen: Abgespeichertes Wissen oder aus erworbenem Wissen abgeleitete eigene Gedanken und Schlüsse. Für Ersteres mag ChatGPT ausreichen, für Letzteres nicht.

    Und zum Humor: Vielleicht mag Anic T. ja am nächsten Wahrheit-Unterbring-Wettbewerb teilnehmen? Ob die Kolumnistin allerdings eine Flasche Gran Duque d’Alba als Preis zu schätzen weiß bleibt zweifelhaft.

  • Ich habe ChatGPT mal gebeten, einen Kommentar hierzu zu schreiben:

    "Als KI-Modell bin ich programmiert, um sachliche und neutrale Antworten zu geben. Jedoch muss ich darauf hinweisen, dass der Artikel, den Sie verlinkt haben, ein satirischer Beitrag ist und nicht ernst gemeint ist. Es ist eine fiktive Darstellung einer Zukunft, in der KI-Modelle wie ich als Lösung für die Bildungskrise dienen. Es ist wichtig zu betonen, dass KI-Modelle nicht alleinige Lösungen für komplexe Probleme wie die Bildungskrise sind, sondern nur ein Werkzeug, das von Menschen genutzt werden kann, um die Bildung zu verbessern."

  • Ein Problem der Künstlichen Intelligenz ist, dass sie enorme Energiemengen benötigt. Laut DLF erfordert eine Suchanfrage mit KI zehnmal so viel Energie wie ohne. Liegt es am Maschinenlernen? Wer weiß. Aber es ist Energie, die irgendwie erzeugt werden muss. Bevor wir die ganze Welt mit KI überziehen, sollten wir das bedenken.

    • @Patricia Winter:

      Dauerhaft beleuchtete Objekte brauchen unnötig Strom. Krypto-Währungen benötigen unnötigen Strom. Video-Streaming, Soziale-Netzwerke ... ja eigentlich fast alles braucht Energie.



      Eine grundlegende Diskussion darüber könnte fast endlos werden.

  • Wenn Schüler schriftlich KI einsetzen, müssen mündliche Prüfungen stärker in den Vordergrund gestellt werden. Dann sieht man ja, ob der Schüler sein KI-Geschreibsel verstanden hat.

    • @Kappert Joachim:

      Nein. Das benachteiligt wieder alle, die sich schriftlich besser ausdrücken können. Bevorzugt werden dann wieder einmal die Blender und Schwafler.

    • @Kappert Joachim:

      Das ist LehrerInnen ja völlig klar.

      Wie aber der Wert des Lesens, Denkens und selbstständigen Schreibens eines Textes weiter vermittelt werden soll, wenn ich mich so prima bedienen lassen kann, wird ab sofort extrem schwierig werden.

      Und ja, die Verblödung schreitet munter voran. Der Mensch gibt seine Verantwortung ab.

    • @Kappert Joachim:

      👍

    • @Kappert Joachim:

      Völlig richtiger und konstruktiver Ansatz.

  • Es muss und wird einen Wertewandel in der Bildung geben.

    Aktuell dient die Bildung ja vorwiegend dazu, Individuen zu schaffen deren Arbeitskraft vom kapitalistischen System optimal ausgeschöpft werden kann.

    Und wenn man das als Ziel sieht, haben KIs sogar Bildungsvorteile.

    Nur wenn man Bildungserfolg nicht nur am Erreichen von Lernzielen misst sondern den Erfolg der Kreativität einbezieht kann Bildung gelingen.

    Das ist auch heute schon so - kann aber NOCH ganz gut kaschiert werden.

    Läßt man die Kreativität (und damit die Individualität) als Lernprinzip zu, dann macht das Schreiben von irgendwelchen Texten als kreativer Prozess sogar Spaß.

    Oder das einsetzende Verständnis für Zusammenhänge in der Natur als Erfahrung der eigenen Intelligenz.

    Aber ich fürchte, dass wird die Lehrer schlicht überfordern.

    Zumal wir ja nehmen müssen was wir kriegen.

    • @Bolzkopf:

      Aus der Schule müssen junge Menschen kommen, die die Grundlagen der Gesellschaft erhalten können. Egal in welchem System. Dazu ist vor allem Wissen notwendig. Und die Fähigkeit, es kreativ anzuwenden.

      Übrigens. Individuelle Mathematik ist in den meisten Berufen kontraproduktiv.

    • @Bolzkopf:

      „Aktuell dient die Bildung ja vorwiegend dazu, Individuen zu schaffen deren Arbeitskraft vom kapitalistischen System optimal ausgeschöpft werden kann.“

      Oder, wenig bildung, bzw. Eingeschränkter Informationszugang dient dazu in diktatorischem und kommunistischen Systemen Kräfte zu produzieren, die nichts in Frage stellen und optimal manipuliert werden können.

      Fragt sich nur was besser ist. Gibt es Systeme dazwischen?

      • @fly:

        "Eingeschränkter Informationszugang dient dazu in diktatorischem und kommunistischen Systemen Kräfte zu produzieren, die nichts in Frage stellen und optimal manipuliert werden können."



        Ein Gesellschaftssystem namens Kommunismus hat bis jetzt nicht existiert. Auch wenn ein oder zwei Hansel sich dazu berufen gefühlt haben, ihren Laden so zu labeln. Ein "Dazwischen" wäre meiner bescheidenen Meinung nach nicht erstrebenswert, sondern nur eine Weiterentwicklung, sonst hätte man nur die Schnittmenge beider Versionen, und das ist der mangelhafte Teil.

        • @Wurstfinger Joe:

          Das Gleiche wird über den Sozialismus auch immer gesagt. Hats nie gegeben, alles was sich so bezeichnet hat, war kein echter Sozialismus bzw. Kommunismus.



          Fakt ist, überall da wo Menschen vorgegeben haben, Kommunismus oder eben "Realsozialismus" zu etablieren -und das waren mit der Weltmacht UDSSR, den Staaten des Warschauer Pakts, China, Vietnam, Nordkorea, Kuba, etliche Versuchen in Afrika und Südamerika natürlich weit mehr als "ein paar Hanseln"- sind sie in Diktaturen bzw. im wirtschaftlichen Desaster geendet.

          Es hat schlicht etwas Religiöses an sich, hinsichtlich all der gescheiterten Versuche ein theoretisches Konzept als großen Heilsbringer zu propagieren, für das nie der Beweis erbracht wurde, dass es demokratisch und praktikabel umsetzbar sein kann.

          Dass heißt nicht, dass es in einer Gesellschaft prinzipiell nicht möglich sein kann, auch erfolgreiche sozialistische Ideen und Politik umzusetzen. Aber die Schatten der realen Umsetzungsversuche zu leugnen, bzw. zu externalisieren ist schlicht unreflektiert.

          Und in dem Satz "ein Dazwischen ist ...nicht erstrebenswert" liegt genau des Pudels Kern. Kompromisslos eine Gesellschaft umzukrempeln und die Menschen mit all ihrer Meinungsvielfalt und Individualität auf Linie zu bringen, ist demokratisch einfach nicht umsetzbar.

          • @Deep South:

            Ich habe nie behauptet, daß Kommunismus oder (Real)Sozialismus die großen Heilsbringer sind. Wären sie vielleicht, wenn Mensch Vernunft nicht nur simulieren würde und "Leben und leben lassen" das oberste Prinzip wäre. Aber so geht es in allen Bereichen weiter mit Vollgas gegen die Wand (und nicht nur in der Bildung).



            Um eine Gesellschaft umzukrempeln, ist eben auch Bildung notwendig, denn Meinungsbildung sollte auf der Grundlage von Wissen erfolgen, aber gerade daran mangelt es doch immer mehr. Stattdessen "unterstützen" dabei meist eine Handvoll Medienkonzerne, die auch nur ihre Agenda vertreten. Und für die genügsameren Gemüter werden die Lücken durch Schwurbler und Bauernfänger dankbar ausgefüllt. Als Sahnehäubchen kommt noch dieser beschriebene Zustand obenauf: www.youtube.com/watch?v=DlhtPPAhIv0



            Da stellt sich mir die Frage, ob man ein kaputtes System bis zum bitteren Ende beibehalten sollte oder ob nicht grundlegende Reformen zielführender wären.



            PS: Übertriebener Individualismus bei Herdentieren (und der Mensch ist nun mal eins) führt in der freien Wildbahn meist zum frühzeitigen Ableben.

            • @Wurstfinger Joe:

              Ich gehe da mit Vielem mit. Allerdings ist der Mensch eben wissenschaftlich gesehen kein Herdentier. Sondern wie die meisten Primaten ein Gruppentier, dass sich in Kleingruppen organisiert. Genau daran scheitert ja die Idee einer homogenisierten Gesellschaft immer wieder.

  • Mitte der 90er gab es in unserer Schule mal eine Diskussion, was den Besitz an Produktionsmitteln ersetzen würde.



    Ich meinte damals recht naiv, es wäre Bildung und wurde ausgelacht. Information wäre die neue Währung.



    Doch im Nachhinein muss ich meinen Mitschülern widersprechen. Ohne Bildung kann ich die Information gar nicht nutzen. Wie man jetzt an den Schwächen der Chatbots erkennt.

  • 6G
    669190 (Profil gelöscht)

    Der große Lehrkraftmangel rollt bereits los und selber denken ist nicht mehr angesagt…



    Welche Experten muss man denn da noch befragen, einsetzen oder ellenlange Artikel schreiben lassen, um nicht jetzt schon zu wissen, dass “der Schuss nach hinten losgeht”?

    KI & Digitalisierung macht’s möglich, dass Menschen immer mehr verblöden.



    So einfach ist das!

    • @669190 (Profil gelöscht):

      Ja. Deshalb gibt's auch bald keine Demokratie mehr.

      Das geht Hand in Hand.

  • Meine Hausaufgaben-Intelligenz hieß ja damals noch Karin, die hat das auch prima gemacht!

    • @Nafets Rehcsif:

      Eine hübsch intelligente Vorstellung:



      Karin für Alle!

      • @Willi Müller alias Jupp Schmitz:

        Laß meinen Namen trotz K…mal wech.



        In der Oberstufe war das unter drei Schülern aufgeteilt! Der Rest schrieb ab.



        Mein Job war Mathe! Woll.



        Gestehe - daß ich öfters wg Regatten etc. es verbaselt hatte: dann klempnerten wir‘s zu dritt in der ersten Stunde zusammen!



        KI - was es eh nicht gibt - brauchte niemand •

        • @Lowandorder:

          KI gibt's schonn



          Karin's Intelligenz - oder?

          • @Willi Müller alias Jupp Schmitz:

            Hola - en passant - ( 🎺🎺🎺 quälen) -



            Aber daß am Fuße des Kahlen Waasen sojet um die Ecke gedacht … schonn schön! Newahr.



            Normal.

  • 6G
    659554 (Profil gelöscht)

    Ich weigere mich etwas was als "Intelligenz" zu bezeichnen, das letztenendes nur mit brachialer Rechengewalt Bruchstücke aus dem Netz neu zusammensetzt, wie ein Hochseetrawler mit dem Schleppnetz.

    Und warum wird eigentlich nie dwr unglaubliche Ressourcenverbrauch der angeblich so virtuellen Digitalisierung, höher als bei irgeneiner anderen Technologie, thematisiert, sowie der ständig zunehmemde Energiehunger der Datacenter und Suchmaschinen?

    • @659554 (Profil gelöscht):

      Sind Sie ganz sicher, daß wir Menschen nicht auch bloß Bruchstücke aus den Informationen die seit unserer Zeugung auf uns eingeströmt sind neu zusammensetzen? Auch gedankliche Höchstleistungen von Charles Darwin und Albert Einstein beruhen doch auf gemeinschaftlich bereits erworbenen Wissens. Letztendlich ist die Frage ob unserer Gehirn nur ein sehr leistungstarker Biocomputer ist oder ob dort irgenwo so etwas wie ein freier intelligenter Wille schlummert.



      Ich hoffe ja aber ich fürchte nein.

    • @659554 (Profil gelöscht):

      Es ist ja auch eine Übersetzung aus dem Englischen. Dort hat "intelligence" wie jedes Wort nun mal eine eigene, in dem Fall viel breitere Bedeutungsspanne und ist dazu ja auch noch mehrdeutig, also oft auch gar nicht wörtlich zu übernehmen. Wo es in feststehenden Verbindungen getan wird, wie bei KI oder "intelligenten Waffen", liegt immer schon ein Anglizismus vor, der muss nicht so erkannt werden und kann sich natürlich rasch einbürgern. Bei Übersetzungen geht immer was verloren, aber das ist unvermeidbar und nicht neu. Neu ist auch nicht, dass Brute Force funktioniert. Video und Display arbeiten im Prinzip doch ähnlich, endlose, farblose, formlose Zahlenvektoren, auf denen mit unmenschlicher Geschwindigkeit gerechnet wird und die kaum langsamer in Millionen bunte Pixel abgebildet werden, was zählt ist die User-Illusion auf einer höheren Ebene, Emergenz. Vielleicht das (techn.) Prinzip Computer überhaupt. Und vielleicht gar kein kompletter Zufall, dass diese Systeme bei unerwartetem Input (adversarial) nicht nur ganz ähnlich verrauschte Texte und Bilder spucken können sondern oft selbst auf GPUs basieren. Nur dass die Nodes anders als gewöhnliche Pixel auch ihre Nachbarn kennen, sie sind alle miteinander verbunden, oder fast alle. Mit die größten Stromfresser sind und waren übrigens schon immer abermals die Schnittstellen, Bildschirme. Und es wirkt doch etwas kurios, sich dabei jetzt auf eine Anwendung einzuschießen. Der Saft war nie "grüner", aber in den USA ist er bedeutend billiger als bei uns und dass sich das mal rächen kann, war auch lange klar. Vielleicht nicht warum und wofür überall. Aber das ist noch ein Witz verglichen etwa mit den Hürden, die uns unser Lizenzrecht und Verständnis geistigen Eigentums dahingehend legt. Von wegen Schleppnetz. Die Entwickler aus dieser Verlegenheit heraus bloß zu diskreditieren wird auch diesmal keine Lösung sein. Das heißt noch lange nicht, dass sich das in jeder Schule breit machen muss. Ich kann NY verstehen.

    • @659554 (Profil gelöscht):

      Lieber Marmottie27, vielleicht probierst du das einfach mal aus. Intelligent ist das System nicht, aber es produziert deutlich mehr als eine zufällig zusammengewürfelte Buchstabensuppe. Es ist aber nur ein Tool, über den angemessenen Einsatz müssen immer noch die intelligenten Systeme (Menschen?) entscheiden.

  • Der Artikel lässt mich an Friedrich Merz denken. Der sondert auch ständig geschliffene Floskeln ab, mit denen man nichts anfangen kann, die sich aber wunderschön anhören. Nicht umsonst wird an einigen Business Schools intensiv Rhetorik gelehrt.

    Als Mathematiker scheine ich auf der sicheren Seite zu sein, und ich fürchte mich nicht. Sollte ChatGPT einen Beweis einer meiner Vermutungen präsentieren oder diese widerlegen und ich das von Hand nachvollziehen können, so wird die Maschine von mir als akzeptabel eingestuft werden. Vorher nicht.

    • @Nairam:

      Warum sollten sie als Mathematiker auf der sicheren Seite sein?

      Das erscheint mir als ein Feld, dass für KI-Systeme prädestiniert ist. Nur weil ChatGPT noch nicht ausreichend darauf trainiert wurden heißt das ja nicht, dass nicht die Version 6 nächstes Jahr plötzlich ein "Mathe-Ass" ist. Die Entwicklung schreitet rasant vorwärts.

      Interessant wird es übrigens erst richtig, wenn ChatGPT mit einem Dienst wie Wolfram Alpha kombiniert wird. Das wird die Qualität der Ergebnis nochmal ungemein verbessern.

  • "Das Programm schwafelt, immer selbstbewusst, immer wieder inhaltsarm"



    Klingt nach den Texten unserer Schüler. Die schwafeln auch gerne inhaltsarm.

    "Schere [...] zwischen den leistungsstärkeren und leistungsschwächeren Schülerinnen und Schülern"



    Das, habe ich letztens gelernt, sehen einige Lehrer gar nicht als Problem.

    Noch was: Hausaufgaben (was nicht gleichgesetzt ist mit Hausarbeiten) werden, zumindest bei uns, sowieso nicht benotet. Derzeit macht sie noch Mutti, demnächst die KI. Was soll's. Ich gebe seit Jahren keine mehr auf.

    Die wirklichen Probleme sind, dass die Kinder nicht lesen können, und Schwierigkeiten haben, aus einem Text Informationen zu entnehmen und Falschinformationen zu erkennen. Das wird auch eine KI nicht ändern, besonders nicht die derzeitigen, die dermaßen ungenau und oberflächlich bleiben. Auch das haben sie mit den Schülern gemein. Vielleicht benutzen die seit Jahren schon KI und wir haben es nur nicht gemerkt. Oder vielleicht ist die KI perfekt, nur leider auf dem Stand eines 14-jährigen stehengeblieben.

  • So kritisch man diese Entwicklung sehen muss, aber jugendliche, die sich dem verweigern würden, haben höchstwahrscheinlich später im Berufsleben eine fatale Lücke.

    • @fvaderno:

      Um eine KI zu nutzen braucht es keine großartigen Fähigkeiten. Von der Anwendung her ein simples Werkzeug.

    • @fvaderno:

      Die fatale Lücke ergibt sich dadurch, dass die Schüler nicht lernen, ihr Gehirn zu benutzen.

      Der Sinn von Schule ist, Kindern Wissen zu vermitteln und sie zu lehren, es anzuwenden. Wenn Teil 2 KI übernimmt, kommen aus den Schulen nur noch Idioten, die sich hauptsächlich als Dampfplauderer eignen.

    • @fvaderno:

      Und das erden dann die Jünger des 5.Bildungsweges (youtube etc) die gegen Coronadiktatur auf die Straße gehen weil in den prägenden Jahren niemand da war ihnen den Gebrauch des eigenen Vertstandes zu vermitteln...

  • 1. Hausaufgaben bringen kaum was, sind oft nur Schikane bzw. verfrachten die originäre Aufgabe der Lehrenden in die Familien. „Wissenschaftliche Studien der vergangenen Jahrzehnte konnten kaum positive Effekte auf die Lernleistung durch Hausaufgaben ausmachen.“ (Schulportal)



    2. Im Zweifelsfall hieß bisher die KI hinter den Hausaufgaben nicht Bot sonder Mama oder Papa. Insofern bieten die Tools Chancen für Kinder mit nicht so ambitionierten Eltern.



    3. Eine Überprüfung ob Bot/Mama/Papa oder Schüler_In ist nicht kompliziert. Einfach die mitgebrachten Aufgaben aus dem Kopf referieren/paraphrasieren lassen.



    4. „OpenAI's ChatGPT, Google's Bard, and Microsoft's Sydney are marvels of machine learning," (..) "ChatGPT exhibits something like the banality of evil: plagiarism and apathy and obviation." (…) "Given the amorality, faux science, and linguistic incompetence of these systems, we can only laugh or cry at their popularity," (Die Linguisten Noam Chomsky und Ian Roberts sowie KI-Theoretiker Jeffrey Watumull)



    siehe auch hier:



    www.tagesspiegel.d...igenz-9520103.html

    • @guzman:

      Gegenrede: Hausaufgaben bringen sehr viel: ohne Praxis/Übung bleibt man hilflos. Grundlagen, wie z.B. gut mit Zahlen umgehen zu können, können nur durch Übungen erlernt werden.

    • @guzman:

      Hausaufgaben können schon einen Sinn ergeben. Aber nicht unbedingt den, den manche Lehrer dahinter vermuten.



      Wurde beim Schulportal denn gesagt, welchen Zweck man geprüft hat? Welche Art von Hausaufgaben geprüft wurden?



      Und ich welchen Klassenstufen nach dem Lernerfolg gefragt wurde. Da gibt es so große Unterschiede, dass man kaum alles über einen Kamm scheren kann.



      Und die Frage, ob die KI ein Problem darstellt oder nicht, hängt natürlich ebenfalls von genau diesen Faktoren ab.



      Meine These: Es gibt gute und schlechte Hausaufgaben. Bei den guten wird die KI auf positive Weise helfen können, bei den schlechten schadet es den Schülern nicht, wenn sie sich von der KI die Arbeit abnehmen lassen.

      • @Herma Huhn:

        ...Hausaufgaben spiegeln wieder, ob die Lehrkräfte ihren Bildungsauftrag, gegenüber ihren Schülern, erfüllt haben...