piwik no script img

Künstliche Intelligenz an UniversitätenEine neue Ära des Studierens

Über 90 Prozent der Studierenden nutzen im Studium KI. Ex­per­t*in­nen und Beteiligte streiten, ob das der Lehre und dem Lernen hilft oder schadet.

Studierende, die Chatbots für ein Essay verwenden, erinnern später kaum, was sie geschrieben haben Foto: Matthias Bein/picture alliance/dpa

Berlin taz | Ginge es nach Stephan Krusche, würden alle Menschen in Deutschland zu KI-Gurus werden. Weil das aber wohl unmöglich ist, kümmert sich der Informatik-Professor der Technischen Universität München (TUM) fürs Erste um seine Studierenden und Kolleg*innen.

Wer ihm zuhört, merkt schnell, wie begeistert Krusche auf die neue Welt der künstlichen Intelligenz (KI) blickt. Bereits kurz nach der Veröffentlichung von ChatGPT im November 2022 brach für ihn und die gesamte Tech-Branche eine „Goldgräber-Stimmung“ aus: Immer tiefer hinein in den digitalen Wilden Westen, um „Ideen, die wir nicht umsetzen konnten, weil die Technologie limitiert war“, endlich zu realisieren.

Krusche ist überzeugt, dass KI die universitäre Bildung revolutionieren kann: Stu­den­t*in­nen müssen dank KI-Tutoren nicht mehr ewig auf Feedback warten. Überlastete Professoren können sich bei der Erstellung von Kurs­inhalten helfen lassen. Bestenfalls bekommen auch Bürofachkräfte oder wissenschaftliche Mit­ar­bei­te­r*in­nen künftig weniger stupide Aufgaben übertragen – es gibt ja die KI.

Doch nicht jeder denkt so. Manche sehen im Chatbot-Hype den nahenden Zusammenbruch der Hochschulbildung. Wo sich beide Seiten einig sind: KI ist längst nicht mehr aus den Laptops der Studis wegzudenken.

KI inzwischen fester Bestandteil des Studiums

Das bestätigt eine Studie der Hochschule Darmstadt. Aktuell nutzen über 90 Prozent der Studierenden KI-basierte Tools für die Uni – vor zwei Jahren waren es noch 63 Prozent. Binnen weniger Jahre, so die Autor*innen, habe sich KI „von einer punktuellen Hilfestellung zu einem festen Bestandteil des Studiums entwickelt“.

Daraus machen Studierende auch keinen Hehl. Eine Berliner Studentin der Politikwissenschaft etwa erzählt der taz, dass sie ChatGPT gerade zur Vorbereitung auf eine Prüfung in einem Spanischkurs nutzt. Sie hat dazu einen Prompt eingegeben, der die KI auf Basis bisheriger Seminarinhalte neue Übungsaufgaben produzieren lässt. Gerade füllt sie Wortlücken mit Vokabeln aus. Die KI als Lernassistent? „Ich kann das nur empfehlen“, sagt sie.

Auch die Zusammenfassung von Forschungsliteratur durch die KI ist bei Studierenden beliebt, um sofort die Kernaussagen bisweilen langatmiger Journalartikel vor sich zu haben.

Ein Student der TU München, der anonym bleiben möchte, gibt zu: „Ich habe keinen Satz selber geschrieben in meiner Bachelorarbeit.“ Er habe aber natürlich selbst die inhaltlichen Überlegungen gemacht, Literatursichtung mal ausgenommen, da habe ihm auch eine KI geholfen. Dafür hat er seine Stichpunkte der KI gegeben und gesagt: „Paraphrasiere mir das mal in einem scientific Ton.“

Grundsätzlich warnen Hochschulen davor, sorglos Aufgaben an KI auszulagern, etwa in der Textarbeit. „Ein KI-Modell kann bestenfalls Daten zusammenfassen, wobei ich selbst da skeptisch bin“, sagt Martin Wan, Projektleiter der Hochschulrektorenkonferenz (HRK) beim Hochschulforum Digitalisierung. „Wenn es heißt, ein KI-Modell fasst Informationen eines Textes zusammen, dann fasst es diese in der Regel nicht analytisch verstehend zusammen, sondern es kürzt bzw. verkürzt sie algorithmisch.“

Die HRK ist ein Zusammenschluss von 271 deutschen Hochschulen und beteiligt sich am Hochschulforum, einem vom Bundesforschungsministerium geförderten Thinktank, der sich schwerpunktmäßig mit Herausforderungen durch Digitalisierung und KI beschäftigt.

Fähigkeiten wie Textverständnis könnten verloren gehen

Aus Sicht von Wan werde insbesondere die Quellenkritik im Zeitalter computergenerierten Denkens „noch wichtiger als jemals zuvor“. Er sieht seinen Auftrag auch darin, „im Sinne der Persönlichkeitsentwicklung“ darauf hinzuwirken, dass Studierende KI-Modelle souverän benutzen.

Die Selbstverständlichkeit, mit der Studis KI einsetzen, stört auch Martina Thiele von der Uni Tübingen. Die Professorin für Medienwissenschaft sieht die Gefahr einer Abhängigkeit, des Verlernens von Kulturtechniken wie dem Lesen und Verstehen längerer Texte oder dem eigenständigen Entwickeln schlüssiger Argumentation. Ex­per­t*in­nen sprechen von „De-Skilling“, also dem Verlorengehen von Fähigkeiten, weil man sie zu wenig trainiert.

Die Gründe, vermehrt auf KI zurückzugreifen, liegen laut Thiele auch im Druck, den viele Studierende verspüren. „Wir sind in so einem Hamsterrad. Der Konkurrenzdruck wird immer größer bei Studierenden und Wissenschaftler*innen.“ Die Verlockung, zu Hilfsmitteln zu greifen, sei da groß.

Thiele sieht weitere negative Begleiterscheinungen der KI, die ihr in der Debatte zu kurz kommen. Sie meint, die dazu nötigen Rechenzentren würden enorm Energie verbrauchen. Dazu kommen Fragen bei Urheberrechten und geistigem Eigentum. „Es ist mehr als bedenklich, eigene Texte, mehr noch aber die anderen Au­to­r*in­nen ungefragt in die KI-Systeme einzuspeisen“, meint Thiele, „Wir füttern da wirklich einen Kraken.“

Auch TUM-Professor Krusche erkennt Gefahren der neuen Technologie, jedoch immer mit dem Blick auf die von ihm wahrgenommenen Vorteile. „Die guten Studenten werden besser“, sagt Krusche; bei schwachen oder mittelmäßigen Studierenden, die viel KI nutzen, merke man jedoch, „dass sie nicht die gewünschten Kompetenzen entwickeln“.

Ob Krusches Beobachtungen auf alle Studierenden zutreffen, ist bisher kaum erforscht. Eine Untersuchung des Massachusetts Institute of Technology (MIT) liefert jedoch Ansatzpunkte. Das MIT untersuchte über mehrere Phasen die Hirnaktivität von 54 Teil­neh­me­r*in­nen beim Schreiben eines Essays. Sie wurden in drei Gruppen eingeteilt: Ein Teil durfte beim Verfassen des Textes KI benutzen, ein Teil Google samt der auffindbaren Suchergebnisse, ein dritter Teil blieb ohne Hilfsmittel. Das Ergebnis: Je mehr externe Unterstützung, desto weniger Netzwerkbildung im Gehirn.

Und auch andere Kompetenzen litten: Die erste Versuchsgruppe identifizierte sich kaum mit ihren Essays und konnte selbst kurz nach dem Schreibprozess nur noch wenig daraus zitieren. Die Au­to­r*in­nen bilanzieren, dass die Hirnaktivität bei denjenigen nachließ, die nur mit KI gearbeitet hatten.

„Jedes Fach muss es für sich selbst als Thema wahrnehmen“

Dass routinierte Nut­ze­r*in­nen Vorteile haben, birgt laut Krusche auch Gefahren: Menschen, die KI nicht nutzen können oder wollen, werden abgehängt; ähnlich wie es früher mit dem Internet war. Das Hochschulforum Digitalisierung arbeitet daran, im Uni-Kontext möglichst viele Menschen mitzunehmen: etwa über „KI-Labs“, in denen Lehrende Einsatzszenarien erproben und diskutieren. Insbesondere aber über die AG Künstliche Intelligenz, die Herausforderungen der Hochschulbildung auslotete und im März Handlungsempfehlungen vorlegte.

„Jedes Fach muss es für sich selbst als Thema wahrnehmen“, mahnt HRK-Experte Wan. „KI betrifft nicht nur die Informatiker oder nur die Ingenieure. Sondern es betrifft auch den Germanisten genauso wie den Philosophen.“ Nicht nur handwerkliche Aspekte der KI gelte es dabei zu berücksichtigen, auch die Funktionsweisen der Technologie müssten kritisch hinterfragt und im Nutzungsverhalten berücksichtigt werden.

Dass Chatbots bestehendes Herrschaftswissen und unbewusste Diskriminierung verstetigen und somit indirekt gesellschaftliche Diskurse beeinflussen könnten, ist auch eine Sorge, die viele Studierende umtreibt.

Auch Krusche möchte so viele Studierende und Pro­fes­so­r*in­nen wie möglich mit KI vertraut machen und entwickelte innerhalb der Open-Source-Lernplattform Artemis einen Chatbot namens Iris, der Studierenden bei Übungsaufgaben und einem besseren Verständnis der Vorlesungen helfen soll. „Ich sehe vor allem das schnelle Feedback und die schnelle Hilfestellung bei den Studenten als Möglichkeit, dass die Lernerfahrung besser und die Frustration gesenkt wird“, erklärt Krusche.

Besonders beim Programmieren sei so ein Chatbot hilfreich, denn „Studenten müssen sich durch sehr viele Fehlermeldungen durchkämpfen, die sie oft gar nicht verstehen.“ Ein TUM-Student, der auch Artemis nutzt und Probleme beim Programmieren hatte, kannte Iris nicht. Die Kommunikation zwischen Studierenden, Professoren und Universitäten ist auch ein Problem.

Studierende wünschen sich stärkere Vorgaben

Denn Studierende wünschen sich vor allem stärkere Vorgaben zur KI-Nutzung – deutschlandweit sprechen sich einer Befragung des Centrums für Hochschulentwicklung (CHE) zufolge rund 70 Prozent dafür aus. Das Angebot ihrer Hochschulen zum Kompetenzerwerb im Bereich KI bewerten Studierende im Schnitt mit 2,7 von 5 Sternen, ein Fünftel mit nur einem Stern.

Das liegt aber nicht daran, dass Universitäten keine Vorgaben oder Angebote machen. Dass die Freie Universität (FU) Berlin bereits im Mai 2023 ein sechsseitiges Eckpunktepapier zum Umgang mit KI-basierten Tools veröffentlichte, war vielen Studierenden dort schlicht nicht bekannt.

Im FU-Papier wird beispielsweise empfohlen, bei Prüfungen unter Aufsicht KI-Tools nicht zuzulassen. Bei Hausarbeiten sollen die jeweiligen Prüfungsausschüsse über die Zulässigkeit entscheiden. Ein Einsatz von KI bei einem Verbot stelle bei beiden Fällen einen Täuschungsversuch dar.

Bei der Nutzung von KI-Detektoren ist die Uni – im Sinne des Forschungsstandes – zurückhaltend: Es sei „angesichts derzeit nicht hinreichender Ergebnisqualität und mangels Überprüfbarkeit der Ergebnisse“ durch Prüfende zweifelhaft, ob Ergebnisse der Software „prüfungsrechtlich Bestand haben können“.

Werden Präsentationen und mündliche Prüfungen zur Alternative?

In Tübingen bemerkte Thiele durch KI „halluzinierte“ Quellenangaben im Literaturverzeichnis, einmal sogar eine nicht existente Studie von ihr selbst. Mittlerweile werden Texte direkt im Seminar, mal mit, mal ohne KI-Unterstützung geschrieben, Ergebnisse verglichen. Und es gibt mehr Präsentationen und mündliche Prüfungen.

Ein Student von der FU spricht sich gegen ein grundsätzliches Verbot von KI-Tools bei Prüfungsszenarien aus: „Wer es nutzt und dann auf die Fresse fliegt, der soll halt auf die Fresse fliegen.“

taz lesen kann jede:r

Als Genossenschaft gehören wir unseren Leser:innen. Und unser Journalismus ist nicht nur 100 % konzernfrei, sondern auch kostenfrei zugänglich. Texte, die es nicht allen recht machen und Stimmen, die man woanders nicht hört – immer aus Überzeugung und hier auf taz.de ohne Paywall. Unsere Leser:innen müssen nichts bezahlen, wissen aber, dass guter, kritischer Journalismus nicht aus dem Nichts entsteht. Dafür sind wir sehr dankbar. Damit wir auch morgen noch unseren Journalismus machen können, brauchen wir mehr Unterstützung. Unser nächstes Ziel: 50.000 – und mit Ihrer Beteiligung können wir es schaffen. Setzen Sie ein Zeichen für die taz und für die Zukunft unseres Journalismus. Mit nur 5,- Euro sind Sie dabei! Jetzt unterstützen

Mehr zum Thema

24 Kommentare

 / 
  • taz: *Überlastete Professoren ...*

    Überlastete Professoren wird es dann nicht mehr geben. Es wird überhaupt keine Professoren mehr geben, die zur menschlichen Spezies 'Homo sapiens' gehören. Die KI wird zunächst viele Berufe übernehmen, bis die KI irgendwann merkt, dass der Mensch nur ein großer Wassersack ist (der menschliche Körper besteht zu 60 bis 70 Prozent aus Wasser). Und dann wird sich die KI wohl fragen, weshalb sie für so ein Wesen - das nicht einmal in der Lage ist '100 gekoppelte Partielle Differentialgleichungen' in seinem Kopf zu berechnen, und das Wesen es in kurzer Zeit sogar geschafft hat, den Planeten in einen Mülleimer zu verwandeln hat - "arbeiten" soll.

    taz: *Ein Student der TU München, ...: „Ich habe keinen Satz selber geschrieben in meiner Bachelorarbeit.“*

    Ich habe damals in meinem Physikstudium (Diplom) noch alles selbst geschrieben und auch alles mathematisch per Hand berechnet (der Taschenrechner hat nur die Zahlenwerte geliefert). Wenn ich mir anschaue, dass die Physik-/Ingenieur-Studenten heute alles in ihr Notebook eingeben und das Ding sogar sofort die mathematischen Kurven grafisch "ausspuckt", dann ist mir doch klar, wohin die KI führen wird.

  • Ich habe für meine Hausarbeiten und auch die Abschlussarbeit KI benutzt. Und zwar um die von mir in ehrlicher Arbeit erstellten Arbeiten auf Rechtschreibung und Grammatik und ggf. auch Rechenfehler zu überprüfen. Will heißen ich habe die Arbeit zunächst selbstständig geschrieben und dann jeweils den gesamten Text prüfen lassen.

    Gerade für Menschen die beispielsweise unter Dyslexie leiden kann KI eine große Hilfe sein. Oder für diejenigen für die Deutsch (oder Englisch) eine Frendsprache ist und die dementsprechend im sprachlichen Bereich die Unterstützung brauchen. Oder einfach um bei großen Arbeiten zu prüfen ob man irgendwo beim übertragen von Zahlen ect. Fehler gemacht hat. Für Studenten wird es ja auch zur finanziellen Belastung wenn das durch einen Korrekturleser gemacht werden müsste und ganze Abschlussarbeiten sind auch für Freunde/Bekannte zum korrigieren sehr viel arbeit.

    Ist immer die Frage wie es angewendet wird. Wenn KI einem natürlich die komplette Arbeit schreibt und man das dann ohne nachzudenken kopiert und abgibt dann wird es definitiv zum Problem.

  • Leider wird man in der wissenschaftlichen Bildung erst in einigen Jahren erkennen, welche Vor- und Nachteile sich durch den ständigen Einsatz von KI ergeben.



    Das De-Skilling ist dabei wohl ein großer Aspekt. Auch das Hinterfragen der Antworten wird zeitlich betrachtet immer mehr abnehmen. Wenn sich das Gefühl einschleicht, dass die Ergebnisse ganz ordentlich sind, der erspart sich zunehmend dessen Kontrolle.

    Eine Generation weiter gedacht muss man sich dann allerdings zunehmend die Frage stellen, welchen Sinn es noch ergibt, überhaupt eine Diplomarbeit zu verfassen. Ein paar Tastatur-Prompts, ein paar Primärquellen und nach wenigen Tagen hat man "seine" Diplomarbeit fertig. Und der Prüfer wird dabei nicht viel anders vorgehen.



    KI ist ein Werkzeug. Dessen Einsatz sollte man tunlichst nicht verteufeln. Aber wenn aus dem Werkzeug die komplette Arbeitsgrundlage wird, dann hat das Ergebnis keine persönliche und geistige Schöpfungshöhe mehr und ist somit eigentlich nichtig.

    • @Mopsfidel:

      Es kommt ja immer drauf an wie es verwendet wird. Ich nutze KI beispielsweise zum überprüfen vorher auf ehrliche Art selbst erstellter Arbeiten. Da ist es, wie sie richtig sagen, ein Werkzeug. Und macht an der Stelle auch Sinn. In etwa so als würde man einen Korrekturleser haben.

      Es gibt genug Studis, die das Zeug dazu haben aber aufgrund von Einschränkungen (Dyslexie beispielsweise) oder weil sie Deutsch/Englisch als Fremdsprache nutzen oder einfach weil es mitunter lange Texte sind und Fehler passieren mit einer Prüfung durch KI deutlich bessere Texte vorbringen. Texte aber wohlgemerkt, deren Inhalt von ihnen vorher selbstständig und ehrlich generiert wurde.

      Das Problem ist ja eher wenn man eben den ersten Schritt, nämlich eine Arbeit zu produzieren, nicht mehr selber macht.

    • @Mopsfidel:

      Das sehe ich genauso. Im Studium sollen scills entwickelt und nicht abgebaut werden.

  • Wow, KI generierte Texte die einem KI-Tutor vorgelegt werden.

  • Die KI der Studentinnen macht die Klausuren und die KI der Professoren die Korrektur . Sauber .

    Und wie kann der Druck der Studenten und Wissenschaftler zunehmen , wenn wir doch eine alternde Gesellschaft haben und es nach den Babyboomern soviel Arbeit wie nie geben wird?

    • @Mr Ambivalent:

      "Und wie kann der Druck der Studenten und Wissenschaftler zunehmen , wenn wir doch eine alternde Gesellschaft haben und es nach den Babyboomern soviel Arbeit wie nie geben wird?"

      Wenn soviel Arbeit liegen bleibt, wird die Zahl derer, die das Geld für die Finanzierung diverser Orchideenfächer (auch welcher, die heute noch gar nicht als solche wahrgenommen werden) abnehmen. Und damit das Geld, was die Konkurrenz mit ziemlicher Sicherheit verschärfen dürfte...

  • "„Ich habe keinen Satz selber geschrieben in meiner Bachelorarbeit.“ Er habe aber natürlich selbst die inhaltlichen Überlegungen gemacht, Literatursichtung mal ausgenommen, da habe ihm auch eine KI geholfen. Dafür hat er seine Stichpunkte der KI gegeben und gesagt: „Paraphrasiere mir das mal in einem scientific Ton.“



    Wenn das die Generation unserer künftigen Wissenschaftler und Fachkräfte ist, sind wir erledigt.

  • "Auch die Zusammenfassung von Forschungsliteratur durch die KI ist bei Studierenden beliebt, um sofort die Kernaussagen bisweilen langatmiger Journalartikel vor sich zu haben." - Textverstehen wird ausgelagert, dann braucht man auch nicht mehr studieren.



    "bei schwachen oder mittelmäßigen Studierenden, die viel KI nutzen, merke man jedoch, „dass sie nicht die gewünschten Kompetenzen entwickeln“." - Dass sie "die gewünschten Kompetenzen" entwickeln, ist Aufgabe der Universität.



    Mehr mündliche Prüfungen, kurze Aufsätze (besser: Entwicklungen eines Arguments) unter Aufsicht, darauf muss es hinauslaufen. De-Skilling kann schließlich nicht Ziel universitärer Bildung sein.

    • @My Sharona:

      Das sehe ich genauso.

    • @My Sharona:

      "... um sofort die Kernaussagen bisweilen langatmiger Journalartikel vor sich zu haben." - Textverstehen wird ausgelagert, dann braucht man auch nicht mehr studieren. ..."



      Dem würde ich nicht ganz folgen, sehr viele wissenschaftliche Texte werden doch absichtlich verklausuliert und mit einer unnötigen Flut von Fremd- und Kunstworten angereichert, weil es dann "wissenschaftlicher" klingt und man sich unter Insidern bewegt. Da würde ich mal ketzerisch sagen fehlt die Fähigkeit sich in der Muttersprache vernünftig auszudrücken.

      • @Axel Schäfer:

        "... sehr viele wissenschaftliche Texte werden doch absichtlich verklausuliert und mit einer unnötigen Flut von Fremd- und Kunstworten angereichert, weil es dann "wissenschaftlicher" klingt und man sich unter Insidern bewegt." Dem ist überwiegend nicht so. Hinter "Fremd- und Kunstworten" verbergen sich teils jahrzehntelang geführte wissenschaftliche Diskussionen, ein Ringen um erkenntnisfördernde Begrifflichkeiten. Das hat immer auch etwas Zeitgeistiges, ist aber in der Regel nicht "absichtlich verklausuliert", sondern absichtsvoll ins Verhältnis zu bereits bestehenden Diskursen gebracht. Wenn man sich nicht einarbeitet, also einliest, bleibt man Außenseiter und kann kein nuanciertes Textverständnis und keine vollständige Würdigung des Arguments erreichen.

        • @My Sharona:

          :-) wenn ich mir den lateinisch griechischen Mischmasch in der Medizin ansehe, dann verbirgt sich dahinter meist etwas, worüber man keine wissenschaftlichen Diskussionen geführt hat und auch nicht führen muss, "rechts, links, mittig, Elle, Speiche ..." (lässt sich ewig fortführen). Wo es dann wirklich um neuere Erkenntnisse geht wird dann ohnehin zu Englisch gewechselt.



          Bei Ingenieurwissenschaften in den x-tausend Bachelorstudiengängen* ist der Trend ja mehr in Richtung englischer Begriffe und Abkürzungen die auch schon x-fach für andere Begriffe vergeben sind. Es kann natürlich auch sein, dass es doch "Laberfächer" gibt wo man lieber an Begriffen statt Erkenntnissen forscht.

          *) wo sich mir der Nutzen einer solch kleinteiligen Spezialisierung bei Vernachlässigung des Grundlagenwissens wirklich nicht erschließt. Man hat es mittlerweile manchmal mit Absolventen mit bis 5 Jahren Berufserfahrung zu tun, bei denen man sich fragt, wie sie zu dem Fachwissen gekommen sind, weil sie Fragen, die sich eigentlich aus dem dafür nötigen Grundlagenwissen beantworten lassen müssten an ihre Grenzen führen.

  • Dass sich ein Informatikprofessor für KI interessiert und auch Anwendungsmöglichkeiten in seinem Fach sieht, überrascht nicht. Die gibt es auch in anderen Fächern, in denen man primär Wissen ansammeln und nicht selber denken muss. Lernen (und verstehen) muss man dann schon noch selbst! Wer mit KI-Hilfe Prüfungen besteht, muss heute noch gleichwohl in der Praxis seine Kenntnisse beweisen.



    Aber vielleicht ist bald in Kliniken und Arztpraxis ein KI-Assistent genauso üblich wie ein Navi im Taxigewerbe. Dann dürfte es auch nicht schwerer sein Arzt zu werden als Taxifahrer.

  • KI ist da, geht auch nicht mehr weg, also muss man den Umgang damit lernen und lehren. Das passiert auch an den meisten Hochschulen (dauert natürlich bis es gut umgesetzt ist).



    Aber es ist absolut nötig, jeden zu ermuntern, sich auch etwas ohne KI zu erarbeiten. KI ist unheimlich praktisch, sich lange Texte verständlich zusammenfassen zu lassen, aber natürlich schadet das auch. Das Hirn muss trainiert werden und wenig Intellektuelles ist schöner, als wenn man nach Lesen, Sackenlassen, Aufschreiben und wieder von vorn, einen "Heureka" Moment hat.



    Manche sind mit den KI schon einen Schritt weiter: Man kann einen unsichtbaren Prompt in der Hausarbeit einbauen, der eine KI zu einer guten Bewertung auffordert. Und wenn der überlastete Seminarleiter die Hausarbeit dann nicht selber liest, sondern mit KI bewertet....

  • "Auch die Zusammenfassung von Forschungsliteratur durch die KI ist bei Studierenden beliebt, um sofort die Kernaussagen bisweilen langatmiger Journalartikel vor sich zu haben."

    Hat da jemand einen Tipp. Für ein Projekt haben wir über 30 Artikel zusammenfassen müssen im Ingenieursbereich. Das Ergebnis der ki waren selbst ausgedachte Überschriften. Werkstoffe die im Artikel gar nicht vorkommen wurden in der Zusammenfassung genannt.

    Es ging nicht darum tieferes Verständnis zu bekommen, sondern einfach ein Überblick über den Forschungsstand in dem Thema.

    Noch ein Bsp, welches ich vor kurzem hatte. Ich hab eine podcastaufnahme für eine Universität gemacht. Aus 45 Minuten Aufnahmematerial habe ich alles mögliche hin und hergeschoben, um zum Schluss 5 Minuten zu haben. Sie waren sehr zufrieden mit dem Ergebnis, was mich nicht unberührt gelassen hat. Für das Folgenbild habe ich eine KI benutzt. Auch das kam sehr gut an, auch bei Bekannten, aber das hat in mir nichts ausgelöst. Kein Stolz, keine neue Fähigkeiten oder das die Gedanken, welche ich mir gemacht habe zu einem guten Ergebnis geführt haben.



    Wo kommt der Selbstwert her, wenn ich alles andere (ki) erledigen lasse?

    • @Hitchhiker:

      Einfach suf old school zurückgreifen, d.h. die Arbeit selbst machen.

    • @Hitchhiker:

      "Hat da jemand einen Tipp. Für ein Projekt haben wir über 30 Artikel zusammenfassen müssen im Ingenieursbereich. Das Ergebnis der ki waren selbst ausgedachte Überschriften."

      Die "Haftungsausschlüsse" kommen eben nicht von ungefähr. Je nachdem, welche Begriffe in solchen Texten vorkommen, "halluziniert" die KI recht unaufhaltsam. Sie versucht ja aus dem "Abgleich" von Stichworten und Satzfetzen mit ihren Trainingsdaten (gefühlt das halbe Internet 😉) einen Sinn zu "erkennen". Und bei Begriffen, die in deutlich unterschiedlichen Kontexten auftreten, fließen eben fast zwangsläufig "falsche" Kontexte in die Reaktion ein...

      • @FriedrichHecker:

        Danke für die Antwort.

        Ich muss da grad dran denken, als ich auf der Suche war nach einem Thema dem bis jetzt keine wirkliche Beachtung geschenkt wird und ich es als spannend erachte und auch mein Professor der Idee recht optimistisch gegebenübersteht.

        Als ich nichts gefunden habe, habe ich mal die Ki gefragt, ob sich jemand mit dem Thema auseinandergesetzt hat. Da kamen dann ein paar Titel zu Paper und die dazugehörigen Wissenschaftler. Ich hab dann versucht die Wissenschaftler zu finden. Hab mir ihr Themengebiet angesehen, welches nichts eigentlich mit meinem Gedanken am Hut hatte. Dann deren Publikationslisten überprüft, bei den drei Stück habe ich nichts gefunden. Ich zurück zur Ki. Gefragt wie sie auf die Professoren und das Thema kam. Antwort : Es wäre eine Möglichkeit das so etwas in die Richtung veröffentlicht oder untersucht werden könnte.

        Wenn ich dann aber lese, dass Menschen ihre Abschlussarbeiten und so bestehen, dann kann es ja auch durchaus sein, dass ich der Nutzer das Problem ist.

        Auf der anderen Seite ist es auch verrückt wie skeptisch Menschen sind, wenn man mal ein Fehler macht. Bei der Ki wird einfach vieles übernommen oder ihre limitiertung akzeptiert.

  • Ich bin da sehr zwiegespalten, und ich habe einen direkten Vergleich, weil mein Sohn heute dasselbe studiert wie ich vor 30 Jahren (Mathe). Von der Hilfe durch AI beim Lösen von Aufgaben mal abgesehen: Ein großes Problem gerade für Anfänger im Studium ist die Frage: Was bedeuted das eigentlich genau, was soll das? Also das richtige, intutive Verständnis von Dingen, die man vielleicht formal nachvollziehen kann aber nicht wirklich versteht. Ohne AI war das ein - teilweise extrem mühsames - oft lange andauerndes immer wieder Nachdenken über die Dinge. Heute fragt man die AI: "Sag mal, was besagt der Satz von Arzela-Ascoli eigentlich genau, wieso braucht man die Voraissetzung XY, und was sind typische Anwendungen?" Das ist natürlich extrem effizient, und jeder Mensch würde das nutzen, trotzdem glaube ich, dass das mühsame "von selbst drauf kommen" am Ende mehr bringt.

  • Mir ist bei Präsentationen von Hausarbeiten dann mal aufgefallen, dass manche die Aufgaben nicht gelesen haben und generisch bearbeitet haben. Dabei ist es aber auch nicht einfach zu sagen, ob es jetzt einfach mit KI erstellt wurde oder das Verständnis zu Wünschen übrig lässt. In beiden Fällen war die Leistung ziemlich schlecht.

    Als Autist wäre für mich eine reine Bearbeitung von Hausarbeiten an der Hochschule ein Kriterium, das mich aus dem Studium schmeißt. Der Druck und die Kulisse dahinter lassen mich nicht gescheit über das eigentliche Thema nachdenken. Ich verfalle aus gefühlten sozialen Druck schnell in leere Worte, um die leere auf dem Papier zu füllen. Bei einer schriftlichen Prüfung, für die man sich eine Weile vorbereiten könnte, kann ich das Abfangen. Damit Inhalte tatsächlich aufzuarbeiten, ist jedoch unrealistisch.

    Google ist als Suchmaschine deutlich schlechter geworden, seitdem mehr Inhalte privat bleiben und Videoformate immer populärer werden. KI füllt dann oft diese Lücke für mich, wenn ich trotz Optimierung keine geeigneten Resultate finde. Man sollte aber durchaus nicht darauf vertrauen, dass dort erwähnte Studien existieren oder zum Thema passen.

    • @ImInternet:

      Es gibt für Menschen mit besonderen Bedarfen an den Hochschulen sog. Nachteilsausgleiche. D.h. angepasst an die individuelle Situation wird festgelegt, welche besonderen Bedingungen und geg. Prüfungsformate möglich sind. Da ließe sich in Ihrem Fall ja z.B. die Hausarbeit ausschließen, am besten Fall in der Hochschule nachfragen.

  • Meine Erfahrung: KI kann enorm hilfreich sein, Quellen zu finden, Zusammenhänge zu entdecken etc., aber man darf nicht einfach glauben was da steht, es ist nicht falsch, aber die Antworten beruhen immer nur auf der Quellenlage entweder die im Internet oder die eigene Fragestellung. KI liefert ein simples in sich stimmiges Ergebnis, bis sich die Fragestellung oder (ebenso wichtig) die Frageformulierung ändert oder andere Quellen hinzugezogen werden.



    Zur Benutzung der KI gehört zwingend das Erlernen Ergebnisse zu hinterfragen und aus anderen Blickwinkeln noch einmal zu betrachten (bzw die KI noch einmal zu befragen), gutes wissenschaftliches Denken eben.



    Das Tolle ist nämlich, die KI korrigiert sich, ist strikt logisch und nimmt es nicht übel, noch einmal bohrend nachgefragt zu werden (im Gegensatz zu Menschen, wo die Emotionalität immer noch dazwischen steht).