- ChatGPT in der Schule
Im November 2022 wurde „ChatGPT“ für die Öffentlichkeit freigeschaltet und seit dem gibt es zahlreiche Diskussionen und Aufregungen um die neuste technische Innovation.
Vereinfacht gesagt handelt es sich bei dem Chatbot mit dem Namen „ChatGPT“ um ein textbasiertes Dialogsystem. Das bedeutet, dass das System mit so vielen Informationen und Textquellen „gefüttert“ wurde, dass ein Chatten mit dem System möglich ist. Ähnlich wie bei dem Sprachassistenten „Alexa“, handelt es sich also um eine künstliche Intelligenz (KI), der man Fragen stellen kann, die umgehend von einem Server beantwortet werden. Der große Unterschied zwischen den beiden künstlichen Intelligenzen ist allerdings, das man bei ChatGPT eine Frage- oder Aufgabenstellung eintippen kann und seitenlange Aufsätze ausgespuckt bekommt. Ein „Gespräch mit Alexa“ lässt hingegen den Eindruck entstehen, sich mit einem Menschen zu unterhalten.
Ein Nachteil von ChatGPT ist beispielsweise, dass es keine Quellen für Informationen angibt und es somit auch zu Urheberrechtsverletzungen kommen kann. (Anm.d.Red.: ein Kommentar mit Vor- und Nachteilen der neuen KI folgt in Kürze)
Ein nicht bestreitbarer Vorteil hingegen ist, dass man, je nach Umfang der Aufgabe, innerhalb kürzester Zeit eine Antwort erhält. Es liegt also nahe, dass wir Schüler:innen die KI zukünftig nutzen, wenn wir selbst keine Lust auf Hausaufgaben haben. Das wissen natürlich auch unsere Lehrkräfte – kein Wunder also, dass der ein oder andere skeptisch auf die Zukunft blickt. Haben Lehrkräfte überhaupt eine Chance zu erkennen, ob die Textproduktion von den Schüler:innen selbst stammt oder ob ChatGPT am Werk war?
Um diese Frage zu klären, haben wir ein Selbstexperiment gewagt:
Unsere Aufgabe in Religion lautete: „Definieren Sie die fünf Gerechtigkeitsformen (Leistungsgerechtigkeit, Bedürfnisgerechtigkeit, Umverteilungsgerechtigkeit, utilitäre Gerechtigkeit und Chancengerechtigkeit) und verdeutlichen Sie diese mit einem Beispiel.“
Während wir also in der 8./9. Stunde mehr oder weniger motiviert in der Bücherei saßen, lag es nicht fern, schnell mal ChatGPT nach einer Antwort zu befragen, statt selbst mühselig alle Definitionen samt Beispiel zusammenzutragen. So kam es dann dazu, dass wir unsere Lehrerin zu folgendem Experiment überredeten:
Um herauszufinden, ob und inwiefern Lehrkräfte identifizieren können, wann Schüler:inneneistungen mithilfe von ChatGPT erbracht worden sind, haben wir drei Texte abgegeben.
Einen, der vollständig von ChatGPT verfasst worden ist, einen weiteren, den wir komplett selbst geschrieben haben, und einen anderen, den wir zwar grundsätzlich von der KI haben schreiben lassen, ihn aber sprachlich innerhalb von ca. 10 Minuten noch etwas ausgebessert haben.
Folgend haben wir unsere Lehrerin gebeten, alle Texte zu bewerten und daraus ein Ranking zu erstellen. Zudem haben wir sie gebeten, eine Vermutung abzugeben, welcher Text auf welche Art entstanden ist.
Wir selbst erwarteten, dass der gänzlich von ChatGPT geschriebene Text relativ einfach zu identifizieren sein sollte, da für jeden Absatz bzw. für jede Definition eine sehr ähnliche Struktur und fast identische Formulierungen zur Einleitung des Beispiels genutzt werden. Die Schwierigkeit sahen wir viel mehr darin, den selbstgeschriebenen Text von dem verbesserten KI-Text zu unterscheiden. Sollte sich unsere Vermutung bestätigen, wäre ChatGPT eine erhebliche Erleichterung, denn der Zeitaufwand würde sich erheblich reduzieren. Anstatt 45-60 Minuten recherchieren und schreiben, nur 10 Minuten, in denen lediglich die Formulierungen etwas abgewandelt werden müssten – definitiv ein Gamechanger.
Die Bewertung und Auswertung unseres Versuchs führte zu folgendem Ergebnis:
Wie bereits erwartet, konnte der von ChatGPT verfasste Text aufgrund der einfachen Struktur und einem sehr pauschalen Fazit entlarvt werden. Auch wenn die Begriffserklärungen anhand eines Beispiels gelungen waren, konnte ChatGPT im Vergleich zu den anderen Texten nicht überzeugen, sodass es nur für Platz 3 im Ranking reichte.
Der von uns etwas überarbeitete Text belegt im Ranking Platz 2. Ebenso diesen Text konnte unsere Lehrerin richtig zuordnen, denn vor allem bei Einleitung und Fazit fehlte es an inhaltlicher Tiefe. Zudem zeigte ChatGPT keine Zusammenhänge auf – wie beim ersten Text war aber auch hier der Hauptteil durch nachvollziehbare Begriffserklärung anhand korrekter Beispiele recht gelungen.
Am Ende konnte aber doch der von uns geschriebene Text am meisten überzeugen. Ein hohes sprachliches Niveau, ein roter Faden, eine gelungenere Einleitung inklusive Einordnung in die aktuellen gesellschaftlichen Geschehnisse sowie ein mehrdimensionales Fazit verrieten letztlich, dass es sich nicht um den Text einer KI handeln kann.
Unser Fazit: Kann ich meine Hausaufgaben jetzt einfach von ChatGPT erledigen lassen?
Wir sagen klar unter Einbezug der Ergebnisse unseres Experimentes: nein. Ganz so einfach kann man es sich dann doch nicht machen. Gerade wenn unsere Lehrkräfte uns und unsere Schreibstile schon etwas kennen, wird es ihnen leicht fallen, einen ausschließlich von ChatGPT verfassten Text zu erkennen. Denn eine KI ist strikt faktisch angelegt, sodass nur additive Textstrukturen (ohne roten Faden) generiert werden können. Von Oberstufenschüler:innen kann man jedoch erwarten, dass sie Zusammenhänge erkennen und aufzeigen.
Ähnliches gilt für den überarbeiteten Text. Auch wenn die gleichbleibenden Formulierungen durch leichte Abänderungen umgangen werden können, können Inhalt und Struktur noch immer verraten, dass man sich etwas Hilfe gesucht hat. Zwar könnte man auch inhaltlich noch Änderungen vornehmen, aber in der Zeit, in der man sich Gedanken dazu macht, wie man am besten den Einsatz von ChatGPT versteckt, kann man den Text auch einfach selbst schreiben. Es spricht allerdings nichts dagegen, einzelne Definitionen oder Ähnliches abzufragen – sofern man sie dann in seinen eigenen Worten wiedergibt und in den Text einbindet – denn die Erklärung und Beispiele konnten uns durch ihre Nachvollziehbarkeit durchaus überzeugen.
Trotzdem gilt: Auch wenn lange Hausaufgaben und das Schreiben von Aufsätzen nervig sind, rentiert sich das Selbermachen am Ende, denn der Versuch hat gezeigt, dass die selbst erbrachte Leistung am besten bewertet wurde. (Und wenn wir unsere Lehrkräfte zitieren wollen, sind gerade die ätzenden Aufgaben eine wichtige Vorbereitung auf die Klausuren – bei denen uns ChatGPT sowieso nicht helfen kann.) Mit anderen Worten: die KI kann (noch?) nicht mit den Leistungen von uns Schüler:innen oder Student:innen mithalten. Aber wer weiß, was die Zukunft noch an Verbesserungen und Innovationen bringt…
Von Marika, Emily und Lukas (alle JG 11)