ChatGPT für Hausaufgaben: Drücken sich Schüler vor dem echten Lernen?

Schulranzen mit KI

Fauler Selbstbetrug oder neuer Lernprozess? Immer mehr Schüler setzen KI ein. Klassische Hausaufgaben gehören der Vergangenheit an. Schulen müssen umdenken.

72 Prozent der Schüler benutzen nach eigener Aussage KI für Hausaufgaben, wenn man einer Umfrage einer im Juni vom Nachhilfevermittler Gostudent durchgeführten Umfrage in sieben europäischen Ländern glauben darf.

Dabei gaben jedoch nur 53 Prozent an, dass KI ihnen tatsächlich zu besserem Verständnis verhelfen konnten. Dies mag auch der Tatsache geschuldet sein, dass der Auftraggeber von der Nachhilfevermittlung lebt.

In dem Zusammenhang sollte das Motiv der Zeitersparnis bei der Anfertigung der Hausarbeiten nicht übersehen werden. Die möglichen Risiken des heimischen KI-Einsatzes sehen viele Schüler offensichtlich ganz deutlich. Knapp die Hälfte der befragten Nachhilfelehrer und Schüler befürchten, dass sie der Einsatz von KI fauler machen könnte.

Bei den Lehrkräften überwiegt wohl die Befürchtung, dass durch vermehrte KI-Nutzung die eigenen Problemlösungskompetenzen der Schüler weniger gut geschult werden.

Gilt der Einsatz von KI bei den Hausaufgaben als Betrug?

Da unterscheiden sich die Ansichten gar nicht so deutlich zwischen den Altersklassen. Drei Viertel der Lehrer und Eltern, die in ihrer Schulzeit noch keine KI einsetzen konnten, waren der Ansicht, dass die Nutzung von KI beispielsweise zur Erleichterung der Hausaufgabenanfertigung als Betrug einzustufen sei.

Bei den Schülern konnte man in Deutschland wohl 76 Prozent der Antworten so werten, in anderen Ländern war diese Problembewusstsein deutlich geringer. Das faktische Problem beim heimischen KI-Einsatz besteht offensichtlich in der Beschleunigung der formalen Antworten und im Umgehen der für tieferes Lernen eigentlich unerlässlichen Denk- und Problemlösungsprozesse.

Somit könnte sich der Einsatz von KI bei den Hausaufgaben letztlich als Selbstbetrug herausstellen, weil die Schüler mit ihrem vorgeblichen Fakten punkten, ohne die Inhalt ableiten zu können. Die klassischen Hausaufgaben dürften daher schon bald obsolet werden und sich den technologischen Veränderungen stellen müssen.

Der Umgang mit KI unterscheidet sich bei den Schüler von Land zu Land ganz beachtlich und hängt wohl mit der Technik-Affinität der Gesellschaft zusammen. So wollen nur 47 Prozent der Schüler in Österreich mit der Hilfe von künstlicher Intelligenz lernen. In Spanien sind dies 64 Prozent der Kinder.

Die Aufgaben der Schule ändern sich

Nichts ist in der heutigen Schule so wie es war. Dabei stammt der Ausspruch "Alles fließt" schon von den alten Griechen. War die Schule über lange Jahre vergleichsweise statisch und unterschied sich in der Hauptsache nach den föderal geprägten Lehrplänen der einzelnen Bundesländern, welche den Übergang vom einen zum anderen Bundesland schier unmöglich machten, kommt jetzt Dynamik ins Spiel.

Nun ist in jedem Bundesland die Weiterbildung des Lehrkörpers dringend erforderlich, denn die klassischen Hausaufgaben haben in einer von KI geprägten Welt offensichtlich ausgedient. Reproduzierende Aufgaben wie die Wiedergabe simpler Texte entsprechen nicht mehr den Anforderungen unserer Zeit. Friedrich Schillers "Das Lied von der Glocke" rezitieren zu können, könnte im Rahmen des gepressten Unterrichtsplans möglicherweise keine Priorität mehr haben.

Heute müssen in der Schule Basiskompetenzen geübt werden, was in erster Linie während des Schulunterrichts geschehen kann. Hausaufgaben, welche die Schüler ohne grundlegende Kenntnisse und kritische Reflexion einfach von KI generieren lassen, sind letztlich sinnlos, weil sie höchstens die Qualität der eingekauften KI belegen könnten.

Schon die Schule von heute und nicht erst die von morgen muss dabei helfen, KI als Werkzeug zu beherrschen und nicht dabei sich von ihr beherrschen zu lassen. Während die Schulen auf das digitale trojanische Pferd bei Weitem nicht vorbereitet sind, spielen die Schüler diese Möglichkeiten schon aus.

Das Denken, welches beispielsweise ChatGPT nutzt, ist ein rein rechnendes Denken, mit dem Wahrscheinlichkeiten berechnet werden, um einen Buchstaben nach dem anderen aneinanderzureihen. Nach dem Sinn der Sätze wird dabei nicht gefragt.

Viele Aussagen klingen dabei weder falsch noch zielführend, sondern weitgehend beliebig. In dem Maße, wie ChatGPT in der Praxis inzwischen von eigenen Texten lernt, steigert sich diese Beliebigkeit bis hin zur gefühlten Dummheit.

Hat die KI immer recht?

Der inflationäre Einsatz digitaler Techniken hat schon seit Jahren das selbst Denken beeinträchtigt. Ganz deutlich wurde das mit dem Aufkommen von Wikipedia, bei welchen das Engagement von ausgebildeten Journalisten durchaus erfolgreich verhindert wird, weil man der Schwarmintelligenz eine Chance geben wollte. So viele Menschen können ja nicht so sehr irren wie die Profis.

Woher die KI heute ihr Wissen bezieht, ist weitestgehend eine Black Box. Und wenn sich das System zunehmend aus Quellen versorgt, bei welchen sich jeder Plausibilität die Nackenhaare stellen, sollten die Anwender vorsichtig werden. Sie werden das aber wohl nicht.