ChatGPT hat (zumindest in den Versionen die ich nutzen kann) schon Probleme, eine einfache beschriftete Skizze zu einer Aufgabe zu erstellen, wie wirklich aussagekräftig ist.
Und bei der Textproduktion werden so viele Allgemeinplätze dazugemischt, das wirkt bei konkreten Fragestellungen oft schwammig, willkürlich und manchmal wie eine Themaverfehlung. Dummerweise erkennen das die Schüler nicht und gerade die weniger begabten sind schnell mit einer Wischiwaschi-Antwort zufrieden (genau den Eindruck habe ich auch bei vielen KI-Fans, die sich aber gar nicht gut auskennen oder auskennen wollen).
Das deckt sich mit meinen Erfahrungen. Für Laberfächer ist der aus ChatGPT hervorgewürgte Mix der Trainingsdaten häufig mäßig bis gut. In Mathematik, Chemie, Physik - braucht man so viel Ahnung bei der Erstellung eines, der Fragestellung angemessenen, Prompts, dass es häufig leichter ist, den Stoff gleich selbst zu lernen und hinzuschreiben....
Vielleicht kann man in den Geisteswissenschaften die Lehrer mit dem großen Wissens- bzw. Datenumfang leicht beeindrucken, bei etwas nichtlinearen naturwissenschaftlichen Fragestellungen habe ich noch keine überzeugende Leistung der KI gesehen. Vielleicht ändert sich das aber auch bald.
Das würde mich wundern. (Aber ich hätten den NNs vor 20 Jahren auch nicht viel zugetraut.)
Wie bei (Fast??) jeder Entwicklung (Faustkeil, Feuer, Schießpulver, Spritzmittel, Atomkraft...) hat die KI große Chancen und Gefahren, die Menschheit wird wohl wieder nicht schaffen, die Nachteile soweit möglich zu vermeiden. Gier frisst Hirn.
Das war schon immer so. Wobei ich die Gefahren der KI einfach in der Praxis nicht so recht erkennen und bewerten kann. Die LLMs sind häufig debile, aber eloquente Plaudertaschen, Werkzeuge wie stable diffusion machen langweilige Bilder - und ? WTF!
Das Posting wurde vom Benutzer editiert (17.12.2024 08:36).