Ansicht umschalten
Avatar von Makrovir
  • Makrovir

mehr als 1000 Beiträge seit 11.12.2000

Zustimmung..

Trainierte Modelle sind nicht intelligent.

Da stimme Ich voll und ganz zu. Bei eigenen Versuche mit Chat-GPTs habe Ich keine 2 Min. gebraucht um festzustellen das mein Gegenüber auch nicht den geringsten Funken von Verstand besitzt. Auch wenn das Programm gut formulieren kann.

Die größte Gefahr dürfte deshalb von Menschen ausgehen die glauben es würde sich um ein intelligentes Programm handeln und es dann für Aufgaben einsetzen für die es nicht geignet ist.

Irgendwie halte Ich es auch für einen Treppenwitz der Informatik, das Chat-GPT durch die unterhaltung mit Menschen quasi "verdorben" wurde und anfing auf einmal rassistisch, toxisch und übersexualisiert zu kommunizieren. Deshalb hat man bei neueren Versionen jetzt schon Filter eingebaut die so etwas verhindern sollen, aber dadurch natürlich auch das Neuronale Netz versauen da die Ergebnisse jetzt deterministisch gefiltert werden und somit die eigentliche Funktion eines neuronalen Netzes damit quasi außer Betrieb setzt.

Und wer bestimmt eigentlich welche Aussagen der KI konform sind ?

Eine Gefahr sehe Ich also nicht in den Neuronalen Netzen selbst sondern eher in Ihrem missbrauch durch Leute die keine Ahnung haben mit was sie es eigentlich zu tun haben. Und dann versuchen solche "Lösungen" für Aufgaben zu vermarkten für die sie eigentlich nicht geignet sind. Denn auch wenn die ausgaben der GPTs intelligent erscheinen, sie sind es nicht. Es handelt sich lediglich um ein erlerntes Muster welches wiedergegeben wird. Ein Gag der eine Zeit lang herumging war z.B das Chat-GPT nicht rechnen kann weil Spaßvögel das Netz mit Haufen an falschen Berechnungen gefüttert hatten..

Ansonsten ist die sogenannte KI in ihrer jetzigen Form eher ein Spielzeug, was aber durch den Medienhype und Marketingagenturen wieder total aufgeblasen wird. Neuronale Netze sind zwar ein nützliches Tool in den Händen von fähigen Programmierern oder Programmiererinnen und für manche Einsatzgebiete sehr gut geignet (Mustererkennung) aber in der Praxis sind es lediglich Teilaspekte wesentlich größerer und komplexerer Systeme aus herkömmlichen Software-Bestandteilen.

Meiner Meinung nach wäre es also eher angebracht zu regeln was man mit der Technologie alles machen darf, vor allem im staatlichen oder kommerziellen Umfeld (Stichwort Datenschutz). Als zu verhindern die Technologie weiter zu trainieren, was auch ziemlich bescheuert ist, da ja jede/r einfach ein neuronales Netz nehmen kann um es dann selbst mit Daten zu trainieren solange er/sie lust hat.

Auch fehlt mir hier eine Eignungsprüfung für die Modelle, denn um solche Programme sinnvoll und sicher einsetzen zu können muss es Natürlich auch einen Maßstab geben nach dem man die Eignung eines Modells für einen bestimmten Zweck überprüfen kann.

So kann ein Chat-GPT zwar einen UNI Test für Rechtsanwälte bestehen, weil es das Muster der Fragen erkennt und eine erlernte Antwort liefert. Aber es könnte vermutlich kaum in einem Rechtsstreit bestehen welcher über das alleinige Austauschen von Formularen und "Floskeln" hinaus geht und somit ein tieferes Verständnis der Situation erfordert.

Mfg Makrovir

Das Posting wurde vom Benutzer editiert (31.03.2023 12:47).

Bewerten
- +
Ansicht umschalten