Ansicht umschalten
Avatar von Mathis (1)
  • Mathis (1)

23 Beiträge seit 16.09.2019

Marketing ist (fast) alles 😉

Ich hatte in den letzten Tagen einen recht erhellenden Austausch mit ChatGPT.
Zunächst, nach eigener Aussage ist sein "Wissensstand" Ende 2021. das erklärt vlt., dass es über aktuelle Dinge wohl rein gar nichts "weiß".

Auf direkte Nachfrage schreibt es, dass es Wörter und Sätze "versteht" ("understand words and phrases"), ohne jegliche weitere Erläuterung. Also fragte ich, was es denn mit "verstehe" genau meint. Und dann kommt eine halbe Abhandlung darüber, dass es ja eigentlich Wörter und Sätze lediglich statistisch mittels neuronaler Netze etc. auswertet und Texte dazu generiert. Dabei sei ganz wichtig, dass bei seiner Anwendung stets die generierten Texte kontrolliert werden müssten, auf ihren korrekten Kontext und "Wahrheitsgehalt" hin. Das sei fundamental, um keinen Schaden anzurichten.
Daraufhin merkte ich an, dass es mit dem eigenen Einsatz von "verstehe" sehr vorsichtig sein sollte, damit man diese Aussage nicht missversteht. Es entgegnete sehr höflich, dass ich da völlig Recht habe und dass es zukünftig darauf achten würde. Ich legte nach und bat es darum, "verstehe" zukünftig nicht weiter zu verwenden, nur um anschließend zu lesen, wie es genau das Wort unverändert weiter einsetzte.
Darauf angesprochen, dass es sich massiv selbst widerspreche, kamen entschuldigende und sich wiederholende erklärende Sätze.

Dennoch, man muss sagen, die generierten Worte/Sätze lesen sich strukturell flüssig und gut.
ABER... genau das ist im Zweifel eine echte Gefahr, denn es suggeriert ein eigenes Verständnis, eine eigene Intelligenz, die faktisch nicht vorhanden sind. Das sagt es, durch die Blume, selbst. Es kann mit der eigentlichen Bedeutung von Wörtern und Sätzen nichts Anfangen, weil es keinerlei Konzepte versteht. Selbst dieses schlichte "Wissen" über sich selbst fehlt völlig, weshalb es selbst hier ganz offensichtliche Falschaussagen generiert.

Nun stelle man sich vor, man würde es nach deutlich komplexeren Dingen fragen. Wie hoch wäre hier wohl die Wahrscheinlichkeit einer schlicht falschen Behauptung, die nicht ganz so einfach, also ohne nennenswerte eigene Recherche plus Verständnis, zu widerlegen wäre?
Darauf angesprochen, schreibt es, dass es den tatsächlichen Inhalt mit seiner Bedeutung ja auch gar nicht erfassen könne. Und im übrigen, auf direkte Nachfrage, könne es keinerlei Haftung für den selbst generierten Text übernehmen. Was mit seinen Aussagen am Ende gemacht wird, sei einzig und allein dem Anwender zuzuschreiben, dessen Pflicht es sei, alle relevanten Aussagen von ChatGPT stets zu überprüfen.
Ich weiß, das ist etwas überspitzt, aber was hätten Kunden/Anwender denn dann genau gewonnen? Von der Automatisierung trivialer Kontexte mal abgesehen.

ChatGPT ist und bleibt ein strukturelles Analyse Tool, möglicherweise smarter und schneller als andere Ansätze/Implementierungen der letzten 20 Jahre, aber eben auch nicht mehr. Und es wird sich zeigen, inwieweit es neue Anwendungsbereiche tatsächlich bereichern kann, mit einem unumstößlichen Nutzen für Anwender.
Sicher ist nur eines, der ganze aktuell generierte Hype plus Marketing werden so manchen Interessenten definitiv in die Irre führen, gewollt oder ungewollt.

Auf die Nachfrage, wie denn der Input genauer zustande kommt und dessen Qualität sichergestellt wird, kamen nur sehr oberflächliche Antworten. Zusammengefasst sei die Datenquelle das Internet. Viele Menschen, auf der ganzen Welt verteilt, würden den Inhalt und generierte Aussagen auf ihre Qualität hin beurteilen und ggf. korrigierend eingreifen. Die hierbei eingesetzten technischen und lebenden Ressourcen seien extrem kostenintensiv. Details hierzu bei OpenAI oder Partnern konnte es partout nicht preisgeben.

Nun, wir werden sehen, was daraus wird, auch mit der angekündigten 1Mrd Dollar Investition von MS.

Bewerten
- +
Ansicht umschalten