Das kann man durchaus so sehen - die Forderung, dass man Alles nur gegen Offenlegung seines Bauplans kauft, ist aber ziemlich realitätsfremd: vom genauen Rezept der Suppe im Restaurant über den Fertigungsprozess des Autos, das man fährt, bis zu den Formeln der Materialzusammensetzung der Dachfenster im Haus würde einem keine Anbieter diesen offenlegen. Doch gute Anbieter erklären präzise, wie das Produkt funktioniert und machen das für Nutzer ebenso wie für unabhängige Tester überprüfbar.
Das ist der primären Unterschied zwischen Explainable AI und Black Box AI, den ich im Beitrag betonte: Explainable AI (wie von Hase & Igel) kann für jede Empfehlung, die sie ausspricht, genau offenlegen, welche Daten dafür ausschlaggebend waren, und welche genauen Berechnungen - inklusive Formeln für die Modelle - zu dem Schluss führen. Das ist übrigens aucj etwas, was staatliche Stellen als Kunden oder Förderer mit gutem Recht verlangen.
Black Box AI (wie ChatGPT) ist nicht in der Lage, diese Fragen zu beantworten, weil sie so konstruiert ist, dass sie diese Lösungswege nicht dokumentiert bzw es dafür auch gar keine analytische Lösung gibt.
Damit ist im letzteren Fall die Empfehlung und der Lösungsweg nicht überprüfbar, im ersteren Fall schon.
So geben wir nicht unser Produkt (= Code) aus der Hand, doch der Nutzer/Mieter behält die Kontrolle (und kann übrigens alle erhobenen Daten und alle Analysen jederzeit herunterladen).