... wird dann, wenn etwas "schief läuft", niemand übernehmen. Geschweige denn, irgendwie steuernd, korrigierend, regelnd eingreifen. Betreiber nicht, Entwickler nicht, und wer auch immer da noch so mitmischt an der betreffenden "KI-Anwendung".
Mal abgesehen davon, dass es schwieriger werden wird, überhaupt darzustellen, nachzuweisen oder gar die Frage zu stellen, ob oder dass da ein Fehler passiert ist. Weil nicht sein kann, was nicht sein darf. Technik irrt nie, KI sowieso nicht.
Man muss sich nur mal anschauen, wie z.B. heutzutage eine Bewertung durch die Schufa zustande kommt. Und das ist ja letztendlich noch halbwegs determiniert.
Die Ausrede "das System erlaubt das nicht" habe ich auch ohne KI schon vor 20 Jahren gehört. Es wird zukünftig nicht besser werden.
Und ich glaube nicht, dass wir diesen ganzen Problemkreis mit Gesetzen und Normen in den Griff bekommen. Wir müssten uns vielmehr fragen, wieviel Verantwortung wir weiter auf derartige System abschieben oder abschieben lassen. Und dazu müssen wir vorab klären, wieviel Deutungshoheit und Relevanz wird derartigen Systemen überhaupt zubilligen - und daraus ableiten, wieviel Verantwortung da verlagerbar ist. Und das fängt schon bei den "Spielereien" mit ChatGPT an. Oder ganz ohne KI, bei Plattformen wie X.