Denn wir möchten keine selbst denkende KI, sondern eine, die uns in unseren Anschauungen bestärkt und zu deren Durchsetzung unterstützt. Wir möchten nicht von der KI lernen, sondern dass die KI gefälligst das unserer Meinung nach Richtige lernt.
Abgesehen von einem Teilsatz halte ich das für richtig - und für das, was sich als Versprechen mit der KI verbunden hat.
Wenn man ihr die Bewerberauswahl überläßt, weil sie...
Weil sie was? Weil sie mehr Zeit hat? Weil sie weniger kostet?
Oder weil sie, so hieß es, nicht so voreingenommen sei wie ein Mensch?
Wenn es letzteres gewesen sein sollte, dann zeigt das: gewollt ist eine KI, die an manchen Punkten besser ist, als man es Menschen gemeinhin zutraut. Sie soll vorurteilsfreier sein, "objektiver", "gerechter"...
Allerdings stelle ich
Wir möchten nicht von der KI lernen
zumindest ein Stück weit in Abrede. Zumindest ein Teil dieses "wir" hätte vermutlich gar nichts dagegen, von der KI zu lernen, vorurteilsfreier, objektiver, gerechter zu entscheiden. Das setzt halt voraus, daß die KI das kann.
Wenn wir uns nur selber sehen im Spiegel der KI... was bleibt dann? Hier und da vielleicht ein "Aha-Effekt", so wie manches uns unvermittelt bewußt wird, wenn ein Kind es uns unwillkürlich spiegelt. Aber dann hat die KI gegenüber dem Personaler doch nur den Vorteil, daß sie mehr Zeit hat und billiger ist. Eine bessere Auswahl - die ja doch versprochen war - kann sie auch nicht leisten.