denn mal ehrlich, wie hätte die KI denn entscheiden sollen? Angesichts eines drastischen zahlenmäßigen Mißverhältnisses von Männlein zu Weiblein in technischen Berufen die Frauen bevorzugen und somit nicht den besten Kandidaten für den Job finden, sondern irgendwen zur Not auch vollkommen ungeeignet, Hauptsache die Chromosomen stimmen? Das wäre (ist!!!) eine grotesk dämliche Entscheidung, die mit gesundem Menschenverstand nicht das geringste zu tun hat. Wenn ein Personaler eine Frau ablehnt, weil diese nicht über die entsprechende Qualifikation verfügt, ist das ok. Wieso soll es nicht ok sein, wenn die KI aus dem gleichen Grund eine Frau aussortiert? Die KI ist da aufgrund von Fakten zu diesem Schluß gekommen, nicht aufgrund von Vorurteilen es sei denn, jemand hat da seine Vorurteile einprogrammiert, wobei es recht unwahrscheinlich ist, da drin die Codezeile zu finden:
if gender==female then jobchance = jobchance * 0,5
schon weil da niemand alleine dran werkelt und auch niemand alleine den Hut auf hat.
Wer diese Entscheidung nicht akzeptieren will, der sollte die Gründe ändern, warum die KI zu dieser Entscheidung gelangte, und nicht die Entscheidung an sich infrage stellen.