KI-Systeme sind nicht von Gefühlen oder Empathie bestimmt. Somit bewerten sie Sachverhalte objektiv.
Die Trainingsdaten, mit denen die Künstliche Intelligenz gefüttert wird, liefert jedoch der Mensch und der entscheidet aufgrund seiner persönlichen Erfahrungen subjektiv. So kommt es zwangläufig zu Verzerrungen und Verfälschungen, Algorithmic Bias genannt.
Diese Verzerrungen sind natürlich umso schwerwiegender, je einseitiger die Auswahl der Daten erfolgt, wenn politische, ökonomische oder andere Interessen im Spiel sind.
Selbst, wenn es - rein theoretisch - eine KI gäbe, die über die Totalität aller Informationen verfügen würde und diese auch verarbeiten könnte, blieben ihre Analysen abstrakt, während die Realität ein konkreter lebendiger Prozess ist.
Selbst die beste Landkarte erfasst nicht die Landschaft in ihrer ganzen lebendigen Wirklichkeit.