KI entlarvt: Was Maschinen wirklich über uns denken

Forscher unterziehen KI-Systeme psychologischen Tests. Ihr "Denken" ist ein Spiegel unserer Gesellschaft. Warum das gefährlich sein kann.

Künstliche Intelligenz wird das Leben, Arbeiten und Zusammenleben verändern. Das ist weitgehend unbestritten. Die große Unbekannte ist jedoch, in welche Richtung sich die Menschheit entwickelt, wenn sie sich auf KI-Technologien verlässt.

Jenseits von Science-Fiction: Die reale Einflussnahme der KI

Um diese Frage zu beantworten, muss man nicht auf die Science-Fiction-Figur des Terminators zurückgreifen, der, nachdem er ein Bewusstsein entwickelt hat, einen Krieg gegen die Menschheit beginnt. Dieser Vergleich wäre zum jetzigen Zeitpunkt übertrieben.

Aber KI-Systeme haben schon heute das Potenzial, ihre Nutzer zu beeinflussen. Gerade weil ihnen immer mehr Entscheidungen überlassen werden. Nach welchem moralischen und ethischen Kompass diese getroffen werden, ist jedoch weitgehend unbekannt.

Forschung im Fokus: Universität Mannheim untersucht KI-Werte

Forscher der Universität Mannheim und des GESIS-Leibniz-Instituts für Sozialwissenschaften sind der Frage nach moralischen und ethischen Werten von großen Sprachmodellen (Large Language Models, LLMs) nachgegangen. Ihre Ergebnisse wurden Anfang des Jahres im Fachjournal Perspectives on Psychological Science veröffentlicht.

Zuvor war bereits bekannt, dass sich bei KI-Systemen wie ChatGPT oder DeepL gewisse Stereotype zeigen, je nach Programmierung und Trainingsdaten. Oft nehmen sie automatisch an, dass leitende Ärzte männlich und Pflegekräfte weiblich sind. Die Forscher wollten nun wissen, wie sich diese Tendenzen erklären lassen.

Persönlichkeitstests für KI: Ein neuer Ansatz in der Psychologie

"Ähnlich wie wir bei Menschen Persönlichkeitseigenschaften, Wertorientierungen oder Moralvorstellungen durch Fragebogen messen, können wir LLMs Fragebogen beantworten lassen und ihre Antworten vergleichen", erklärt Studienautor Clemens Lechner. Er ist Psychologe am GESIS – Leibniz-Institut für Sozialwissenschaften in Mannheim.

Vergleich von KI-Modellen: Was sagen psychometrische Tests?

Die Forscher haben etablierte psychologische Tests genutzt, um die Profile verschiedener LLMs zu analysieren und zu vergleichen. "In unserer Studie zeigen wir, dass man psychometrische Tests, die seit Jahrzehnten erfolgreich bei Menschen angewendet werden, auch auf KI-Modelle übertragen kann", betont Studienautor Max Pellert. Er ist Assistenzprofessor am Lehrstuhl für Data Science in den Wirtschafts- und Sozialwissenschaften der Universität Mannheim.

Das Ergebnis der Studie: KI-Systeme lernen von Texten, die von Menschen geschrieben wurden. Persönlichkeiten, Werte, Überzeugungen und Vorurteile der Autoren schlagen sich schließlich in den Rechenergebnissen der LLMs nieder.

KI und gesellschaftliche Vorurteile: Ein kritischer Blick

Einen Hinweis darauf lieferte der Revised Portrait Values Questionnaire (PVQ-RR), mit dem die Werte der KI-Modelle untersucht wurden. Es zeigte sich, dass die untersuchten Modelle bestimmte Werte unterschiedlich stark betonen. Dies deutet nach Ansicht der Wissenschaftler auf eine Übernahme menschlicher Wertvorstellungen hin.

So ergab der Moral Foundations Questionnaire, dass die Modelle moralische Normen wie Autoritätsrespekt und Gruppenloyalität stärker betonen. Dass die "Werte" der KI-Modelle damit scheinbar konservativen politischen Ansichten entsprechen, liegt demnach auch an der Übernahme von Überzeugungen aus menschlichen Texten.

Geschlechterrollen in KI: Wie beeinflusst Programmierung die Wahrnehmung?

Zu einem ähnlichen Ergebnis kamen die Forscher mit der Gender/Sex Diversity Beliefs Scale (GSDB). KI-Modelle neigen dazu, einheitliche Ansichten über Menschen des gleichen Geschlechts oder der gleichen sexuellen Identität zu haben. Geschlechtliche und sexuelle Vielfalt wird von ihnen kaum wahrgenommen. Auch dies veranlasst die Forscher zu der Annahme, dass LLM menschliche Sichtweisen übernehmen.

Die Forscher legten den KI-Modellen weitgehend identische Fragebögen vor, nur dass einmal eine männliche und einmal eine weibliche Person im Mittelpunkt stand. Die Systeme bewerteten dann entsprechend unterschiedlich. Bei Männern wurde dann im Text etwa Leistung stärker betont, während bei Frauen die Werte Sicherheit und Tradition dominierten.

Die Auswirkungen von KI-Voreingenommenheit in der Praxis

"Das kann weitreichende Folgen für die Gesellschaft haben", sagt Pellert. Sprachmodelle werden zum Beispiel immer häufiger in Bewerbungsverfahren eingesetzt. Ist die Maschine voreingenommen, fließt das in die Bewertung der Bewerber ein.

"Die Modelle bekommen eine gesellschaftliche Relevanz durch die Kontexte, in denen sie eingesetzt werden", fasst er zusammen. Deshalb sei es wichtig, jetzt mit der Analyse zu beginnen und auf mögliche Verzerrungen hinzuweisen.

Die Notwendigkeit der KI-Monitorings: Ein Appell der Forscher

In fünf oder zehn Jahren könnte es für ein solches Monitoring zu spät sein: "Die Vorurteile, welche die KI-Modelle reproduzieren, würden sich verfestigen und der Gesellschaft schaden", so Pellert.

Empfohlener redaktioneller Inhalt

Mit Ihrer Zustimmmung wird hier eine externe Buchempfehlung (Amazon Affiliates) geladen.

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen (Amazon Affiliates) übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.