Sozialkredite als Zukunftstrend?
Seite 2: Vorurteile werden auch von einer KI reproduziert
- Sozialkredite als Zukunftstrend?
- Vorurteile werden auch von einer KI reproduziert
- Auf einer Seite lesen
"Auch eine KI kann mit Vorurteilen belastet sein", zeigt Henning Wachsmuth vom Institut für Informatik der Universität Paderborn auf.1 In ein Suchprogramm können dabei Annahmen einfließen, die falsch oder diskriminierend sind.
Schon heute werden Bewerbungen von Programmen vorsortiert. Die Gefahr ist groß, dass Personen, die durch dieses "Raster fallen", gar keine Chance haben, zu einem Bewerbungsgespräch eingeladen zu werden. Etwa, da sie in einem Postleitzahlenbereich wohnen, der als problematisch hinterlegt ist. Da der Software stets Daten zur Verfügung gestellt werden, mit denen sie lernen soll, erfolgt diese Auswahl durch Menschen.
Programme suchen nach "Korrelationen zwischen Konzepten in Daten. Sie haben kein eigenes Verständnis davon, ob diese Korrelationen in Vorurteilen begründet sind, sondern nutzen einfach das aus, was sie analysieren können", erläutert der Junior-Professor.
Auffallend sei dabei "Word Embeddings". Es handelt sich um gängige Sprachrepräsentationen, die von KI auf Basis großer Datenmengen gelernt werden, um die Bedeutung von Texten verarbeitbar zu machen.
Dabei kommt es etwa zu Benachteiligungen aufgrund des Geschlechtes, wenn Frauen "mehr mit Begriffen aus dem häuslichen Umfeld in Verbindung gebracht werden und Männer mehr mit beruflichen Kontexten", so Wachsmuth. Es spreche vieles dafür, dass die KI auch Vorurteile aus den Daten übernommen hat. Dies sei jedoch kein Automatismus.
Werde die Auswahl an Technikexperten übertragen, die "kaum bezüglich der sozialen Perspektive geschult sind", sei das Risiko groß, Vorurteile weiter zu pflegen. Aufklärung sei bei der Realisierung wichtig. Es stelle sich jedoch die "generelle Frage, inwiefern KI-Algorithmen für Entscheidungsprozesse, bei denen es um Menschen geht, eingesetzt werden sollten".
Ein "Vermummungsverbot für Algorithmen" fordert Jörg Dräger, Vorstand der Bertelsmann-Stiftung und warnt vor Risiken. In vielen Unternehmen in den USA wird derselbe Algorithmus eingesetzt, der entscheidet, ob jemand zum Vorstellungsgespräch eingeladen werde. Dann besteht die Gefahr, dass bestimmte Gruppen von Menschen ganz vom Arbeitsmarkt ausgeschlossen werden, so auch Dräger.
Er fordert klare Regeln. Jeder Bürger müsse wissen, ob ein Algorithmus am Werk ist und welche Daten herangezogen werden. Nötig sei "eine Art Beipackzettel" für die Technik. Dafür stehe die Politik in der Pflicht: "Dazu müssen wir natürlich das Zepter des Handelns in der Hand halten. Die Digitalisierung ist ein Werkzeug der Gesellschaft und ihr untertan. Menschen bestimmen die Ziele und entscheiden, was Maschinen erlaubt und was ihnen verboten wird".
In einer früheren Version dieses Textes hieß es, Bundesforschungsministerin Anja Karliczek lasse Wege zur Einführung des Sozialkreditsystems in der Bundesrepublik erforschen. Das stimmt so nicht. Die Debatte im "Zukunftskreis" bezieht sich auf theoretische Szenarien. Die Redaktion
Empfohlener redaktioneller Inhalt
Mit Ihrer Zustimmmung wird hier eine externe Buchempfehlung (Amazon Affiliates) geladen.
Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen (Amazon Affiliates) übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.