Sozialkredite als Zukunftstrend?
Arbeitsgruppe im Forschungsministerium entwickelt mögliche Zukunftsszenarien. Dabei spielen auch Bonuspunkte eine Rolle, wie sie in China Anwendung finden
Technische Kontrollinstrumente zur Covid-19-Entwicklung in Südkorea begeisterten auch in Europa machen Regierungspolitiken, die laxen Vorschriften bei Neubauten in Katar sorgen für Zuspruch bei Bauunternehmern. Häufig werden Erfahrungen anderer Länder zur Argumentation hierzulande genutzt. Manchmal auch von höchsten Stellen. Was wäre, wenn ein Sozialkreditsystem wie in China auch in der Bundesrepublik eingesetzt würde? Auch dieses Szenario wurde von einer Arbeitsgruppe im Auftrag von Bundesforschungsministerin Anja Karliczek entworfen.
Bei Sozialkreditsystemen werden Menschen anhand unterschiedlicher gesammelter Daten bewertet. Nachbarn können als "Big Brother" Noten vergeben, Kameras mit Gesichtserkennungsprogrammen dokumentieren Fehlverhalten, wie das Überfahren einer roten Ampel oder die Teilnahme an einer verbotenen Demonstration.
Die ermittelten Punkte sind bedeutsam beim Erwerb von Tickets für Hochgeschwindigkeitszüge oder helfen dem Personalchef, der über eine Bewerbung zu entscheiden hat. Dieses umfassende gesellschaftliche Experiment zur Disziplinierung und Kontrolle weckt offenbar auch hierzulande Begehrlichkeiten.
Der "Zukunftskreis" des Bundesforschungsministeriums sucht aktuell nach Zukunftstrends. Dabei wurde auch ein Szenario zu Social-Scoring-Praktiken entwickelt. Die Frage: Was wäre, wenn hierzulande ein Bonuspunktesystem eingeführt wird, dass sich am Sozialkreditsystem Chinas orientiert? Über dieses Szenario, das von dem Wissenschaftsgremium auf Basis einer Wertestudie entwickelt wurde, berichtete unlängst Zukunftskreis-Mitglied Karim Fathi.
Im "Plattform-Punkte-Kapitalismus" würde die Punktevergabe "nicht nur zentralisiert über den Staat erfolgen", sondern in Freizeit oder Betrieb durch Vermieter oder Vorgesetzte. Folge des Szenarios sei die Einführung des Punktesystems und "eine transparent einsehbare und unternehmensübergreifend vereinheitlichende Bewertungsgrundlage".
In der Arbeitswelt könne so Künstliche Intelligenz "immer komplexere Auswertungs- und Entscheidungsfunktionen, auch auf Grundlage des Punktesystems" übernehmen. Mit Personalbewertung befasste Technik kann für Unternehmen sämtliche Daten in einer Art "Reputationsscore" zusammenführen.
Erzwungene Freiwilligkeit
In der "Leistungsgesellschaft 2.0" gebe es auch neue Jobs, verdeutlicht Fathi. So würden "menschliche Scoring-Coaches für Fach- und Führungskräfte sowie für ganze Unternehmen" helfen, das Scoring-Profil zu analysieren und auf Basis "vielfältiger, auch intimster Daten, die der Klient oder die Klientin zur Verfügung stellt" die Punkte zu verbessern. Das System solle auf Freiwilligkeit beruhen, so Fathi. Kritiker des Systems seien aber in der Gefahr, ins "soziale Außenseitertum" abzurutschen.
Beim "Arbeiten im digitalen Bonussystem" herrsche "hoher Konkurrenz- und Leistungsdruck infolge der Ausweitung des sozialen Wettbewerbs". "In der Welt des Bonussystems ist die Mehrheit der Menschen von ihrem Score abhängig und wird danach ihren Lebenssinn ausrichten", ist sich Fathi sicher.
Das Szenario knüpft an aktuelle Entwicklungen an. So kommen in vielen Unternehmen seit Pandemie-Ausbruch bei der Personalsuche Roboter zum Einsatz. E-Recruiting ist digital unterstützte Personalbeschaffung. Global Player wie Evonik oder Merck wollen die Technik zum Standard machen. Merck hat mit der Technischen Universität Darmstadt in einer Feldstudie die Reaktion auf eine Mensch-Roboter-Interaktion erforscht.
Eine Roboterfrau namens Elenoide befragt Beschäftigte über ihre Bewerbungen. Unternehmen sehen Vorteile in den Neuerungen – immer weniger Zeit müssen Personalchefs dann mit Bewerbungsgesprächen verbringen.
Nicht immer werden Versprechungen aber auch Realität. Algorithmen lassen sich auch von Oberflächlichkeiten leiten, wie Technikexperten des Bayerischen Rundfunks aufdeckten. Eine KI-basierte Software des Start-ups Retorio soll anhand kurzer Videointerviews "Verhaltensweisen erkennen und darauf basierend ein Persönlichkeitsprofil erstellen" können. Der Bewerbungsprozess werde "nicht nur schneller, sondern auch objektiver und fairer gestaltet".
Mit elf Testpersonen hat der Sender mehrere hundert Videos produziert, die von der Software anschließend bewertet wurden. Als eine Bewerberin Bluse und Jackett gegen ein T-Shirt tauschte, bewertete das Programm die Persönlichkeit anders. Bei einem Austausch des Hintergrunds erhält die Testperson für ein und denselben Bewerbungsclip eine andere Persönlichkeitseinschätzung. Aus "bodenständig" wird plötzlich "interessiert", nur weil eine Bücherwand im Hintergrund zu sehen ist.
Vorurteile werden auch von einer KI reproduziert
"Auch eine KI kann mit Vorurteilen belastet sein", zeigt Henning Wachsmuth vom Institut für Informatik der Universität Paderborn auf.1 In ein Suchprogramm können dabei Annahmen einfließen, die falsch oder diskriminierend sind.
Schon heute werden Bewerbungen von Programmen vorsortiert. Die Gefahr ist groß, dass Personen, die durch dieses "Raster fallen", gar keine Chance haben, zu einem Bewerbungsgespräch eingeladen zu werden. Etwa, da sie in einem Postleitzahlenbereich wohnen, der als problematisch hinterlegt ist. Da der Software stets Daten zur Verfügung gestellt werden, mit denen sie lernen soll, erfolgt diese Auswahl durch Menschen.
Programme suchen nach "Korrelationen zwischen Konzepten in Daten. Sie haben kein eigenes Verständnis davon, ob diese Korrelationen in Vorurteilen begründet sind, sondern nutzen einfach das aus, was sie analysieren können", erläutert der Junior-Professor.
Auffallend sei dabei "Word Embeddings". Es handelt sich um gängige Sprachrepräsentationen, die von KI auf Basis großer Datenmengen gelernt werden, um die Bedeutung von Texten verarbeitbar zu machen.
Dabei kommt es etwa zu Benachteiligungen aufgrund des Geschlechtes, wenn Frauen "mehr mit Begriffen aus dem häuslichen Umfeld in Verbindung gebracht werden und Männer mehr mit beruflichen Kontexten", so Wachsmuth. Es spreche vieles dafür, dass die KI auch Vorurteile aus den Daten übernommen hat. Dies sei jedoch kein Automatismus.
Werde die Auswahl an Technikexperten übertragen, die "kaum bezüglich der sozialen Perspektive geschult sind", sei das Risiko groß, Vorurteile weiter zu pflegen. Aufklärung sei bei der Realisierung wichtig. Es stelle sich jedoch die "generelle Frage, inwiefern KI-Algorithmen für Entscheidungsprozesse, bei denen es um Menschen geht, eingesetzt werden sollten".
Ein "Vermummungsverbot für Algorithmen" fordert Jörg Dräger, Vorstand der Bertelsmann-Stiftung und warnt vor Risiken. In vielen Unternehmen in den USA wird derselbe Algorithmus eingesetzt, der entscheidet, ob jemand zum Vorstellungsgespräch eingeladen werde. Dann besteht die Gefahr, dass bestimmte Gruppen von Menschen ganz vom Arbeitsmarkt ausgeschlossen werden, so auch Dräger.
Er fordert klare Regeln. Jeder Bürger müsse wissen, ob ein Algorithmus am Werk ist und welche Daten herangezogen werden. Nötig sei "eine Art Beipackzettel" für die Technik. Dafür stehe die Politik in der Pflicht: "Dazu müssen wir natürlich das Zepter des Handelns in der Hand halten. Die Digitalisierung ist ein Werkzeug der Gesellschaft und ihr untertan. Menschen bestimmen die Ziele und entscheiden, was Maschinen erlaubt und was ihnen verboten wird".
In einer früheren Version dieses Textes hieß es, Bundesforschungsministerin Anja Karliczek lasse Wege zur Einführung des Sozialkreditsystems in der Bundesrepublik erforschen. Das stimmt so nicht. Die Debatte im "Zukunftskreis" bezieht sich auf theoretische Szenarien. Die Redaktion
Empfohlener redaktioneller Inhalt
Mit Ihrer Zustimmmung wird hier eine externe Buchempfehlung (Amazon Affiliates) geladen.
Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen (Amazon Affiliates) übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.