Digitale Gefühlskontrolle: Vom Lächeln an der Kasse bis zur KI im Job

Menschen an Computern mit Emojis vor dem Gesicht

Gefühle werden digital messbar. Mastercard testet bereits Bezahlen per Lächeln, während Arbeitgeber Emotionen ihrer Mitarbeiter scannen. Wohin führt diese Entwicklung?

Die Technologie zur Gesichtserkennung wird immer präziser. Einem besonderen Trend folgt dabei der Kreditkartenanbieter Mastercard. Die Emotionssteuerung an der Kasse nutzt das Lächeln einer Person, um eine Zahlungsauthentifizierung auszulösen. Diese Sensortechnologie zur Erkennung menschlicher Reaktionen kombiniert Funktionen, indem 3D-Kameras, Gestenerkennungsalgorithmen und Gesichtserkennungssoftware kombiniert werden.

Registrierte Kunden werden mit der biometrischen Datenbank des Unternehmens abgeglichen. Die Zahlung ist nur möglich, wenn ein Kunde lächelt. Die Datenbanken befinden sich im Besitz gewinnorientierter Unternehmen. Dies besorgt viele Datenschützer.

Widerstand im Change-Management: Psychologie in der Unternehmensführung

In der Arbeitswelt ist die Gefühlserkennung schon länger Alltag. Die Steuerung im Betrieb ist nicht nur eine Frage von Technik-Einsatz und Betriebsorganisation. Der Umgang mit Gefühlen wird zunehmend zur Aufgabe von Managern. Dies kann bei Umstrukturierungen sein, bei denen Unternehmensberater ein Vorgehen nach Change-Management-Methoden empfehlen.

Es soll der "Umgang mit Widerständen" geplant werden, wenn Veränderungen anstehen. Widerstand müsse "erst einmal als natürliche Reaktion auf Veränderung verstanden und akzeptiert werden", berichtet die Ludwig-Maximilians-Universität München.

"Mache Dir bewusst, dass Widerstand immer eine persönliche verschlüsselte Botschaft enthält", lautet ein Rat an Führungskräfte. Breite Kommunikation wird empfohlen, Informationen zum "Warum" und "Wie" der Veränderungen sollen dargestellt werden. "Druck wegnehmen und dem Widerstand Raum geben", gibt teamElephant dem Management Tipps.

"Kompetenz im Bereich KI für Führungskräfte" ist von entscheidender Bedeutung, meldet die Haufe Akademie. Denn KI objektiviert Entscheidungsprozesse, indem sie "Muster erkennt". Dadurch minimiert sie subjektive Einflüsse.

KI in der Bewerberauswahl: Objektivierung oder Diskriminierung?

KI-gestützte Systeme wie HireVue werten zur Bewerberauswahl Lebensläufe aus, führen Videointerviews und analysieren sogar Sprachmuster. Algorithmen priorisieren dann Bewerbungen basierend auf vorgegebenen Kriterien, wie spezifischen Fähigkeiten oder Erfahrungen, und sortieren "unpassende" Kandidaten aus.

Prädiktive Analysen prognostizieren zukünftige Entwicklungen. KI verbessert diese Analysen deutlich, da sie aus großen Datenmengen lernt und genauere Vorhersagen trifft.

Haufe Akademie

Einzelne Callcenter bewerten per ACD (Automatic Call Distribution). Diese Technik verteilt nicht nur die eingehenden Anrufe von Kunden auf einzelne Ansprechpartner im Kundenservice. Vielmehr kann sie auch genutzt werden, um Call-Center-Agents vorzugeben, welche Kundin sofort anzurufen ist.

Auch werben viele Anbieter damit, dass Software Emotionen anhand der Stimme auswerten kann: Ist der Kunde verärgert? Wie schnell sprechen die Beschäftigten? Klingen sie aufgeregt oder ängstlich?

Emotionale Intelligenz (EI) fördert Empathie, Verbundenheit und sinnvolle Interaktionen – der Schlüssel zu einem außergewöhnlichen Kundenservice.

Teleperformance

Technik verteilt dabei die Arbeit, Vergleichszahlen unterschiedlicher Kundenberater werden zum Benchmarking genutzt. Der Begriff "Skalierbarkeit" verschleiert, wie Beschäftigte in Konkurrenz gesetzt werden. Die "Gesamtzahl aller angenommenen Anrufe" oder die Durchschnittsdauer von Gesprächen werden verglichen. So müssen sich die Angestellten rechtfertigen, warum ein Telefonat eine bestimmte Dauer überschritten hat oder in einem anderen Team die Kundenanfragen viel schneller bearbeitet werden.

Auf Basis dieser Software werden die Prozesse ständig gemessen, standardisiert und die Beschäftigten durch Zeitvorgaben kontrolliert. Es soll der Arbeitsanfall und das Kundenverhalten prognostiziert und stundentaktgenaue Vorgaben des Arbeitsvolumens ermittelt werden, um Personalkapazitäten und die Verteilung der Arbeitszeiten bis hin zur Lage der Pausen vorschreiben zu können.

Ausgehend von Vergangenheitsdaten zur Kundenfrequenz-Messung entsteht oft mit KI-Hilfe ein Ausblick für die Personaleinsatzplanung, der meist "Forecast" genannt wird. Digitalisierung erhöht so den Druck auf die Belegschaften.

KI und Unternehmenskultur: Passt der Bewerber ins Team?

Selbst zur Förderung der Unternehmenskultur wird Technik eingesetzt. "Culture Fit Scanners" sollen KI-gestützt analysieren können, ob Bewerber basierend auf ihrer Kommunikation und ihren Werten in die bestehende Unternehmenskultur passen, schreibt Philipp B. Donath, Professor an der University of Labour in Frankfurt am Main.

Bei Emotionserkennung gilt es jedoch, die KI-Verordnung der EU (EU-KI-VO) einzuhalten. Die EU KI-VO basiert auf einem "risikobasierten Ansatz". Unternehmen müssen die KI-Systeme in Kategorien einteilen. Verboten sind KI-Systeme, die manipulative, irreführende Techniken anwenden, um das Verhalten von Menschen zu beeinflussen oder deren Schwächen auszunutzen, etwa aufgrund ihres Alters oder ihrer Behinderung.

Auch die Nutzung von biometrischen Daten zur Kategorisierung von Personen nach sensiblen Merkmalen wie Religion oder sexueller Orientierung ist untersagt.

Demnach ist in der EU die Anwendung von KI-Programmen verboten, die eine Bewertung nach sozialem Verhalten vornehmen (Social Scoring). Auch eine Emotionserkennung am Arbeitsplatz und in Bildungseinrichtungen sowie manipulative KI-Systeme sind nicht erlaubt.

EU-Landesvertretung Rheinland-Pfalz

Die EU-Kommission hat inzwischen Richtlinien veröffentlicht, was die Verbote der KI-EU-VO nach ihrer Auffassung umfassen. Ob ein Betreiber tatsächlich gegen die neuen Vorschriften verstoßen hat, entscheiden verbindlich nur die Gerichte – und in letzter Instanz der Europäische Gerichtshof.

Berichte, dass Unternehmen deshalb auf Emotionserkennung verzichten, gibt es derzeit keine. Auch dürften viele Firmenvertreter damit argumentieren, die Erkennungssoftware über Algorithmen statt KI zu steuern. Ein klares Verbot von Technologien zur Emotionserkennung fordert ein Bündnis von Bürgerrechtsorganisationen wie AcessNow, EDRi und Article19.