Künstliche Intelligenz am Arbeitsplatz: Wie die Furcht vor ihr gelindert wird
Neue Technologien stoßen oft auf Ablehnung unter Beschäftigten. Das muss aber nicht so sein. Ein neues Forschungsprojekt zeigt, was hilft und was zu tun ist.
Künstliche Intelligenz (KI) ist in den Betrieben auf dem Vormarsch. Doch wie fast jede neue Technik ergeben sich aus ihr auch Schwierigkeiten für die Unternehmen. Offene Ablehnung durch die Beschäftigten ist dabei ein hohes Risiko für Unternehmen. Wie Manager diesen Ängsten entgegenwirken können, will ein Forschungs- und Entwicklungsprojekt erarbeiten.
"KI_eeper – Know how to keep" ist ein Projekt, das vom Bundesministerium für Bildung und Forschung gefördert wird. Dabei wird ein selbstlernendes KI-Assistenzsystem für den Transfer von "Erfahrungswissen in der Produktion" entwickelt. Erfahrungswissen, über das nur "langjährige, gut eingearbeitete Beschäftigte verfügen", soll damit automatisiert gespeichert werden, berichtet Nicole Ottersböck, wissenschaftliche Mitarbeiterin des Instituts für angewandte Arbeitswissenschaft (ifaa).
Eine offene Kommunikation über den Entwicklungsfortschritt ist wichtig, auch um Konzepte und Präsentationsmaterialien inhaltlich zu planen und adressatengerecht aufzubereiten. So werden "alle an den Arbeitsprozessen beteiligten Beschäftigten in den Pilotbereichen sowie IT-Fachkräfte, Bereichs- und Fertigungsleiter und Projektverantwortliche einbezogen", betont Ottersböck.
"Gemeinsam mit den Beschäftigten wurden mögliche Auswirkungen des konzipierten KI-Systems ethischer, rechtlicher und sozialer Art in einem Workshop thematisiert", lobt die Wissenschaftlerin. Denn die Einführung von KI-basierten Technologien in Unternehmen "scheitert häufig an den Ängsten der Beschäftigten".
Dass es dabei nicht um ein grundsätzliches Hinterfragen der Folgen geht, zeigt der Hinweis, dass die Vorstellung des Systems durch "eine leicht verständliche Sprache ohne Fremdwörter, die Verwendung visueller Mittel und praktische Beispiele zu KI-basierten Systemen in Alltag und Beruf" bei der Akzeptanz-Schaffung helfen soll. Die einzelnen Funktionalitäten wurden den Beschäftigten "anhand einer User-Story vorgestellt".
Die Wissensbasis der KI wird von den Beschäftigten in der Praxis genutzt, um ihre Arbeit fehlerfrei auszuführen. Was hier als ein Element des Wissensmanagements dargestellt wird, kann auch dazu genutzt werden, Beschäftigte zu ersetzen. Der Wissenstransfer kann auch Auswirkungen auf die Entlohnung haben. Wenn es gelingt, statt Facharbeitern angelernte Arbeitskräfte mit Aufgaben zu betrauen, wäre eine niedrigere Entlohnung die logische Forderung der Unternehmen, da nach diesem Ansatz das Wissen nicht bei den Beschäftigten liegt, sondern von der Technik bereitgestellt wird.
Akzeptanzprobleme bei der Einführung neuer Technologien sind nicht neu. Kürzlich berichtete die Universität des Saarlandes über eine Studie zum "Kollegen Roboter".
Wenn es um den Einsatz von Robotern in der Logistik geht, sind neben Kosten- und Effizienzkriterien "die Akzeptanz der Technologie und die menschliche Interaktion entscheidend für den Erfolg", stellt Juniorprofessor Eric Grosse fest. In den Lagerhallen heutiger Unternehmen fahren immer häufiger Roboter und schieben Waren in die Regale, Drohnen schweben in schwindelerregenden Höhen, um die obersten Regalreihen zu inspizieren, die für Menschen nur schwer zu erreichen sind.
"Die Menschen, die mit den Robotern zusammenarbeiten sollen, fürchten Über- oder Unterforderung, Stress, mangelnde Partizipation, Demotivation, Angst und so weiter. Das kann die Akzeptanz der Zusammenarbeit erheblich beeinflussen", so der Wissenschaftler.
Insofern sei eine "besondere Berücksichtigung menschlicher Faktoren" schon vor der Einführung neuer Technik wesentlich. Ansonsten könne es sein, dass bestimmte Systeme in der Praxis "unzureichend funktionieren und das Problem von Schein- bzw. sog. Phantomgewinne in puncto Effizienz" entstünde. Denn wer "mit einem vollautomatischen, mehrere Hundert Kilo schweren Roboter durch die Gänge der Lagerhäuser streift, hat womöglich Angst davor, dass der Roboter einen Fehler machen und jemanden verletzen könnte", so Grosse. Bei der Einführung neuer Technologien seien "die Akzeptanz der Technologie und die menschliche Interaktion entscheidend für den Erfolg", so der Juniorprofessor.
Die Risiken von KI sind nicht nur ein Thema der Wissenschaft. Die Antidiskriminierungsbeauftragte des Bundes, Ferda Ataman, fordert gesetzliche Regelungen zum Schutz vor Diskriminierung durch neue Technologien. "Digitalisierung, künstliche Intelligenz und Algorithmen machen vieles leichter – leider auch Diskriminierung", so die Beauftragte. Die Bundesregierung müsse die geplante Reform des Allgemeinen Gleichbehandlungsgesetzes (AGG) nutzen, um Menschen vor den Gefahren digitaler Diskriminierung zu schützen.
Schon heute werden Bewerbungen von Programmen vorsortiert. E-Recruiting ist die digital unterstützte Personalbeschaffung. Unternehmen bieten Bewerbungen über Online-Portale an. Dabei spielen KI und Algorithmen eine wichtige Rolle. Sollen Bewerbungen nach bestimmten Informationen durchsucht werden, können Begriffe wie IT-Consultant oder Meisterabschluss vorgegeben werden.
Was auf den ersten Blick objektiv erscheine, könne in Wirklichkeit Vorurteile verfestigen, warnt Ataman und stellt ein Rechtsgutachten vor, das in der Fehleranfälligkeit automatisierter Entscheidungen ein großes Problem sieht und vor "Diskriminierung durch Statistik" warnt. Die Gefahr ist groß, dass Menschen, die durch das KI-Raster fallen, gar nicht erst zu einem Vorstellungsgespräch eingeladen werden. Zum Beispiel, weil sie in einem Postleitzahlengebiet wohnen, das als problematisch gespeichert ist.
Ataman forderte, "Handeln durch automatisierte Entscheidungssysteme" als Benachteiligung in das Antidiskriminierungsgesetz aufzunehmen.
Empfohlener redaktioneller Inhalt
Mit Ihrer Zustimmmung wird hier eine externe Buchempfehlung (Amazon Affiliates) geladen.
Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen (Amazon Affiliates) übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.