Im Blindflug in die Abhängigkeit: Was wir über KI ausblenden

Serverpark. Bild: John Voo / CC BY 2.0

Eine neue Studie untersucht mit Künstlicher Intelligenz, wie wir mit KI umgehen. Was dabei herauskommt, ist verblüffend. Ein Land verliert dabei den Anschluss.

Kann man Künstliche Intelligenz einsetzen, um besser zu verstehen, wie wir uns mit KI beschäftigen? Was kommt dabei heraus, wenn uns Analysealgorithmen nüchtern den Spiegel vorhalten zu unserem Umgang mit Künstlicher Intelligenz?

Eine Studie des von mir geführten Technologieunternehmens Hase & Igel hat diesen Versuch gewagt – und um es vorwegzunehmen: Das Bild, das die Ergebnisse zeigen, ist für unser Land nicht schmeichelhaft.

Schon seit Längerem erleben Praktiker ihre täglichen Cringe-Momente zum Fremdschämen, wenn über "die KI" gesprochen wird, als handele es sich um eine einheitliche Technologie oder gar eine Person. Wer über "den Strom" sprechen würde, statt leidenschaftlich über Atom versus Wind zu streiten oder verschiedene Anbieter zu vergleichen, würde auf Unverständnis stoßen und Lacher provozieren.

Doch finden es die meisten völlig normal, wenn Menschen etwas von sich geben wie "die KI wird das Klimawandel-Problem lösen", "die KI ist eine Menschheitsgefahr", "nutzt Du die KI schon?" oder "die KI muss reguliert werden". Mehr Details oder gar Substanz sucht man dann oft vergebens.

Doch natürlich beklagt jede Zukunft, dass man sie nicht hinreichend differenziert wahrnimmt – ist es bei KI wirklich so schlimm? Das wollten wir herausfinden und haben darauf unsere Analysealgorithmen angesetzt.

KI untersucht die Wahrnehmung von KI: Willkommen im Jahr 2023

Mit eigenen Language Models haben wir ab Mai 2022 alle öffentlichen Äußerungen im gesamten deutschsprachigen Netz untersucht – inklusive der Reaktionen darauf. Aus über 700.000 Beiträgen und 900.000 Reaktionen haben die neuronalen Netze eine Landkarte erstellt, die empirisch zeigt, welche Themen die Deutschen im Kontext KI bewegen und wie diese miteinander zusammenhängen.

Mentale Landkarte ChatGPT als Spinne im KI-Netz. Bild: HASE & IGEL GmbH

Für diese Themen haben wir ermittelt, was die Menschen im Land dazu bei Google suchen und wie sich Zahl und Art der Suchanfragen (ganz wichtig: die realen Zahlen, nicht die unzuverlässigen Index-Werte bei Google Trends) über die letzten vier Jahre verändert hat.

Über 35 Millionen Suchanfragen flossen in Machine-Learning-gestützte Trendanalysen ein, die zeigen, wie sich die Nachfrage je Thema über die Zeit entwickelt und welche künftige Entwicklung erwartbar ist.

So haben wir das bisher wohl vollständigste Bild dazu gewonnen, was KI für uns Deutsche bedeutet, was uns dazu umtreibt und wie wir uns ihr nähern – und zwar, das ist die Pointe, fast komplett automatisch und mit KI.

Das Ergebnis hat uns einerseits bestätigt – andererseits aber auch überrascht und beunruhigt.

Generative AI wird zum Synonym für KI: Ich prompte, also bin ich

Bestätigt sehen wir uns im professionellen Klagen über die undifferenzierte Wahrnehmung von KI. Nur, dass diese noch viel krasser verengt ist, als wir vorher gedacht hätten. Seit dem Siegeszug von ChatGPT und Midjourney ist Generative AI zum Synonym für KI als Ganzes geworden.

Nicht nur für Privatanwender, auch für Unternehmen besteht Künstliche Intelligenz derzeit oft in erster Linie darin, Cloud-Anwendungen zu prompten [also Input-Texte wie bei Google-Suchanfragen eingeben], um sich dann von diesen Texte, Bilder und gelegentlich Code erstellen zu lassen. Oder sie für Recherchen zu nutzen – von Hausaufgaben bis Business Cases, obwohl sich inzwischen herumgesprochen haben sollte, dass Generative AI als "Geschichtenerzähler" nicht gemacht ist dafür, zuverlässig belastbare Informationen zu beschaffen.

Andere Anwendungen von KI kommen in der öffentlichen Wahrnehmung kaum noch vor und werden auch immer weniger gesucht. Dass analytische KI zur Optimierung betrieblicher Prozesse von der Produktion bis in den Vertrieb seit Jahren Wertschöpfung in Milliardenhöhe schafft, ist genauso zu einer Fußnote geworden, wie dass Künstliche Intelligenz in IOT-Anwendungen unsichtbar und ohne Anerkennung Unglücke verhindert, in dem sie Züge, Flugzeuge und Industriekomponenten rechtzeitig in die Wartung schickt.

Auch die Rolle von KI im zunehmend automatisierten Handel mit Aktien, Gütern und Werbeplätzen ist als Thema aus der Aufmerksamkeit verschwunden – obwohl es sich um Multimilliarden-Industrien handelt.

Entwicklung Nachfrage Kategorien KI prozentual. Bild: HASE & IGEL GmbH

Die Einfachheit, mit der jeder ein Web-Frontend dazu bringen kann, ihm ein Gedicht zu schreiben, ein Werbebild zu gestalten oder Code zu überprüfen, hat das Thema für völlig neue Nutzerschichten eröffnet und damit alle anderen Aspekte verdrängt – und zwar auch bei jenen, die diese eigentlich durchaus auf dem Schirm hatten.

Eine Goldgräberstimmung, die Risiken ausblendet

Die leichte Zugänglichkeit führt zu einer wahren Goldgräberstimmung. Einer der stärksten Trends, die wir je gemessen haben, ist jener zur Gewinnerzielung mit Generativer AI. Von der Vermarktung ChatGPT-generierter Texte oder Midjourney-generierter Bilder über Software- und Beratungsprodukte auf Basis dieser Technologien bis hin zu Schülern und Studenten, die Hausaufgaben und Seminararbeiten an den Bot delegieren: Immer mehr Menschen versuchen immer schneller, Geschäftsmodelle auf Generative AI aufzubauen oder diese Art von KI in ihre eigenen Produkte und Prozesse einzubinden.

Weder in der öffentlichen Diskussion noch in der persönlichen Informationssuche spielt dabei eine Rolle, dass viele zentrale Aspekte hierzu völlig ungeklärt sind, die eigentlich jeden Nutzer – besonders in Unternehmen – umtreiben müssten: Wie viel verrate ich mit meinen Prompts einem US-Unternehmen über meine einzigartige Geschäftsidee? Trainiere ich mit meinem Input Modelle, von denen dann meine Konkurrenz profitiert?

Was ist mit dem Copyright für Text, Grafik und Software, die mir der Algorithmus schreibt? Wie steht es um meine Anwendungen, wenn ein Player wie Open AI über Nacht seine API schließt, seine Leistung drosselt oder den Preis vervielfacht?

Wie gehe ich bei Nutzung einer Blackbox, die ihre Quellen und Modelle niemals offenlegt, damit um, wenn Prüfer, Aufsichtsräte oder gar Gerichte wissen möchten, wie ich zu meiner Entscheidung gekommen bin oder wie mein Produkt eigentlich funktioniert?

Während in Fachkreisen und zunehmend auch in der Politik das Thema "Explainable AI" ganz, ganz langsam anrollt, werden diese Elefanten im Raum draußen im Land fröhlich ignoriert.

Das könnte man als die übliche Anfangseuphorie für eine neue Technologie abtun – wenn unsere Daten nicht eine wirklich besorgniserregende parallele Entwicklung aufgezeigt hätten.

Verblöden wir? Je mehr wir KI nutzen, desto weniger wollen wir sie verstehen

Normalerweise führt Begeisterung für eine neue Technologie dazu, dass sich die Menschen mit dieser Technologie auch stärker beschäftigen möchten – bis dahin, dass jeder plötzlich zum "Fernsehsessel-Experten" mutiert.

Bei KI jedoch ist derzeit das Gegenteil zu beobachten. Die Begeisterung für – und die leichte Bedienbarkeit von – Generative-AI-Anwendungen geht einher mit einem regelrechten Einbruch am Interesse daran, wie KI funktioniert.

Ob Machine Learning oder Language Models, ob Predictive Analytics oder RPA [Robotergesteuerte Prozessautomatisierung] – die Technik hinter den faszinierenden Anwendungen gerät nicht nur in den Medien aus dem Fokus, auch immer weniger Menschen suchen bei Google, um diese Grundlagen besser zu verstehen oder gar selbst zu erlernen.

Dieser Rückgang steht zeitlich in engem Zusammenhang mit dem Siegeszug von ChatGPT und setzt sich immer schneller fort. Alle wollen lernen, wie man einen guten Prompt formuliert, doch immer weniger Menschen wollen verstehen, wie und weshalb er funktioniert.

Geschäftsmodelle (oder seine Karriere) aufbauen auf eine Technologie, die man eigentlich gar nicht verstehen möchte, die einem ihre Regeln nicht offenlegt und die in den Händen Dritter liegt – was könnte da schon schiefgehen?

Deindustrialisierung auch bei der KI? Die Krise wird vom Hype überdeckt

Das Problem liegt jedoch nicht nur aufseiten der Anwender in Haushalten und Unternehmen. Es betrifft auch unternehmerisch die deutsche Wirtschaft, insbesondere die Industrie. Denn der Hype um Generative AI überdeckt eine parallele Entwicklung. Bereits in der Corona-Krise ist die Nachfrage nach den bisherigen Schlüsselanwendungen von KI in der Prozessautomatisierung und -Optimierung von Unternehmen zurückgegangen.

Seit Beginn des Ukraine-Kriegs mit Energiekrise, Inflation und zunehmender Rezession hat sich dieser Abwärtstrend beschleunigt und führt inzwischen auch Bereiche wie Process Mining und Fertigungsautomation in Richtung Stagnation, die noch kurz zuvor boomten. Immer knappere Budgets und unsichere Zukunftsaussichten führen offenbar zu Einsparungen in diesen Bereichen, zumal die Sicherung von Energieversorgung und Lieferketten für viele Unternehmen in den letzten Jahren alle Aufmerksamkeit beanspruchten.

Es sind jedoch genau solche Anwendungen, die bisher in Unternehmen nachweislich Wertschöpfung brachten, insbesondere in den Kernbereichen der Produktion, Logistik und internen Prozesse. Die Mehrwerte, die Generative AI bringen kann, sind hingegen oft noch spekulativ und betreffen derzeit stärker Bereiche wie Marketing und IT.

Investitionen in KI im eigenen Betrieb zurückzustellen und eigene Kompetenzen in diesem Bereich langsamer aufzubauen – das lässt sich nicht dadurch kompensieren, in Bereichen außerhalb der Kernkompetenzen eine US-Cloud zu nutzen. Setzt sich dieser Trend fort, verliert die deutsche Wirtschaft den Anschluss und wird immer abhängiger von US-amerikanischen Anbietern, zu denen sich die Kompetenzen und die Wertschöpfung zunehmend verlagern.

Mentale Landkarte zu KI - große Dominanz der US-Anbieter. Bild: HASE & IGEL GmbH

Über KI sprechen bedeutet nicht, zu wissen, wovon man spricht

Dieser Mangel an Substanz zeigt sich auch im politischen und gesellschaftlichen Diskurs über KI. Einerseits ist Künstliche Intelligenz zu einem absoluten Megathema geworden, das insgesamt sehr positiv wahrgenommen wird, dem man mit Neugier und Entdeckerfreude begegnet. Doch der erhoffte Nutzen und vor allem die Frage, mit welchen Anwendungen man ihn erzielen kann, bleiben meist oberflächlich, sogar nebulös.

Zugleich gewinnt die Sorge um Risiken von KI an Dynamik – jedoch auf einem ebenso abstrakten Niveau: Während die Angst vor einer "übermächtigen KI" wächst und Warnungen vor dem Ende der Menschheit starke Reaktionen auf sich ziehen, findet so gut wie keine Diskussion darüber statt, was denn eine solche KI übermächtig machen würde und wie sich das verhindern ließe.

Schon gar nicht wird ähnlich rege über wesentlich konkretere Risiken diskutiert wie Jobverluste, Haftungsfragen und eine zunehmende Abhängigkeit von ausländischen Lösungen.

Kaum eine Rolle im öffentlichen Diskurs spielt auch ein Risiko, das aus fachlicher Sicht äußerst ernst zu nehmend ist: grassierende Falschinformation, wenn ChatGPT und Co. für Recherchen und gar wissenschaftliche Arbeiten verwendet werden, obwohl diese Modelle um der guten Story willen gerne spontan Quellen und vermeintliche Fakten erfinden und in der Regel nicht in der Lage sind, ihre Ergebnisse herzuleiten und zu begründen.

Wir verpassen den "Buchdruck-Moment" – es ist Zeit, aufzuwachen!

Blicken wir also in den Spiegel, den uns unsere analytische KI vorhält, sehen wir ein Land, das immer mehr und immer schneller im Blindflug unterwegs ist. Ein Land, in dem permanent über KI gesprochen wird, ohne dass dabei halbwegs klar würde, was man darunter eigentlich versteht.

Ein Land, in dem die Aussicht auf smarte Lift Hacks und den schnellen Euro zu einer unkritischen Akzeptanz intransparenter Systeme führt, die man immer weniger verstehen möchte. Ein Land, in dem die Wertschöpfung in Sachen KI zunehmend außerhalb der eigenen Betriebe stattfindet.

So werden wir immer schneller, immer abhängiger von Technologien, die wir nicht verstehen, in die wir nicht genug investieren und die in den Händen anderer liegen – die aber auch in unserer eigenen Wahrnehmung kritisch für die Zukunft sind.

Wo stünde Deutschland heute, wenn wir dem Buchdruck, dem elektrischen Strom oder dem Auto ähnlich begegnet wären – als begeisterte Konsumenten der Erzeugnisse anderer, ohne sich tiefer mit der Technologie dahinter beschäftigen zu wollen?

Jan Schoenmakers ist Gründer und Geschäftsführer von Hase & Igel, einem deutschen Anbieter KI-gestützter Analysesoftware. Er stammt nicht ursprünglich aus der IT-Branche, sondern hat 15 Jahre in Marketing, Kommunikation und Unternehmensberatung gearbeitet – unter anderem beim Energiekonzern EWE und dem Forschungsunternehmen nextpractice. Hase & Igel wurde 2023 bei den Stevie Awards zum zweiten Mal in Folge als innovativstes Technologieunternehmen im deutschsprachigen Raum ausgezeichnet, auf die Lösungen des Unternehmens setzen unter anderem die Sparkassen Finanzgruppe, Schaeffler und das Bundeswirtschaftsministerium.