Artificial Intelligence: Takeover ohne Ethik

Seite 2: Moral hat einen Preis

Werden die riesigen Datenmengen, mit denen etwa LLM (Large Language Models) "trainiert" werden, tatsächlich zuerst "gesäubert"? Etwa von Rassismen, Hasssprache, allen Arten von Vorurteilen und ausschließenden Inhalten befreit? Und das für jeden der globalen Kulturräume und dessen ethische, ethnisch-kulturelle und religiöse Wertvorstellungen?

Oder werden der Einfachheit halber nur von IT-Spezialisten einige der wichtig wirkenden westlich-demokratischen, christlichen Wertmaßstäbe zugrunde gelegt und in die LLM programmiert? Oder wird gar beliebiger Content aus dem Internet – aus Kostengründen ungefiltert – herangezogen und samt sprachverschmutzter Social Media-Inhalte als Trainingsdaten verwendet? Und bringt diese "Billig-AI" dann erneut rassistische und hassverzerrte Chatbots hervor?

Oder auch andere, potenziell gefährliche Anwendungen im Bereich der Robotics Hardware, deren Algorithmen in realen Entscheidungssituationen mit Realtime-Daten unzuverlässige oder tödlich-fehlerhafte Ergebnisse liefern? Etwa im Bereich autonomer oder teilautonomer Waffensysteme?

Zunehmende Automatisierung zieht mit Notwendigkeit abnehmenden menschlichen Einfluss auf die Entscheidungen nach sich. Ganz zu schweigen von der dystopischen Vorstellung eines Fehlalarms, aufgrund dessen etwa ein der Verteidigung dienendes autonomes Waffensystem aktiviert wird und weitere Eskalationen nach sich zieht.

Die Reinigung von Trainingsdaten ist zweifellos komplex und damit kostenintensiv. Viele der Entwickler und Distributoren von AI und ML werden daher beteuern, dass ihre Programme und LLMs stets mit sauberen Texten gefüttert wurden. Ähnliches behaupten auch industrielle Tierzüchter seit vielen Jahren.

Doch das Gegenteil wird aus ökonomischen Gründen oftmals der Fall sein: Weder werden die Daten für das Training von AI-Modellen frei von Biases, noch die Filterungen der Datenmengen in ausreichendem Maße vorgenommen worden sein.

Interne und externe Qualitätskontrollen der Methoden werden aus Kostengründen vielfach entfallen. Oftmals wird nicht einmal die Prozessverantwortung klar und nachvollziehbar festgelegt werden. Und, es wäre nicht die Politik, würden künftige AI-Language-Models nicht auch dazu eingesetzt werden, tendenziöse Informationen in den Social Media zu verbreiten; wohlgemerkt nur zur "Verteidigung" der je eigenen politischen, subjektiv als "ethisch einwandfrei" erachteten, Positionen.

Moralisch untadeliges Verhalten in der Wirtschaft ist kostspielig und schmälert die Gewinne. Demzufolge wird es in vielen Fällen vermutlich nur vorgetäuscht werden. Ethisches Greenwashing könnte entstehen und so lange bestehen bleiben, bis es auf nationaler und globaler Ebene Gesetze gibt, die es verbieten; bis auch die letzten Schlupflöcher auf den letzten verbliebenen Meeresinseln, auf denen man Server installieren kann, geschlossen sein werden. Also vermutlich niemals.

Die Profitgier wird, so darf erwartet werden, nicht nur die AI-Industrie in ihren Klauen halten, sondern auch deren gute Seiten durch die Überfülle an schädlichen bis katastrophalen Nebenwirkungen langfristig konterkarieren. Die Politik wird – wie in der Klimakrise – aller Wahrscheinlichkeit nach zu spät oder gar nicht reagieren.

Dies auch deshalb, weil es in AI-Fragen schwierig werden dürfte, die sich rasant verändernden wissenschaftlichen Problemstellungen als Wissensbestände laufend in das politische Praxisfeld zu transferieren.

Empfohlener redaktioneller Inhalt

Mit Ihrer Zustimmmung wird hier eine externe Buchempfehlung (Amazon Affiliates) geladen.

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen (Amazon Affiliates) übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.