Künstliche Intelligenz: Über Risiken und Nebenwirkungen
Künstliche Intelligenz wird von Big Tech beherrscht und basiert auf schlecht bezahlter Arbeit. Der Staat hält sie für nützlich und schreitet zur produktiven Regulierung. (Teil 2)
Wer die erste Adresse für KI und deren Weiterentwicklung ist, hat sich mittlerweile herumgesprochen: das US-amerikanische Unternehmen OpenAI, mit mehreren US-Dollar-Milliarden finanziert durch Microsoft.
Mit seinem Engagement versucht der einst übermächtige Software-Konzern, den Konkurrenten von Google und Meta Paroli zu bieten. So könnte unter anderem der Einbau von ChatGPT in der Microsoft-Suchmaschine Bing das Googeln alt aussehen lassen.
Das intelligentere Suchen im Internet zöge dann die User mehrheitlich zu Bing, und mit ihnen die einträgliche Werbewirtschaft mitsamt der auf einer Unmenge von persönlichen Daten basierenden Marketing-Maschinerie – die bisher noch Google zu einem der reichsten Unternehmen der Welt macht, weil es quasi ein Monopol besitzt.
Eine ähnliche Alleinstellung hat Meta inne, mit den sozialen Medien wie Facebook, Instagram oder WhatsApp. Ein weites Feld für KI: Auf Basis von großen Sprachmodellen (Large Language Models), zu denen auch ChatGPT zählt, werden etwa künstliche Freunde kreiert, mit denen sich Teenager unterhalten können oder Leute, die sonst niemanden haben, mit dem sie reden können oder wollen. Und so einem Freund vertraut man natürlich eine Menge an, Einfallstor für viele schöne Marketingstrategien, neue Kunden zu bekommen.
Microsoft mit OpenAI, Alphabet (mit dem Tochterunternehmen Google) und Meta – wenige Konzerne beherrschen den Markt für die großen Sprachmodelle der Künstlichen Intelligenz.
In deren Schlepptau haben sich zahlreiche kleinere Firmen und Start-ups angehängt und entwickeln fleißig KI-Anwendungen für Spezialgebiete weiter.
Die Technologieunternehmen, die das Geschäftsmodell der computergestützten Überwachung frühzeitig verfeinert haben, bauten massive Infrastrukturen, riesige Datenspeicher und große Nutzerbasen auf. Konkurrenten konnten das nicht einfach nachahmen oder kurzerhand einkaufen. Auf diese Weise verstärkte sich das System selbst. Die früh daran beteiligten Unternehmen zählen heute fast zu all jenen Firmen, die wir als "Big Tech" bezeichnen.
Meredith Whittaker, Präsidentin des Messengers "Signal" bei netzpolitik.org
Ohne harte und billige menschliche Arbeit funktioniert KI nicht
Whittaker weist darüber hinaus auf die enorm zahlreiche und billige menschliche Arbeit hin, die hinter KI steckt. Um einen intelligenten Bildersuchdienst zu bekommen, muss man schließlich diese Bilder organisieren und beschriften, wie bei ImageNet geschehen:
ImageNet ist eine umfangreiche Sammlung von etwa 14 Millionen Bildern, die von Flickr, der Bildersuche und verschiedenen Webplattformen stammen und in etwa 20.000 Kategorien auf der Grundlage der WordNet-Taxonomie geordnet sind. [...] [Es] übernahmen schließlich 49.000 Arbeiter:innen aus 167 Ländern die Organisation und das Labeling der Daten.
Meredith Whittaker bei netzpolitik.org
Außerdem prüfen ständig Heerscharen von Honorarkräften in aller Welt die von KI zu verwendenden Inhalte auf Rassismus, Sexismus, Gewalt und weitere zu sperrende Darstellungen.
Diese Menschen sind unterbezahlt und arbeiten unter furchtbaren Bedingungen. Viele werden nicht für ihre Arbeitszeit bezahlt, sondern für ihre Leistung. Das heißt, für einen soliden Stundenlohn müssen sie wöchentlich Tausende Textpassagen bearbeiten.
Milagros Miceli, Leiterin der Forschungsgruppe "Daten, algorithmische Systeme und Ethik" am Berliner Weizenbaum-Institut
Diese Menschen arbeiten in Bulgarien, Argentinien oder Kenia.
Manchmal heißt es, ein US-Dollar pro Stunde sei in Ländern wie Bulgarien oder Kenia viel Geld. Aber das ist es nicht. Dennoch sagen die meisten Arbeiter:innen: Diese Tätigkeit ist ihnen lieber als ein anderer Job, zum Beispiel als Reinigungskraft. Das ist der Teil, den viele nicht hören wollen, wenn sie die Ausbeutung der Arbeiter:innen anprangern.
netzpolitik.org
Eine trostlose Alternative: Lieber die Nerven ruinieren als Knie, Rücken und Hände kaputt schrubben? Vor diese Wahl möchte wohl niemand gestellt werden. Aber dies gehört zum Alltag in den zitierten Ländern – und in vielen anderen.
Übermächtige Konzerne und Fake News – nicht staatsgefährdend, aber...
Die mühevolle, schlecht bezahlte und an den Nerven zerrende Arbeit hat natürlich einen Sinn: Die KI greift auf alle möglichen Daten zurück, unterschiedslos auf alle Inhalte, gleich ob sie der Political Correctness entsprechen oder nicht. Das Problem ist von Social Media bekannt. Der Meta-Konzern beschäftigt in vielen Ländern Faktenchecker, die Facebook und Instagram nach falschen Inhalten durchforsten – was immer als "falsch" dann verstanden wird. Bezugspunkt sind Gemeinschaftsstandards, Verstöße dagegen sind:
- Inhalte, die von gefälschten Konten erstellt bzw. verbreitet wurden
- Inhalte mit bekannten Hassbegriffen
- Inhalte, die zu schwerer Gewalt anstiften oder sie unterstützen könnten
- Mobbing und Belästigung
- Spam
- Gewaltdarstellungen
- Nacktheit und sexuelle Handlungen von Erwachsenen
- Fehlinformationen zu COVID-19, die das Risiko von unmittelbar drohender Gewalt oder Körperverletzung erhöhen
- Beiträge, über die eingeschränkte Waren oder Dienstleistungen (wie in unseren Gemeinschaftsstandards definiert) gekauft, verkauft oder beworben werden bzw. über die mit diesen gehandelt wird.
Im Idealfall unterhalten sich die Bürger in den sozialen Medien so, wie es das Heimatland ihrer Hersteller, also die USA, sowie die übrigen führenden Nationen der westlichen Welt als politisch unbedenklich und der Gesellschaft zuträglich erachten. Dies gilt selbstverständlich ebenfalls für die Datenbasis der KI-Systeme und deren darauf fußende Leistungen.
Dummerweise halten sich aber eine erkleckliche Menge von Leuten nicht an die Vorgaben. Ihre Unzufriedenheit mit dem Lauf der Welt, speziell ihrer Karriere und ihrem Liebesglück, ihr Ärger über die Ignoranz der anderen gegenüber den Fehlern der Mächtigen und Verschwörungen geheimer Mächte, ihre Sehnsucht nach der Würdigung ihrer überragenden Persönlichkeit, gepaart mit gepflegtem Hass gegen anders geartete Individuen – all dies und noch viel mehr kursiert im Netz.
Staatsgefährdend ist daran zwar nichts. Aber es hat das Potenzial, die Autorität der offiziellen Propaganda, wenn nicht zu unterlaufen, dann doch zumindest zu schwächen. Fake News und Hassrede erschweren das endlose Geschäft des Staates: Jeden Tag den Kampf aller gegen alle um das liebe Geld in geordneten Bahnen zu halten.
Die Leute sollen sich halt nicht an die Gurgel gehen, auch nicht verbal. Sondern sie sollen, jeder an seinem Platz, brav ihrer Arbeit oder ihrem Kapital nachgehen – und als gehorsamer Bürger dem Staat ein rechter Untertan sein.
...man muss das im Griff haben, also muss es reguliert werden
Das schreit natürlich nach staatlicher Regulierung. KI soll durchaus angeboten und genutzt werden können – von Unternehmen wie auch staatlichen Institutionen. Sie ist ja ein wesentliches Element der "Digitalisierung", die sich die Europäische Union (EU) und mit ihr vorneweg Deutschland auf die Fahnen geschrieben haben.
Im Kampf gegen die bisherige digitale Übermacht aus den USA und dem in dieser Hinsicht aufstrebenden China möchte die EU unbedingt aufholen (siehe auch "Digitalisierung: Europa muss führen, nicht imitieren").
Als Teil ihrer digitalen Strategie will die EU künstliche Intelligenz (KI) regulieren, um bessere Bedingungen für die Entwicklung und Nutzung dieser innovativen Technologie zu schaffen. KI kann viele Vorteile mit sich bringen, zum Beispiel eine bessere Gesundheitsfürsorge, einen sichereren und saubereren Verkehr, eine effizientere Fertigung sowie eine billigere und nachhaltigere Energieversorgung. Im April 2021 hat die Kommission den ersten EU-Rechtsrahmen für KI vorgeschlagen. Darin wird empfohlen, dass KI-Systeme, die in verschiedenen Anwendungen eingesetzt werden können, je nach dem Risiko, das sie für die Nutzer darstellen, analysiert und eingestuft werden. Die verschiedenen Risikostufen unterliegen […] mehr oder weniger Regulierung. Nach ihrer Verabschiedung werden dies die weltweit ersten rechtlichen Vorschriften für KI sein.
Europäisches Parlament
Welche abzuwehrenden Gefahren aus Sicht der Politik drohen, listet der Regulierungsentwurf auf:
KI-Systeme stellen ein unannehmbares Risiko dar, wenn sie als Bedrohung für Menschen gelten. Diese KI-Systeme werden verboten. Sie umfassen:
• kognitive Verhaltensmanipulation von Personen oder bestimmten gefährdeten Gruppen, zum Beispiel sprachgesteuertes Spielzeug, das gefährliches Verhalten bei Kindern fördert;
Europäisches Parlament
• Soziales Scoring: Klassifizierung von Menschen auf der Grundlage von Verhalten, sozioökonomischem Status und persönlichen Merkmalen;
• biometrischen Echtzeit-Fernidentifizierungssystemen, zum Beispiel Gesichtserkennung.
Das "unannehmbare Risiko", das hier KI darstellt, lautet: Menschen zu gefährlichen Aktionen zu verleiten, besonders Kinder, die leichter zu beeinflussen sind. Außerdem sollen Personen nicht automatisch sortiert und identifiziert werden. Das geht aus Sicht der Staaten offenbar zu weit. Die Sortierung ihrer Völker soll nicht mit einem System geschehen, das unter Umständen übers Ziel hinausschießt. Eine staatliche Nutzung wird dadurch aber nicht ausgeschlossen:
Einige Ausnahmen können zulässig sein: So werden beispielsweise Systeme zur nachträglichen biometrischen Fernidentifizierung, bei denen die Identifizierung erst mit erheblicher Verzögerung erfolgt, zur Verfolgung schwerer Straftaten und nur nach gerichtlicher Genehmigung zugelassen.
Europäisches Parlament
Gefahr für Gesundheit, Sicherheit, Grundrechte? Im Prinzip ja, aber...
Der Wille zur kontrollierten Nutzung setzt sich bei den Hochrisiko-KI-Systemen fort. Ihre Anwendung will man nicht verbieten. Zu vorteilhaft erscheint sie aus staatlicher Sicht. Aber:
KI-Systeme, die ein hohes Risiko für die Gesundheit und Sicherheit oder für die Grundrechte natürlicher Personen darstellen, gelten als hochriskant und werden in zwei Hauptkategorien eingeteilt.
1. KI-Systeme, die in Produkten verwendet werden, die unter die Produktsicherheitsvorschriften der EU fallen. Dazu gehören Spielzeug, Luftfahrt, Fahrzeuge, medizinische Geräte und Aufzüge.
2. KI-Systeme, die in acht spezifische Bereiche fallen, und die in einer EU-Datenbank registriert werden müssen:
• biometrische Identifizierung und Kategorisierung von natürlichen Personen;
Europäisches Parlament
• Verwaltung und Betrieb von kritischen Infrastrukturen;
• allgemeine und berufliche Bildung;
• Beschäftigung, Verwaltung der Arbeitnehmer und Zugang zur Selbstständigkeit;
• Zugang zu und Inanspruchnahme von wesentlichen privaten und öffentlichen Diensten und Leistungen;
• Strafverfolgung;
• Verwaltung von Migration, Asyl und Grenzkontrollen;
• Unterstützung bei der Auslegung und Anwendung von Gesetzen.
Die Liste zeigt, wie umfangreich KI in der staatlichen Verwaltung, in der Justiz und bei der Polizei, in der Bildung und natürlich in Unternehmen nach der Einschätzung der Politiker bereits eingesetzt wird oder in baldiger Zukunft werden soll. Die Staaten möchten KI sowohl nutzen als auch unter Kontrolle haben, also lautet der zu Hochrisiko-KI-Systemen abschließende Satz: "Alle KI-Systeme mit hohem Risiko werden vor dem Inverkehrbringen und während ihres gesamten Lebenszyklus bewertet." (ebenda)
Fehlerhafte KI könnte etwa Flugzeuge zum Absturz bringen, medizinische Geräte bei der Operation falsch steuern, Aufzüge unplanmäßig stoppen oder gar Spielzeug zu einer Gefahr für Kinder werden lassen. Die aufgeführten Beispiele sind bei Weitem nicht vollständig. Da sind dann der Tüv oder ähnliche Prüfeinrichtungen vor dem Inverkehrbringen gefragt.
Dass es zum Inverkehrbringen kommt, steht für die staatlichen Regulierer fest. Denn die neue Technik bietet für viele Produkte eine zusätzliche, überragende Qualität. Hersteller, die sie nicht nutzen, geraten gegenüber den Konkurrenten ins Hintertreffen, die KI einbauen. So geht eben Wettbewerb in der Marktwirtschaft. Die EU möchte dem nicht im Wege stehen, im Gegenteil: Auch dieser Teil der Digitalisierung ihrer Wirtschaft soll vorangehen, im innereuropäischen wie im internationalen Wettbewerb.
Mit KI kann der Bürger außerdem noch besser erfasst und überwacht werden. Wobei eine Steigerung kaum noch vorstellbar ist: Was wissen die durchorganisierten EU-Länder denn noch nicht von ihrem Volk? Sie klassifizieren ihre Einwohner in registrierte Untertanen, in neu aufgenommene Leute, auf Zeit geduldete oder bald wieder abzuschiebende. Und bei der Sortierung geht es ganz ohne KI um das Verhalten nach Vorschriften und das Einkommen mit Arbeitsplatz oder Kapital.
Sicher, die Hautfarbe oder geschlechtliche Ausrichtung interessiert den Staat nicht. Diese Sortierung überlässt er seinem Volk. Solange das nicht zu sehr den Lauf von Geschäft und Gesellschaft stört, belässt er es bei Appellen und Kampagnen für Multikulti und Diversität.
Offenbar kann sich aber die Politik durch KI eine weitere Verbesserung der Kontrolle über ihre Bürger vorstellen. Die so zustande kommenden Daten sollten jedoch nach den staatlichen Regeln genutzt werden, sprich die Grundrechte nicht verletzen.
Daher das Bestreben, die neue Technik in den Griff zu bekommen – mit dem Handikap, nicht so genau zu wissen, wohin mit ihr die Reise geht. Ihre Entwicklung und Anwendung nimmt enorme Ausmaße an, eben weil KI so viele Potenziale hat, die Konkurrenz der Unternehmen auf eine höhere Stufe zu heben; und mit der Wirtschaft auch die zugehörigen Staaten in einen Wettlauf um sie treibt.
Hebel gegen unkontrollierte und auch gegen ausländische Konkurrenz
Generative KI wie ChatGPT erhält im Regulierungsentwurf einen eigenen Abschnitt. Sie muss "zusätzliche Transparenzanforderungen erfüllen":
- Offenlegung, dass der Inhalt durch KI generiert wurde;
- Gestaltung des Modells, um zu verhindern, dass es illegale Inhalte erzeugt;
- Veröffentlichung von Zusammenfassungen urheberrechtlich geschützter Daten, die für das Training verwendet wurden.
Zu den sattsam bekannten und beklagten Fake News sollen nicht noch viele weitere kommen. Wenn schon ChatGPT Reden schreibt, Gutachten erstellt, Drehbücher oder Artikel verfasst, Sinfonien zu Ende komponiert etc. – dann soll klar sein, dass die Maschine am Werk war und nicht der Mensch. Und dass sie dabei offenlegt, mit welchen Daten sie gearbeitet hat, bitte schön gemäß Urheberrecht.
Verhindern werden diese Regeln zwar nicht die Verstöße. Denn zu verlockend ist die Anwendung von KI, wie beschrieben. Aber die Staaten verschaffen sich die Hebel, die Verstöße zu ahnden. Und damit die entfachte Konkurrenz um und mit KI in den Bahnen zu halten, die die allseits beschworene Digitalisierung der EU voranbringen.
Selbstverständlich haben sich auch die ausländischen KI-Anbieter und -Anwender in der EU an die Regeln zu halten. Damit setzt die Europäische Union als Erste weltweit, wie sie stolz erwähnt, eine Norm für KI. Wer sich nicht daran hält, darf in der EU nicht KI-Technik anbieten oder nutzen.
Ein weiterer Hebel – gegen die Konkurrenz aus den USA vornehmlich. Schließlich kann man mit Verweis auf das Regelwerk deren große Konzerne vom Markt fernhalten oder ihnen erschwerende Auflagen machen. Oder sie mit empfindlichen Geldstrafen belegen, wie das Beispiel Facebook zeigt, noch ohne Bezug auf die neue KI-Technik.
Bis Ende dieses Jahres soll die KI-Regulierung stehen, nach der Abstimmung zwischen EU-Parlament und den EU-Regierungen.