Künstliche Intelligenz: Über Risiken und Nebenwirkungen
Seite 3: Gefahr für Gesundheit, Sicherheit, Grundrechte? Im Prinzip ja, aber...
- Künstliche Intelligenz: Über Risiken und Nebenwirkungen
- Übermächtige Konzerne und Fake News – nicht staatsgefährdend, aber...
- Gefahr für Gesundheit, Sicherheit, Grundrechte? Im Prinzip ja, aber...
- Auf einer Seite lesen
Der Wille zur kontrollierten Nutzung setzt sich bei den Hochrisiko-KI-Systemen fort. Ihre Anwendung will man nicht verbieten. Zu vorteilhaft erscheint sie aus staatlicher Sicht. Aber:
KI-Systeme, die ein hohes Risiko für die Gesundheit und Sicherheit oder für die Grundrechte natürlicher Personen darstellen, gelten als hochriskant und werden in zwei Hauptkategorien eingeteilt.
1. KI-Systeme, die in Produkten verwendet werden, die unter die Produktsicherheitsvorschriften der EU fallen. Dazu gehören Spielzeug, Luftfahrt, Fahrzeuge, medizinische Geräte und Aufzüge.
2. KI-Systeme, die in acht spezifische Bereiche fallen, und die in einer EU-Datenbank registriert werden müssen:
• biometrische Identifizierung und Kategorisierung von natürlichen Personen;
Europäisches Parlament
• Verwaltung und Betrieb von kritischen Infrastrukturen;
• allgemeine und berufliche Bildung;
• Beschäftigung, Verwaltung der Arbeitnehmer und Zugang zur Selbstständigkeit;
• Zugang zu und Inanspruchnahme von wesentlichen privaten und öffentlichen Diensten und Leistungen;
• Strafverfolgung;
• Verwaltung von Migration, Asyl und Grenzkontrollen;
• Unterstützung bei der Auslegung und Anwendung von Gesetzen.
Die Liste zeigt, wie umfangreich KI in der staatlichen Verwaltung, in der Justiz und bei der Polizei, in der Bildung und natürlich in Unternehmen nach der Einschätzung der Politiker bereits eingesetzt wird oder in baldiger Zukunft werden soll. Die Staaten möchten KI sowohl nutzen als auch unter Kontrolle haben, also lautet der zu Hochrisiko-KI-Systemen abschließende Satz: "Alle KI-Systeme mit hohem Risiko werden vor dem Inverkehrbringen und während ihres gesamten Lebenszyklus bewertet." (ebenda)
Fehlerhafte KI könnte etwa Flugzeuge zum Absturz bringen, medizinische Geräte bei der Operation falsch steuern, Aufzüge unplanmäßig stoppen oder gar Spielzeug zu einer Gefahr für Kinder werden lassen. Die aufgeführten Beispiele sind bei Weitem nicht vollständig. Da sind dann der Tüv oder ähnliche Prüfeinrichtungen vor dem Inverkehrbringen gefragt.
Dass es zum Inverkehrbringen kommt, steht für die staatlichen Regulierer fest. Denn die neue Technik bietet für viele Produkte eine zusätzliche, überragende Qualität. Hersteller, die sie nicht nutzen, geraten gegenüber den Konkurrenten ins Hintertreffen, die KI einbauen. So geht eben Wettbewerb in der Marktwirtschaft. Die EU möchte dem nicht im Wege stehen, im Gegenteil: Auch dieser Teil der Digitalisierung ihrer Wirtschaft soll vorangehen, im innereuropäischen wie im internationalen Wettbewerb.
Mit KI kann der Bürger außerdem noch besser erfasst und überwacht werden. Wobei eine Steigerung kaum noch vorstellbar ist: Was wissen die durchorganisierten EU-Länder denn noch nicht von ihrem Volk? Sie klassifizieren ihre Einwohner in registrierte Untertanen, in neu aufgenommene Leute, auf Zeit geduldete oder bald wieder abzuschiebende. Und bei der Sortierung geht es ganz ohne KI um das Verhalten nach Vorschriften und das Einkommen mit Arbeitsplatz oder Kapital.
Sicher, die Hautfarbe oder geschlechtliche Ausrichtung interessiert den Staat nicht. Diese Sortierung überlässt er seinem Volk. Solange das nicht zu sehr den Lauf von Geschäft und Gesellschaft stört, belässt er es bei Appellen und Kampagnen für Multikulti und Diversität.
Offenbar kann sich aber die Politik durch KI eine weitere Verbesserung der Kontrolle über ihre Bürger vorstellen. Die so zustande kommenden Daten sollten jedoch nach den staatlichen Regeln genutzt werden, sprich die Grundrechte nicht verletzen.
Daher das Bestreben, die neue Technik in den Griff zu bekommen – mit dem Handikap, nicht so genau zu wissen, wohin mit ihr die Reise geht. Ihre Entwicklung und Anwendung nimmt enorme Ausmaße an, eben weil KI so viele Potenziale hat, die Konkurrenz der Unternehmen auf eine höhere Stufe zu heben; und mit der Wirtschaft auch die zugehörigen Staaten in einen Wettlauf um sie treibt.
Hebel gegen unkontrollierte und auch gegen ausländische Konkurrenz
Generative KI wie ChatGPT erhält im Regulierungsentwurf einen eigenen Abschnitt. Sie muss "zusätzliche Transparenzanforderungen erfüllen":
- Offenlegung, dass der Inhalt durch KI generiert wurde;
- Gestaltung des Modells, um zu verhindern, dass es illegale Inhalte erzeugt;
- Veröffentlichung von Zusammenfassungen urheberrechtlich geschützter Daten, die für das Training verwendet wurden.
Zu den sattsam bekannten und beklagten Fake News sollen nicht noch viele weitere kommen. Wenn schon ChatGPT Reden schreibt, Gutachten erstellt, Drehbücher oder Artikel verfasst, Sinfonien zu Ende komponiert etc. – dann soll klar sein, dass die Maschine am Werk war und nicht der Mensch. Und dass sie dabei offenlegt, mit welchen Daten sie gearbeitet hat, bitte schön gemäß Urheberrecht.
Verhindern werden diese Regeln zwar nicht die Verstöße. Denn zu verlockend ist die Anwendung von KI, wie beschrieben. Aber die Staaten verschaffen sich die Hebel, die Verstöße zu ahnden. Und damit die entfachte Konkurrenz um und mit KI in den Bahnen zu halten, die die allseits beschworene Digitalisierung der EU voranbringen.
Selbstverständlich haben sich auch die ausländischen KI-Anbieter und -Anwender in der EU an die Regeln zu halten. Damit setzt die Europäische Union als Erste weltweit, wie sie stolz erwähnt, eine Norm für KI. Wer sich nicht daran hält, darf in der EU nicht KI-Technik anbieten oder nutzen.
Ein weiterer Hebel – gegen die Konkurrenz aus den USA vornehmlich. Schließlich kann man mit Verweis auf das Regelwerk deren große Konzerne vom Markt fernhalten oder ihnen erschwerende Auflagen machen. Oder sie mit empfindlichen Geldstrafen belegen, wie das Beispiel Facebook zeigt, noch ohne Bezug auf die neue KI-Technik.
Bis Ende dieses Jahres soll die KI-Regulierung stehen, nach der Abstimmung zwischen EU-Parlament und den EU-Regierungen.