Lobbyismus: Wie OpenAI Einfluss auf das KI-Gesetz nahm
ChatGPT-Betreiber soll Einfluss auf die Gesetzgebung genommen haben. Statt staatlicher Regulierung will er selbst für sichere Anwendung sorgen. Das ist der Hintergrund.
Künstliche Intelligenz bedarf Regeln – wie jede andere Technologie auch. In Europa gibt es für fast jedes Produkt staatliche Vorgaben: Die einen müssen einen Zulassungsprozess durchlaufen, bevor sie auf den Markt kommen; die anderen müssen bestimmte Normen erfüllen. Für künstliche Intelligenz gibt es einen solchen Rechtsrahmen bislang nicht.
Die Europäische Union versucht das nun mit einem KI-Gesetz zu ändern. Vergangene Woche verständigte sich das EU-Parlament auf eine gemeinsame Position. KI-Anwendungen, die ein inakzeptables Risiko darstellen, sollen etwa verboten werden.
Wo KI-Anwendungen mit einem hohen Risiko verbunden sind, sollen strenge Regeln greifen.
Algorithmen, die etwa über Bewerbungen von Jobkandidaten entscheiden, zur Ermittlung der Kreditwürdigkeit von Verbrauchern dienen oder in der Justiz zum Einsatz kommen, sollen bald von staatlichen Institutionen überwacht werden und eine Art TÜV durchlaufen.
Die Zeit
Darunter dürften die großen KI-Sprachmodelle fallen, die in der Lage ist, natürliche Sprache zu verarbeiten. Das Bundesamt für Sicherheit in der Informationstechnik (BSI) bescheinigt ihnen, für viele Anwendungen geeignet zu sein. Gleichzeitig könnten sie eine Bedrohung werden, wenn sie benutzt werden, um Spam- oder Phishing-Mails zu generieren.
Welche Systeme durch das KI-Gesetz als System mit hohem Risiko eingestuft werden, darüber haben nicht nur die EU-Parlamentarier und Beamten entschieden, sondern auch Lobbyisten.
Das Time Magazin enthüllte kürzlich, dass das Unternehmen OpenAI hinter den Kulissen erfolgreich darauf hingewirkt haben soll, dass seine KI-Modelle nicht als Hochrisikosysteme eingestuft werden. OpenAI ist bekannt für ChatGPT und seinen Bildgenerator Dall-E.
Daneben hätten sich auch Microsoft und Google dafür eingesetzt, dass die gesetzlichen Auflagen gelockert werden. Alle drei Unternehmen argumentierten demnach, dass die strengen Regeln explizit nur für Unternehmen gelten sollen, die KI für risikoreiche Anwendungen einsetzen wollen. Unternehmen, die KI-Systeme für allgemeine Zwecke einsetzen wollen, sollten nicht betroffen sein.
Die EU-Beamten hatten es zuvor anders gesehen. In einem früheren Gesetzesentwurf wurden laut Bericht KI-Systeme für allgemeine Zwecke als von Natur aus risikoreich angesehen. Nach der Lobbyarbeit von OpenAI seien diese Formulierungen aus dem Gesetzentwurf verschwunden.
Anbieter von sogenannten Basismodellen müssen nun weniger Vorgaben erfüllen. Sie müssen etwa verhindern, dass mit ihnen illegale Inhalte erzeugt werden. Und die Anbieter müssen offenlegen, ob ein System auf urheberrechtlich geschütztem Material trainiert wurde. Dass "Basismodelle" als separate Kategorie in das Gesetz einflossen, wurde durch OpenAI unterstützt.
Das Unternehmen soll den EU-Beamten gegenüber in einem Weißbuch dargelegt haben, welche Maßnahmen es ergreift, um einen Missbrauch seiner KI-Tools zu verhindern. Dazu zählt, dass Bilder von bestimmten Personen nicht eingefügt werden dürfen, und dass Tools entwickelt werden, die erkennen, ob ein Bild mit einer KI erstellt wurde.
Für OpenAI schien damit klargestellt zu sein, dass die eigenen KI-Modelle nicht als "hochriskant" angesehen werden können. Dem Bericht zufolge soll der Ansatz von OpenAI bei den EU-Beamten auf fruchtbaren Boden gefallen sein.
Ein Experte der Organisation Access Now kommentierte das OpenAI-Weißbuch gegenüber dem Time Magazin: "Was sie sagen, ist im Grunde: Vertraut darauf, dass wir uns selbst regulieren".
Empfohlener redaktioneller Inhalt
Mit Ihrer Zustimmmung wird hier eine externe Buchempfehlung (Amazon Affiliates) geladen.
Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen (Amazon Affiliates) übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.