KI-Modelle und Datenschutz: Warum Unternehmen ChatGPT und Co. verbieten

(Bild: Alexandra_Koch, Pixabay)

Die New York Times verbietet KI-Modelle wie ChatGPT für ihre eigenen Inhalte. Andere Firmen schränken die Nutzung durch ihre Mitarbeiter ein. Das sind die Hintergründe.

Als eine der ersten großen internationalen Zeitungen hat die New York Times (NYT) KI-Modelle für eigene Inhalte verboten. Betroffen sind ChatGPT und ähnliche Modelle, heißt es im Magazin Meedia. Man habe eigens die Geschäftsbedingungen geändert, um eine Handhabe gegen Tech-Giganten wie Google, Microsoft und Co. zu haben.

Mit diesem Schritt will die New York Times verhindern, dass eigene Inhalte zum Anlernen von KI-Systemen genutzt werden können. Forscher hatten zuvor herausgefunden, dass Systeme der Künstlichen Intelligenz (KI) Daten reproduzieren können, die sie während des Trainings aufgenommen haben.

KI-Systeme lernen aber nicht nur durch Training, sondern auch durch Anwendung. Bei Google Bard werden Daten wie Text, Standort und andere Informationen gesammelt und verarbeitet, berichtete Reuters am Wochenende.

Das Sammeln der Daten dürfte noch viele Unternehmen vor Herausforderungen stellen, denn KI-Systeme halten immer mehr Einzug in den Arbeitsalltag. Theoretisch könnten sie vertrauliche Informationen sammeln und reproduzieren.

Eine kürzlich im Auftrag von Reuters durchgeführte Umfrage hat ergeben, dass Arbeiter und Angestellte in den USA zunehmend auf KI-Systeme zurückgreifen, um ihre täglichen Aufgaben zu bewältigen.

Rund 28 Prozent der Befragten nutzen ChatGPT regelmäßig für ihre Arbeit. Knapp 22 Prozent gaben an, dass ihr Unternehmen die Nutzung externer Tools ausdrücklich erlaubt. Nur etwa zehn Prozent gaben an, dass externe KI-Tools von ihrem Chef ausdrücklich verboten wurden.

OpenAI, der Entwickler von ChatGPT, lehnte es laut Reuters ab, sich zu den Auswirkungen der Nutzung von ChatGPT durch einzelne Mitarbeiter zu äußern. Das Unternehmen habe jedoch seinen Partnern zugesichert, dass ihre Daten nicht für das weitere Training des Chatbots verwendet würden. Es sei denn, sie geben ihre ausdrückliche Zustimmung.

Da Unternehmen nicht immer sicher sein können, dass ihre Daten sicher sind, haben einige Unternehmen die Nutzung von ChatGPT und ähnlichen KI-Tools verboten. Samsung Electronics ist eines dieser Unternehmen.

Der Konzern hat im Mai seinen Mitarbeitern weltweit verboten, mit diesen Tools zu arbeiten. Der Schritt erfolgte, nachdem entdeckt worden war, dass ein Mitarbeiter sensiblen Code auf die Plattform hochgeladen hatte.

Diese Regeln werden jedoch nicht immer befolgt. Reuters sprach mit einem Mitarbeiter der Dating-Plattform Tinder. Er sagte, dass ChatGPT für "harmlose Aufgaben" verwendet werde, obwohl es eine "No-ChatGPT"-Regel gebe.

E-Mails würden mit dem KI-Tool geschrieben, erklärte der Tinder-Mitarbeiter. "Das sind ganz normale E-Mails. Sehr belanglos, wie lustige Kalendereinladungen für Teamevents, Abschiedsmails, wenn jemand geht." ChatGPT wird auch für allgemeine Recherchen genutzt.

Der Getränkehersteller Coca-Cola hingegen nutzt ChatGPT und ähnliche Plattformen. "Wir haben begonnen zu testen und zu lernen, wie KI die betriebliche Effizienz verbessern kann", sagte ein Sprecher des Konzerns gegenüber Reuters. Intern nutzt das Unternehmen etwa eine Unternehmensversion des KI-Systems: Coca-Cola ChatGPT.

Empfohlener redaktioneller Inhalt

Mit Ihrer Zustimmmung wird hier eine externe Buchempfehlung (Amazon Affiliates) geladen.

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen (Amazon Affiliates) übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.