Die rechtliche Verantwortung von Chatbots: Unternehmen haften für ihre KI

Im Kundenservice kommen oft Chatbots zum Einsatz. Trifft die KI falsche Aussagen, kann es teuer werden, wie ein Fall aus Kanada zeigt.

Dass die KI nicht nur Gutes bringt, sondern auch Risiken birgt, ist eine Binsenweisheit. Ein Fall aus Kanada zeigt, dass der Einsatz von Chatbots im Kundenkontakt auch bei gut gemeintem Einsatz teuer werden kann.

Künstliche Intelligenz auf dem Prüfstand: Der Air-Canada-Fall

Ars Technica berichtete in der vergangenen Woche, dass Air Canada den Chatbot auf der Interpräsenz des Unternehmens abgeschaltet hat. Der mutmaßliche Grund dafür wurde auch geliefert. Die Airline wurde verdonnert, einem Kunden den Ticketpreis zu ersetzen, obwohl dies in seinem Fall nicht vorgesehen war.

Die Großmutter des Kunden, Jake Moffat, war verstorben, er selbst wollte unverzüglich zu ihrem letzten Wohnort reisen, um an der Beerdigung teilzunehmen. Air Canada bietet für diese Fälle spezielle "Trauertarife" an, knüpft dies aber an Bedingungen. Der Kunde fragte den Chatbot auf der Internetseite und erhielt als Antwort:

Wenn Sie sofort reisen müssen oder bereits gereist sind und Ihr Ticket zu einem ermäßigten Trauerfallpreis einreichen möchten, tun Sie dies bitte innerhalb von 90 Tagen nach dem Ausstellungsdatum Ihres Tickets, indem Sie unser Antragsformular für eine Ticketrückerstattung ausfüllen.

Der Kunde verließ sich auf die Aussage, buchte umgehend das Ticket und reichte es hinterher zur Erstattung bei Air Canada ein.

Rechtliche Grauzonen: Die Verantwortung von Chatbots

Es folgte eine Ablehnung seines Antrags. Das Unternehmen berief sich darauf, dass vor der Buchung eines solchen Tickets die Zusage des Unternehmens vorliegen müsse, so sei es in den Geschäftsbedingungen vermerkt.

Weil es während des Chats seitens des Chatbots auch einen Link zur Seite mit den Bedingungen für "Trauertickets" gab, argumentierte die Airline, dass der Kunde dort die rechtsverbindliche Antwort hätte suchen müssen.

Zudem sei die Airline nicht für die Antworten des Chatbots verantwortlich. "Der Chatbot ist eine eigenständige juristische Person, die für ihre eigenen Handlungen verantwortlich ist", zitiert Ars Technica die Airline.

Kundenrechte und KI-Aussagen: Ein richtungsweisendes Urteil

Aus Kulanz wurde Moffat ein Gutschein über 200 kanadische Dollar angeboten. Er lehnte ab und rief die staatliche Schlichtungsstelle an. Dort befand man, dass es einem Kunden nicht zuzumuten sei, zu entscheiden, welcher Teil einer Internetpräsenz eines Unternehmens korrekt und welcher falsch ist.

Das KI-Programm als Teil der Internetpräsenz steht somit für Aussagen des Unternehmens selbst. Folgerichtig wurde Air Canada zur Zahlung des Rabatts für Trauerfälle verdonnert und musste neben den Verfahrenskosten auch noch eine weitere Entschädigung für aufgelaufene Zinsen zahlen.

Das Unternehmen akzeptierte und schaltete offenbar aus diesem Grund die Chatbot-Funktion, welche die eigene Kundendienst-Telefonzentrale entlasten sollte, ab.

ChatGPTs Einschätzung: Die rechtliche Bindung von Chatbot-Aussagen

Tatsächlich stimmt der Entscheid der Schiedsstelle mit der "Meinung" von ChatGPT überein. Wir fragten ChatGPT: "Wenn Chatbots von Firmen für die Kommunikation mit Kunden eingesetzt werden, wie steht es dann mit der Rechtsgültigkeit ihrer Aussagen?"

ChatGPT:

Die Rechtsgültigkeit der Aussagen von Chatbots, die von Unternehmen zur Kommunikation mit Kunden eingesetzt werden, hängt von verschiedenen Faktoren ab, einschließlich der Art der Aussagen, der spezifischen rechtlichen Rahmenbedingungen und der Implementierung des Chatbots.

• Klare Kommunikation: Es ist wichtig, dass Unternehmen transparent kommunizieren, dass sie einen Chatbot einsetzen, um mit Kunden zu interagieren. Dies kann sicherstellen, dass Kunden verstehen, dass sie mit einem automatisierten System sprechen und nicht mit einem menschlichen Vertreter.

• Richtlinien und Schulung: Unternehmen sollten klare Richtlinien für die Programmierung und den Einsatz von Chatbots entwickeln. Das beinhaltet auch die Schulung des Chatbots, um sicherzustellen, dass er genaue und rechtlich korrekte Informationen liefert.

• Haftung und Verantwortung: Unternehmen bleiben in der Regel für die Aussagen und Handlungen ihrer Chatbots verantwortlich. Wenn ein Chatbot rechtliche Fragen behandelt, müssen die Unternehmen sicherstellen, dass er mit den geltenden Gesetzen und Vorschriften in Einklang steht, und gegebenenfalls die Möglichkeit bieten, mit einem menschlichen Vertreter zu sprechen, insbesondere bei komplexen oder sensiblen Angelegenheiten.

• Regelmäßige Überprüfung und Aktualisierung: Unternehmen sollten ihre Chatbots regelmäßig überprüfen und aktualisieren, um sicherzustellen, dass sie weiterhin relevante und genaue Informationen liefern und mit Änderungen in den rechtlichen Rahmenbedingungen Schritt halten.

Obwohl Chatbots dazu beitragen können, die Kundeninteraktion zu verbessern und Effizienz zu steigern, sollten Unternehmen vorsichtig sein und sicherstellen, dass ihre Nutzung im Einklang mit den geltenden Rechtsvorschriften steht und die Kunden zufriedenstellt.

KI-Fehlinformationen: Vorsicht vor der Fake-News-Schleuder

Ebenso vorsichtig sollten Nutzer sein, wenn sie der KI wissenschaftliche Fragen stellen. Denn allzu oft entpuppen sich die KI-Chatprogramme als "Fake-News-Schleuder".

Allerdings können Unterhaltungen mit einem Chatbot wie ChatGPT auch einen unterhaltsamen Abend bescheren. Auf die Frage nach dem DFB-Aufgebot für die Fußballweltmeisterschaft 1974 liefert das KI-Programm je nach Laune Spielernamen aus vergangenen Zeiten, wie Hans Tilkowski oder Helmut Haller, verwechselt Erwin und Helmut Kremers oder meint, dass Hans-Jürgen "Dixie" Dörner, der 2022 verstorbene Star des DDR-Fußballs mit dem DFB 1974 Weltmeister wurde.

Auf entsprechende Rückfragen kommt dann immer eine Standardantwort der Art:

Das war ein Missverständnis meinerseits. Hans Tilkowski war kein Mitglied des DFB-Aufgebots für die Fußball-Weltmeisterschaft 1974. Er hatte seine aktive Karriere als Fußballspieler bereits beendet, bevor die Weltmeisterschaft stattfand. Vielen Dank für die Korrektur.

Wobei mit an Sicherheit grenzender Wahrscheinlichkeit die erneute Abfrage nach dem Aufgebot wieder einen oder zwei falsche Spieler liefert.

Empfohlener redaktioneller Inhalt

Mit Ihrer Zustimmmung wird hier eine externe Buchempfehlung (Amazon Affiliates) geladen.

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen (Amazon Affiliates) übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.