Schluss mit der Blackbox: Warum wir KI-Entscheidungen verstehen müssen

Abstrakte Illustration eines Entscheidungsbaums vor schwarzem Grund

Abstrakte Illustration eines Entscheidungsbaums

(Bild: Krot_Studio/Shutterstock.com)

KI entscheidet über Kredite, Jobs und medizinische Behandlungen – doch die Vorgänge bleiben oft intransparent. Ein Gastbeitrag.

Bei einem Krankenhausbesuch können Modelle der künstlichen Intelligenz (KI) Ärzte bei der Analyse medizinischer Bilder oder bei der Vorhersage von Patientenergebnissen auf der Grundlage historischer Daten unterstützen.

Wenn Sie sich um eine Stelle bewerben, können KI-Algorithmen Lebensläufe prüfen, Bewerber bewerten und sogar erste Vorstellungsgespräche führen. Wenn Sie einen Film auf Netflix ansehen möchten, sagt Ihnen ein Empfehlungsalgorithmus auf der Grundlage Ihrer Sehgewohnheiten voraus, welche Filme Ihnen gefallen könnten.

Sogar beim Autofahren arbeiten prädiktive Algorithmen in Navigationsanwendungen wie Waze und Google Maps, um Routen zu optimieren und Verkehrsströme vorherzusagen, damit Sie schneller vorankommen.

Am Arbeitsplatz werden KI-gestützte Tools wie ChatGPT und GitHub Copilot eingesetzt, um E-Mails zu verfassen, Code zu schreiben und sich wiederholende Aufgaben zu automatisieren. Studien deuten darauf hin, dass bis 2030 bis zu 30 % der Arbeitsstunden durch KI automatisiert werden könnten.

Ein häufiges Problem dieser KI-Systeme ist jedoch, dass ihre Funktionsweise oft komplex zu verstehen ist – nicht nur für die breite Öffentlichkeit, sondern auch für Experten! Dies schränkt die praktische Nutzung von KI-Werkzeugen ein. Um dieses Problem zu lösen und den wachsenden regulatorischen Anforderungen gerecht zu werden, hat sich das Forschungsfeld "Erklärbare KI" herausgebildet.

KI und maschinelles Lernen: Was steckt dahinter?

Angesichts des derzeitigen Trends, KI in Organisationen zu integrieren, und der weit verbreiteten Medienberichterstattung über ihr Potenzial ist es leicht, verwirrt zu werden, insbesondere angesichts der vielen Begriffe, die zur Beschreibung von KI-Systemen verwendet werden, einschließlich maschinelles Lernen, Deep Learning und große Sprachmodelle, um nur einige zu nennen.

Einfach ausgedrückt bezieht sich KI auf die Entwicklung von Computersystemen, die Aufgaben ausführen, die menschliche Intelligenz erfordern, wie Problemlösung, Entscheidungsfindung und Sprachverständnis. Sie umfasst verschiedene Teilbereiche wie Robotik, maschinelles Sehen und natürliches Sprachverstehen.

Ein wichtiges Teilgebiet der KI ist das maschinelle Lernen, das es Computern ermöglicht, aus Daten zu lernen, anstatt für jede Aufgabe explizit programmiert zu werden.

Im Wesentlichen sucht die Maschine nach Mustern in den Daten und nutzt diese Muster, um Vorhersagen zu machen oder Entscheidungen zu treffen.

Ein Beispiel ist ein Spam-Filter für E-Mails. Das System wird mit Tausenden von Beispielen von Spam- und Nicht-Spam-E-Mails trainiert. Mit der Zeit lernt es Muster wie bestimmte Wörter, Phrasen oder Absenderangaben, die häufig in Spam vorkommen.

Deep Learning, ein weiterer Bereich des maschinellen Lernens, verwendet komplexe neuronale Netze mit mehreren Schichten, um noch komplexere Muster zu lernen.

Deep Learning hat sich bei der Arbeit mit Bild- oder Textdaten als außerordentlich wertvoll erwiesen und ist die Kerntechnologie, die verschiedenen Bildwiedererkennungswerkzeugen oder großen Sprachmodellen wie ChatGPT zugrunde liegt.

Regulierung von KI

Die obigen Beispiele zeigen die breite Anwendung von KI in verschiedenen Branchen. Einige dieser Szenarien, wie die Filmvorschläge auf Netflix, scheinen relativ risikoarm zu sein.

Andere jedoch, wie die Einstellung von Personal, die Bewertung von Krediten oder medizinische Diagnosen, können sich erheblich auf das Leben von Menschen auswirken, weshalb es von entscheidender Bedeutung ist, dass sie in einer Weise erfolgen, die unseren ethischen Zielen entspricht.

In Anerkennung dessen hat die Europäische Union ein KI-Gesetz vorgeschlagen, das im März vom Europäischen Parlament verabschiedet wurde.

Dieser Rechtsrahmen kategorisiert KI-Anwendungen in vier verschiedene Risikostufen: unzulässig, hoch, begrenzt und minimal, je nach ihrem potenziellen Einfluss auf die Gesellschaft und den Einzelnen. Für jede Stufe gelten unterschiedliche Regulierungs- und Anforderungsniveaus.

KI-Systeme mit unannehmbarem Risiko, wie Systeme zur sozialen Bewertung oder zur vorausschauenden Polizeiarbeit, sind in der EU verboten, da sie erhebliche Bedrohungen für die Menschenrechte darstellen.

KI-Systeme mit hohem Risiko sind erlaubt, unterliegen aber den strengsten Vorschriften, da sie bei Fehlfunktion oder Missbrauch erheblichen Schaden anrichten können, auch in Bereichen wie Strafverfolgung, Rekrutierung und Bildung.

KI-Systeme mit begrenztem Risiko, wie Chatbots oder Emotionserkennungssysteme, bergen ein gewisses Risiko der Manipulation oder Täuschung. Hier ist es wichtig, dass Menschen über ihre Interaktion mit dem KI-System informiert sind.

KI-Systeme mit minimalem Risiko umfassen alle anderen KI-Systeme, wie z. B. Spamfilter, die ohne weitere Einschränkungen eingesetzt werden können.

Erklärbarkeit gefragt

Viele Verbraucher sind nicht mehr bereit, Unternehmen zu akzeptieren, die ihre Entscheidungen auf Algorithmen als "Black Box" stützen. Ein Beispiel dafür ist der Vorfall mit der Apple Card, bei dem einem Mann trotz gemeinsamen Vermögens ein deutlich höherer Kreditrahmen eingeräumt wurde als seiner Frau.

Dies löste öffentliche Empörung aus, da Apple nicht in der Lage war, die Gründe für die Entscheidung seines Algorithmus zu erklären. Dieses Beispiel verdeutlicht den zunehmenden Bedarf an Erklärbarkeit von KI-gesteuerten Entscheidungen, nicht nur um die Kundenzufriedenheit zu gewährleisten, sondern auch um negative öffentliche Wahrnehmungen zu vermeiden.

Für risikoreiche KI-Systeme sieht Artikel 86 des KI-Gesetzes das Recht vor, eine Erläuterung der von KI-Systemen getroffenen Entscheidungen zu verlangen, was einen wichtigen Schritt zur Gewährleistung algorithmischer Transparenz darstellt.

Über die gesetzlichen Anforderungen hinaus bieten transparente KI-Systeme jedoch eine Reihe weiterer Vorteile sowohl für die Modellinhaber als auch für diejenigen, die von den Entscheidungen der Systeme betroffen sind.

Transparente KI

In erster Linie schafft Transparenz Vertrauen: Wenn Nutzer verstehen, wie ein KI-System funktioniert, sind sie eher bereit, es zu nutzen. Zweitens kann sie verzerrte Ergebnisse verhindern, indem Regulierungsbehörden überprüfen können, ob ein Modell bestimmte Gruppen ungerechtfertigt bevorzugt.

Und schließlich ermöglicht Transparenz die kontinuierliche Verbesserung von KI-Systemen, indem Fehler oder unerwartete Muster aufgedeckt werden.

Doch wie lässt sich Transparenz in der KI erreichen?

Generell gibt es zwei Hauptansätze, um KI-Modelle transparenter zu machen.

Erstens können einfache Modelle wie Entscheidungsbäume oder lineare Modelle verwendet werden, um Vorhersagen zu treffen. Diese Modelle sind leicht verständlich, da ihr Entscheidungsprozess einfach ist.

Ein Beispiel wäre ein lineares Regressionsmodell, das Hauspreise auf der Grundlage von Merkmalen wie Anzahl der Schlafzimmer, Quadratmeterzahl und Lage vorhersagt.

Die Einfachheit besteht darin, dass jedem Merkmal ein Gewicht zugeordnet wird und die Vorhersage einfach die Summe dieser gewichteten Merkmale ist. Dies bedeutet, dass klar ersichtlich ist, wie jedes Merkmal zur endgültigen Vorhersage des Hauspreises beiträgt.

Da die Daten jedoch immer komplexer werden, sind diese einfachen Modelle möglicherweise nicht mehr leistungsfähig genug.

Aus diesem Grund greifen die Entwickler häufig auf fortgeschrittene "Black-Box-Modelle" wie tiefe neuronale Netze zurück, die größere und komplexere Daten verarbeiten können, aber schwierig zu interpretieren sind. Ein tiefes neuronales Netz mit Millionen von Parametern kann sehr leistungsfähig sein, aber die Art und Weise, wie es seine Entscheidungen trifft, ist für den Menschen nicht nachvollziehbar, weil sein Entscheidungsprozess zu groß und zu komplex ist.

Erklärbare KI

Eine andere Möglichkeit besteht darin, diese leistungsfähigen Black-Box-Modelle mit einem separaten Erklärungsalgorithmus zu kombinieren, um das Modell oder seine Entscheidungen zu erklären. Dieser Ansatz, der als "erklärbare KI" bekannt ist, ermöglicht es, die Leistungsfähigkeit komplexer Modelle zu nutzen und gleichzeitig ein gewisses Maß an Transparenz zu bieten.

Ein bekanntes Verfahren ist die kontrafaktische Erklärung. Eine kontrafaktische Erklärung erklärt die Entscheidung eines Modells, indem sie minimale Änderungen in den Eingabemerkmalen identifiziert, die zu einer anderen Entscheidung führen würden.

Wenn beispielsweise einem Antragsteller ein Darlehen verweigert wird, könnte eine kontrafaktische Erklärung den Antragsteller darüber informieren: "Wenn Ihr Einkommen 5.000 Dollar höher gewesen wäre, wäre Ihr Darlehen genehmigt worden".

Dadurch wird die Entscheidung verständlicher, obwohl das verwendete maschinelle Lernmodell sehr komplex sein kann. Ein Nachteil ist jedoch, dass es sich bei diesen Erklärungen um Annäherungen handelt, d.h. es kann mehrere Möglichkeiten geben, dieselbe Entscheidung zu erklären.

Der Weg nach vorn

Je komplexer KI-Modelle werden, desto größer ist ihr Potenzial für transformative Auswirkungen - aber auch ihre Fähigkeit, Fehler zu machen. Damit KI wirklich effektiv und vertrauenswürdig ist, müssen die Nutzer verstehen, wie diese Modelle ihre Entscheidungen treffen.

Transparenz ist nicht nur eine Frage des Vertrauens, sondern auch entscheidend, um Fehler zu erkennen und Fairness zu gewährleisten. Bei selbstfahrenden Autos kann eine erklärbare KI den Ingenieuren helfen zu verstehen, warum das Auto ein Stoppschild falsch interpretiert oder einen Fußgänger übersehen hat.

Ebenso kann das Verständnis, wie ein KI-System Bewerber bewertet, Arbeitgebern helfen, eine voreingenommene Auswahl zu vermeiden und Vielfalt zu fördern.

Indem wir uns auf transparente und ethische KI-Systeme konzentrieren, können wir sicherstellen, dass die Technologie sowohl dem Einzelnen als auch der Gesellschaft auf positive und gerechte Weise dient.

David Martens ist Professor für Datenwissenschaft an der Universität Antwerpen, Belgien. Er unterrichtet Postgraduierte in Betriebswirtschaft und Wirtschaftsingenieurwesen in den Fächern maschinelles Lernen, Datenwissenschaft und Ethik.

Sofie Goethals ist derzeit Postdoktorandin an der Columbia Business School. Zuvor promovierte sie an der Universität Antwerpen in der Gruppe für angewandtes Data Mining. Sie untersucht, wie wir KI stärker an unseren ethischen Zielen ausrichten können.

Dieser Text erschien zuerst auf The Conversation auf Englisch und unterliegt einer Creative-Commons-Lizenz.