Hausdurchsuchung auf Befehl der KI: Juristen diskutieren Technikeinsatz
Künstliche Intelligenz verändert die Justiz. Anwälte und Richter diskutieren Chancen und Risiken. Droht eine Diktatur der Algorithmen?
Erstmals in der fast 50-jährigen Geschichte der Gruppe der Sieben (G7) hat ein Papst an dem Gipfeltreffen teilgenommen. Der 87-jährige Franziskus warnte vor Künstlicher Intelligenz (KI) und einer möglichen technischen Diktatur, die durch sie entstehen könnte.
Das Kirchenoberhaupt ist nicht allein mit diesen Gedanken: Auch Juristen machen sich Sorgen. Der Anwaltsberuf wird oft als einer der Jobs genannt, die von KI besonders stark verändert werden, weil Informationen schnell auszuwerten und Texte zu formulieren sind.
Eine "KI-Strategie für Kanzleien" empfiehlt Gernot Halbleib, der seit zehn Jahren Kanzleien berät, wenn es um Technik-Einsatz geht – künstliche Intelligenz ist dabei einer seiner Schwerpunkte. Anwälte können Zeit sparen, "indem sie einem System wesentliche Sachverhaltsinformationen übergeben, um automatisch Vertragsentwürfe, Memos, Klageschriftsätze oder andere Dokumente zu generieren", betont der Experte.
KI könne die Analyse von Verträgen automatisieren, indem sie "auf unvorteilhafte Klauseln prüft und nach den definierten Vorgaben kommentierte Gegenvorschläge erstellt". Auch "Information Extraction" wäre ein Einsatzfeld: Bei der Analyse großer Datenmengen könne so Zeit gespart werden, etwa aufwendige "Due-Diligence-Recherchen", die bei Unternehmensübernahmen eine große Rolle spielen.
Die Verwendung von KI wird aktuell in der Rechtsbranche viel diskutiert – das zeigen Redebeiträge auf dem Deutschen Anwaltstag (DAT). Bei KI herrscht eine "Mischung aus Euphorie, Skepsis, Furcht und Genervtheit", meldet Maximilian Amos für Beck-aktuell.
Den KI-Einsatz im Strafverfahren lehnt der Strafverteidiger Eren Basar, Partner in der Düsseldorfer Kanzlei Wessing & Partner, nicht grundsätzlich ab. Man müsse sich zunächst einmal klar darüber werden, welche Anwendungsbereiche für KI sinnvoll sein könnten, erklärte er.
KI-Einsatz bei polizeilichen Ermittlungen
Die Furcht vor KI ist besonders groß im Bereich, bei dem "der Staat am stärksten in die Freiheitsrechte der Menschen eingreift: in Polizeiarbeit und Strafjustiz". Denn KI kann Ermittlungsakten durchforsten und daraus Verdachtsmomente ableiten.
Aber das ist nicht alles: "Computergenerierte Verdachtsanalysen und Verhaltensprofile könnten in Zukunft etwa als Grundlage für Durchsuchungsanordnungen herangezogen werden", warnt Amos. Aus unterschiedlichen Datensätzen können massenhaft Auswertungen generiert werden, etwa Handystandorte, Überwachungskameras oder Chat-Nachrichten. "Wer demnach häufig in einer Gegend verkehrt, die als Drogenumschlagplatz bekannt ist, könnte von der KI als potenzieller Verdächtiger identifiziert werden".
Lesen Sie auch
KI und anwaltliche Schweigepflicht – ein Widerspruch
KI-Systeme in Strafverfolgung und Rechtspflege werden grundsätzlich als Hochrisiko-KI eingestuft, erklärt ein Sprecher des Bundesjustizministeriums: "Für sie gelten strenge Qualitäts- und Transparenzanforderungen, deren Einhaltung durch vorgelagerte Konformitätsbewertungsverfahren und nachgelagerte Marktüberwachungsverfahren sichergestellt wird".
Trotzdem ist vieles ungeklärt. "Wieviel KI lässt sich etwa mit der anwaltlichen Verschwiegenheit vereinbaren, insbesondere wenn der KI-Anbieter z. B. aus den USA kommt und die Gefahr besteht, dass Daten der Mandantschaft plötzlich in einem Staat landen, der über ein wesentlich geringeres Berufsgeheimnis-Schutzniveau verfügt?", verdeutlicht Hasso Suliak, Redakteur bei Legal Tribune Online, die Risiken. Auch stelle sich die Frage, wie Mandanten informiert werden, wenn bei "Erstellung des Schriftsatzes zur Arbeitserleichterung auf eine KI-Anwendung zurückgegriffen" wird.
Prüfung der Beweismittel durch KI statt durch Richter?
Ein "Robo-Judge" ist derzeit allein technisch keine Option. Ob allerdings Richter noch unabhängig entscheiden, wenn "KI für sie die Beweismittel auswertet und daraus vielleicht sogar Schlussfolgerungen ableitet", fragt Maximilian Amos.
Auch KI unterliegt Verzerrungen "Wird sie mit diskriminierenden Daten gefüttert, wirft sie diskriminierende Ergebnisse aus – nach dem Motto: garbage in, garbage out". Aufgrund der Adresse könnten Menschen unter Verdacht geraten, weil ihr Wohnort in einem kriminalitätsgeprägten Viertel liegt.
KI-Lösungen für Juristen werden inzwischen zum Geschäftszweig, mit dem auch bekannte Player der Beraterbranche mitmischen wollen. Weniger Bürokratieaufwand bei Umsetzung gesetzlicher Anforderungen versprechen etwa PricewaterhouseCoopers (PwC) und das deutsche KI-Start-up Aleph Alpha mit Gründung des Gemeinschaftsunternehmens Creance AI.
Unterstützen soll die Technik, wenn die Komplexität von Daten von Menschen nicht mehr zu bewältigen sei, etwa durch standardisierte Prüfung von Verträgen. Die Angebote des neuen Unternehmens sollen "Standardtools im Bereich Recht und Compliance" werden, betont Björn Viebrock, Mitglied der PwC-Geschäftsführung.
Warnungen gibt es bei dem Juristentreffen zuhauf. Erinnert wurde an einen amerikanischen Rechtsanwalt, der mithilfe von KI seinen Schriftsatz verfasste. Begründungen für seine Rechtsauffassung wurden jedoch von der KI "halluziniert", indem erfundene Entscheidungen aufgelistet wurden. Denn die Praxis zeigt: Verfügt ChatGPT nicht über hinreichend Wissen, um eine Antwort zu geben, denkt es sich eben etwas aus.