Die Träume der künstlichen Intelligenz

Symbolbild zur Künstlichen Intelligenz

KI-gestützte Expertensysteme können Wissenschaftlern helfen, Durchbrüche zu erreichen oder zu beschleunigen. Doch wie schützt man sich vor Irrtümern?

Künstliche Intelligenz wird oft kritisiert, weil sie Informationen erfindet, also halluziniert. Die plausibel wirkenden, aber unzutreffenden Einlassungen der Sprachmodelle haben nicht nur Chatbot-Sitzungen durcheinandergebracht. Sie können auch gefährlich werden, wenn es zum Beispiel um medizinische Aufzeichnungen geht. Auch wirtschaftliche Schäden können die Folge sein.

Wie die New York Times berichtet, fanden einige Wissenschaftler jedoch auch heraus, dass Halluzinationen von künstlichen Intelligenzen bemerkenswert nützlich sein können. Die Maschinen können Unwirklichkeiten erträumen, die Wissenschaftlern zum Beispiel dabei helfen, Krebs zu verfolgen, Medikamente zu entwerfen, medizinische Geräte zu erfinden oder Wetterphänomene aufzudecken.

Halluzinationen von KI-gestützten Expertensystemen verstärken nun die kreative Seite der Wissenschaft. Sie beschleunigen den Prozess, durch den Wissenschaftler und Erfinder neue Ideen ausdenken und sie testen, um zu sehen, ob die Realität zustimmt. Es bleibt Wissenschaft – allerdings hoch beschleunigt. Was einst Jahre dauerte, kann jetzt in Wochen, Tagen oder sogar in nur Stunden und Minuten erledigt werden.

KI-Halluzinationen stärken die kreative Seite der Wissenschaft

In einigen Fällen helfen die beschleunigten Untersuchungszyklen Wissenschaftlern, neue Grenzen zu öffnen. Wenn Wissenschaftler generative Computermodelle zu einem bestimmten Thema trainieren und die Maschinen diese Informationen dann neu bearbeiten lassen, können die Ergebnisse von subtil falsch bis völlig surreal reichen.

Manchmal aber führen sie zu bedeutenden Entdeckungen.

David Baker von der University of Washington erhielt zusammen mit zwei Kollegen den Nobelpreis für Chemie für seine Forschung an Proteinen – genauer gesagt für seine Entdeckung, wie man schnell gänzlich neue Arten von Proteinen herstellen kann. Synthetische Proteine, die in der Natur nicht vorkommen, können verschiedene Aufgaben übernehmen, viele davon in der medizinischen Versorgung.

Eines davon dient einer neuartigen Krebsbehandlung. Ein anderes soll helfen, den globalen Kampf gegen Virusinfektionen zu unterstützen. Die neue Technologie habe seinem Labor geholfen, ungefähr 100 Patente zu erhalten, und Baker selbst hat mehr als 20 Biotech-Unternehmen gegründet oder beim Start unterstützt.

Synthetische Proteine

Nachdem die KI ihre Vorschläge erträumt hat, geht es darum, die vorgestellten Proteine zu synthetisieren. Dazu werden die Informationen über die halluzinierten Moleküle ausgewertet, um dann die Stränge aus Erbsubstanz zu produzieren, die genau diese künstlichen Proteine kodieren. Um die Eiweiße herzustellen, werden die Gene in Mikroben eingesetzt.

Die Winzlinge lieferten denn auch prompt 129 neue Arten von synthetischen Proteinen.

Andere Wissenschaftler gingen einen ähnlichen Weg, um einen neuen Typ eines Katheters zu entwerfen, der bakterielle Infektionen reduziert – ein globales Übel, das jährlich Millionen von Harnwegsinfektionen verursacht. Sie ließen ein KI-gestütztes Expertensystem viele Tausende von denkbaren Kathetergeometrien entwerfen, um dann diejenige auszuwählen, die am effektivsten war.

Die Innenwände dieses neuen Katheters sind nun mit sägezahnähnlichen Spitzen ausgekleidet, die verhindern, dass Bakterien Halt finden und gegen den Strom schwimmen, um die Blasen der Patienten zu infizieren.

KI-Halluzinationen als Wahrscheinlichkeitsverteilungen

Eine erhellende Beschreibung für die neue Methode liefert laut New York Times Amy McGovern, Direktorin eines bundesstaatlichen KI-Instituts in den USA und Professorin für Meteorologie und Informatik an der University of Oklahoma: Sie sagt, KI-Halluzinationen könnten auch als Wahrscheinlichkeitsverteilungen beschrieben werden. Das ist weniger farbenfroh, sagt aber deutlich mehr über die zugrunde liegende Methodik aus.

Wetterforscher verwenden laut McGovern jetzt routinemäßig KIs, um Tausende von Vorhersagevarianten oder Wahrscheinlichkeitsbereichen zu erstellen. Bei diesem informierten Rätselraten stoßen die Wissenschaftler auch immer wieder auf unerwartete Faktoren, die extreme Ereignisse wie tödliche Hitzewellen antreiben können.

Wenn sie von Expertensystemen gestützt werden, bleiben die kreativen Ausbrüche von KI den harten Fakten der Natur und Wissenschaft verpflichtet. Wenn ein Sprachmodell fantasiert, liegen dem die Mehrdeutigkeiten der menschlichen Sprache und der Wirrwarr des Internets zugrunde, die ein Chatbot nicht überprüfen kann.

Immer schneller, immer größere Fortschritte

So kann es nicht verwundern, dass einige Wissenschaftler das Wort KI-Halluzinationen als irreführend empfinden. Sie sehen die Vorschläge generativer A.I.-Modelle nicht als illusorisch, sondern als prospektiv an – was der Idee der Wahrscheinlichkeitsbereiche ähnelt. Zudem sei der Begriff Halluzination zu ungenau.

Und je besser die zugrunde liegenden Expertenmodelle werden, desto schneller lassen sich – immer größere – Fortschritte realisieren. So fütterte das Team des Chemie-Nobelpreisträgers Baker zufällige Folgen von Proteinbausteinen (Aminosäuren) in ein Modell, das darauf trainiert war, die strukturellen Merkmale echter Proteine zu erkennen. Es funktionierte – und wie.

Schon in einem Testlauf erstellte die KI Tausende von virtuellen Proteinen. Es ist wie mit KI-generierten Katzenbildern im Internet, freuen sich die Forscher: Die synthetischen Katzen sind eindeutig als Katzen erkennbar. Bei den Proteinen ist es ähnlich. Die künstlichen Proteinstrukturen ähneln den natürlichen Strukturen, sind ihnen aber nicht identisch.

Ganz grundsätzlich müssen jedoch weiterhin alle digitalen Fantasievorstellungen von Wissenschaftlern überprüft und mit der physischen Realität abgeglichen werden.