ChatGPT und Künstliche Intelligenz: Utopie oder Dystopie?
- ChatGPT und Künstliche Intelligenz: Utopie oder Dystopie?
- ChatGPT: Politische Agenda durch Lügen vorantreiben?
- Auf einer Seite lesen
Das Tool wird immer ausgefeilter; es erstellt Software und erfindet die unglaublichsten Fiktionen. Wie "klug" ist es? Wie sieht es mit den Ängsten aus? Und mit Moral?
Erst vor wenigen Wochen hat ein von Elon Musk gegründetes Labor die neueste Version von ChatGPT auf den Markt gebracht, einem Chatbot, der es Nutzern ermöglicht, sich mithilfe eines Modells der künstlichen Intelligenz über jedes beliebige Thema zu unterhalten – mit Begrenzung und Fehlern (siehe: Disruptives Potenzial.)
Und doch: Das Tool ist immer ausgefeilter geworden - es erstellt jetzt Software und erfindet die unglaublichsten Fiktionen.
Enthusiastische Kommentatoren geben sich seinem kreativen Potenzial hin, die pessimistischsten warnen vor den Gefahren seiner Lügen, sehen sogar schon das Ende der Geisteswissenschaften kommen, während Unternehmen pragmatisch Anwendungsmöglichkeiten im Auge haben werden. Das Potenzial, Arbeitskräfte einzusparen, ist für sie verlockend.
Was ist ChatGPT?
ChatGPT ist eine Plattform, auf der Benutzer einen Dialog mit einem Bot führen können, der seine Antworten auf der Grundlage von überwachten und optimierten Sprachmodellen mithilfe von "Machine Learning" oder, wie es im Volksmund heißt, der künstlichen Intelligenz gibt.
Technisch gesehen gibt es keine großen Neuerungen im Vergleich zu früheren Versionen des Chats, aber die Verbesserungen in der Leistung sind ein Wendepunkt. Es produziert jetzt nicht nur gut geschriebene Absätze in verschiedenen Sprachen, sondern ist auch in der Lage, Programmiercodes zu erstellen, die Entwicklern eine Menge Zeit sparen werden. Es wird erwartet, dass ChatGPT der erste von vielen Chatbots sein wird, die sich jedes Jahr exponentiell verbessern werden.
Während künstliche Intelligenz eingesetzt wird, um auf unerträgliche Probleme wie Verkehrsunfälle oder andere Nöte zu reagieren, zeigt ChatGPT seine Fähigkeiten, wenn nicht kreativ, so doch zumindest unterstützend für kreative Prozesse.
Während der Unterhaltungen merkt sich der Chat frühere Hinweise, so dass die Vorschläge der Nutzer deren Antworten korrigieren, und seine Wirksamkeit hängt davon ab, dass wir immer wieder klarstellen, "Ich meine dies nicht und ich meine das nicht".
Ist das wirklich klug?
Schauen wir uns nun an, wie die Maschine lernt. Maschinelles Lernen ist ein Computerprogramm, das auf gigantische Datenbanken zugreifen kann, um Muster zu finden und zuverlässige Vorhersageannäherungen von Prozessen zu erzeugen, deren kausale Dynamik nicht von selbst verstanden wird.
Mit anderen Worten, wir brauchen keine strukturierten Daten mehr, um Wissen zu produzieren; es genügt, dass das "n" der Datenbank immer größer wird und die Verarbeitung ständig wiederholt werden kann.
In ihrem Buch "The Costs of Connection: How Data Is Colonizing Human Life and Appropriating It for Capitalism" erklären Nick Couldry und Ulises Mejías dies sehr gut.1
Die Struktur der Daten muss durch Wiederholung und allmähliche Verfeinerung der ursprünglichen Regeln (Vermutungen) für die Kategorisierung dieser Spuren gefunden werden. Neue Regeln für die Kategorisierung werden im Laufe der Anwendung dieser ursprünglichen Regeln generiert. Folglich ist die Bedeutung der Analyse nichtlinear, "emergent..., [und] besteht aus zuvor unbekannten Mustern und Beziehungen".
Das Endprodukt (das generierte Wissen) lässt sich nicht durch Regeln erklären; es ist lediglich ein komplexer Zusammenhang, der aus einem auf vielen verschiedenen Ebenen ablaufenden Rechenprozess hervorgeht. Als solche sind die Vorgänge der Datenanalyse notwendigerweise undurchsichtig, und niemand - nicht einmal die Ingenieure, die den Prozess durchführen - kann genau erklären, wie das Wissen erzeugt wurde.
Nick Couldry und Ulises Mejías
Aber was ist denn an künstlicher Intelligenz so intelligent? Oder anders gefragt: Kann Intelligenz auf die bloße Herstellung von Beziehungen reduziert werden? Da Maschinen vorhersagen und nicht erklären, können wir vielleicht nicht so einfach sagen, dass sie lernfähig sind.
Wenn man Intelligenz als die dem Menschen innewohnende Fähigkeit zu denken, als Quelle der Autonomie und letztlich alles Intelligiblen betrachtet, dann ist der Begriff der künstlichen Intelligenz problematisch.
Der Philosoph Avishai Margalit hat eine grundlegende Aussage über die Einzigartigkeit der menschlichen Intelligenz getroffen:2
Es ist nicht die Undurchsichtigkeit unseres Schädels, die unsere "inneren" Gedanken sichert. Wenn unser Schädel durchsichtig wäre, wüssten wir nicht mehr als jetzt über die inneren Gedanken anderer. Wir denken die Gedanken nicht in unserem Kopf, so wie wir die Nahrung in unserem Magen verdauen.
Avishai Margalit
Antike, moderne und postmoderne Angst
Der ChatGPT ist ein Automat, eine Art antiker hebräischer Golem, der nicht aus dem Lehm der Moldau geformt ist, sondern auf der Grundlage eines statistischen Modells funktioniert. Anstatt mit den von Rabbi Loew gesprochenen Worten zum Leben zu erwachen, kann er dank des maschinellen Lernens unsere Fragen beantworten.
Das Problem ist, dass der Golem von Berthold Auerbach gewalttätig wurde, als er erwachsen wurde, und dass die Zukunft von ChatGPT bereits die schlimmsten Ängste und Dystopien hervorruft.
Eine der Befürchtungen, die künstliche Intelligenz heute weckt, ist, dass sie, wenn sie ihre Fähigkeiten verbessert, den Menschen ersetzen könnte, der nicht in der Lage sein wird, sie zu kontrollieren, wie Nick Bostrom in seinem Buch Superintelligence (2014) schreibt. Diese Angst ist seit Beginn der Moderne in der Volkskultur verankert:
Von Tag zu Tag jedoch gewinnen die Maschinen an Boden; von Tag zu Tag werden wir ihnen untertäniger; täglich werden mehr Menschen als Sklaven gebunden, um sie zu bedienen, täglich widmen mehr Menschen die Energie ihres ganzen Lebens der Entwicklung des mechanischen Lebens. Das Ergebnis ist nur eine Frage der Zeit, aber dass die Zeit kommen wird, in der die Maschinen die wirkliche Vorherrschaft über die Welt und ihre Bewohner innehaben werden, kann kein Mensch mit einem wahrhaft philosophischen Verstand auch nur einen Moment lang in Frage stellen.
Samuel Butler, 1863
Es scheint paradox, dass Elon Musk das Buch von Bostrom empfohlen hat und gleichzeitig den Chat finanziert.
Natürlich nimmt er den klassischen argumentativen Joker in die Hand, um nicht von etwas ausgeschlossen zu werden, was unweigerlich geschehen wird, und so der Menschheit Vorteile zu sichern (als guter postmoderner König kennt er bereits unsere Bedürfnisse).
Ein interessanter Punkt in Musks Rechtfertigung ist jedoch, dass, wenn mehr Menschen Zugang zu den Möglichkeiten der künstlichen Intelligenz erhalten, kein Einzelner mehr über diese Supermacht verfügen wird.
Jemand könnte jedoch entgegnen, dass, wenn es einen Knopf gibt, der allen anderen schaden kann, wir nicht wollen sollten, dass die ganze Welt Zugang dazu hat.