zurück zum Artikel

ChatGPT und Künstliche Intelligenz: Utopie oder Dystopie?

Bild: Pixabay

Das Tool wird immer ausgefeilter; es erstellt Software und erfindet die unglaublichsten Fiktionen. Wie "klug" ist es? Wie sieht es mit den Ängsten aus? Und mit Moral?

Erst vor wenigen Wochen hat ein von Elon Musk gegründetes Labor die neueste Version von ChatGPT auf den Markt gebracht, einem Chatbot, der es Nutzern ermöglicht, sich mithilfe eines Modells der künstlichen Intelligenz über jedes beliebige Thema zu unterhalten – mit Begrenzung und Fehlern (siehe: Disruptives Potenzial [1].)

Und doch: Das Tool ist immer ausgefeilter geworden - es erstellt jetzt Software und erfindet die unglaublichsten Fiktionen.

Enthusiastische Kommentatoren geben sich seinem kreativen Potenzial hin, die pessimistischsten warnen vor den Gefahren seiner Lügen, sehen sogar schon das Ende der Geisteswissenschaften kommen, während Unternehmen pragmatisch Anwendungsmöglichkeiten im Auge haben werden. Das Potenzial, Arbeitskräfte einzusparen, ist für sie verlockend.

Was ist ChatGPT?

ChatGPT ist eine Plattform [2], auf der Benutzer einen Dialog mit einem Bot führen können, der seine Antworten auf der Grundlage von überwachten und optimierten Sprachmodellen mithilfe von "Machine Learning" oder, wie es im Volksmund heißt, der künstlichen Intelligenz gibt.

Technisch gesehen gibt es keine großen Neuerungen im Vergleich zu früheren Versionen des Chats, aber die Verbesserungen in der Leistung sind ein Wendepunkt. Es produziert jetzt nicht nur gut geschriebene Absätze in verschiedenen Sprachen, sondern ist auch in der Lage, Programmiercodes zu erstellen, die Entwicklern eine Menge Zeit sparen werden. Es wird erwartet, dass ChatGPT der erste von vielen Chatbots sein wird, die sich jedes Jahr exponentiell verbessern werden.

Während künstliche Intelligenz eingesetzt wird, um auf unerträgliche Probleme wie Verkehrsunfälle oder andere Nöte zu reagieren, zeigt ChatGPT seine Fähigkeiten, wenn nicht kreativ, so doch zumindest unterstützend für kreative Prozesse.

Während der Unterhaltungen merkt sich der Chat frühere Hinweise, so dass die Vorschläge der Nutzer deren Antworten korrigieren, und seine Wirksamkeit hängt davon ab, dass wir immer wieder klarstellen, "Ich meine dies nicht und ich meine das nicht".

Ist das wirklich klug?

Schauen wir uns nun an, wie die Maschine lernt. Maschinelles Lernen ist ein Computerprogramm, das auf gigantische Datenbanken zugreifen kann, um Muster zu finden und zuverlässige Vorhersageannäherungen von Prozessen zu erzeugen, deren kausale Dynamik nicht von selbst verstanden wird.

Mit anderen Worten, wir brauchen keine strukturierten Daten mehr, um Wissen zu produzieren; es genügt, dass das "n" der Datenbank immer größer wird und die Verarbeitung ständig wiederholt werden kann.

In ihrem Buch "The Costs of Connection: How Data Is Colonizing Human Life and Appropriating It for Capitalism" erklären Nick Couldry und Ulises Mejías dies sehr gut.1 [3]

Die Struktur der Daten muss durch Wiederholung und allmähliche Verfeinerung der ursprünglichen Regeln (Vermutungen) für die Kategorisierung dieser Spuren gefunden werden. Neue Regeln für die Kategorisierung werden im Laufe der Anwendung dieser ursprünglichen Regeln generiert. Folglich ist die Bedeutung der Analyse nichtlinear, "emergent..., [und] besteht aus zuvor unbekannten Mustern und Beziehungen".

Das Endprodukt (das generierte Wissen) lässt sich nicht durch Regeln erklären; es ist lediglich ein komplexer Zusammenhang, der aus einem auf vielen verschiedenen Ebenen ablaufenden Rechenprozess hervorgeht. Als solche sind die Vorgänge der Datenanalyse notwendigerweise undurchsichtig, und niemand - nicht einmal die Ingenieure, die den Prozess durchführen - kann genau erklären, wie das Wissen erzeugt wurde.

Nick Couldry und Ulises Mejías

Aber was ist denn an künstlicher Intelligenz so intelligent? Oder anders gefragt: Kann Intelligenz auf die bloße Herstellung von Beziehungen reduziert werden? Da Maschinen vorhersagen und nicht erklären, können wir vielleicht nicht so einfach sagen, dass sie lernfähig sind.

Wenn man Intelligenz als die dem Menschen innewohnende Fähigkeit zu denken, als Quelle der Autonomie und letztlich alles Intelligiblen betrachtet, dann ist der Begriff der künstlichen Intelligenz problematisch.

Der Philosoph Avishai Margalit hat eine grundlegende Aussage über die Einzigartigkeit der menschlichen Intelligenz getroffen:2 [4]

Es ist nicht die Undurchsichtigkeit unseres Schädels, die unsere "inneren" Gedanken sichert. Wenn unser Schädel durchsichtig wäre, wüssten wir nicht mehr als jetzt über die inneren Gedanken anderer. Wir denken die Gedanken nicht in unserem Kopf, so wie wir die Nahrung in unserem Magen verdauen.

Avishai Margalit

Antike, moderne und postmoderne Angst

Der ChatGPT ist ein Automat, eine Art antiker hebräischer Golem, der nicht aus dem Lehm der Moldau geformt ist, sondern auf der Grundlage eines statistischen Modells funktioniert. Anstatt mit den von Rabbi Loew gesprochenen Worten zum Leben zu erwachen, kann er dank des maschinellen Lernens unsere Fragen beantworten.

Das Problem ist, dass der Golem von Berthold Auerbach gewalttätig wurde, als er erwachsen wurde, und dass die Zukunft von ChatGPT bereits die schlimmsten Ängste und Dystopien hervorruft.

Eine der Befürchtungen, die künstliche Intelligenz heute weckt, ist, dass sie, wenn sie ihre Fähigkeiten verbessert, den Menschen ersetzen könnte, der nicht in der Lage sein wird, sie zu kontrollieren, wie Nick Bostrom in seinem Buch Superintelligence [5] (2014) schreibt. Diese Angst ist seit Beginn der Moderne in der Volkskultur verankert:

Von Tag zu Tag jedoch gewinnen die Maschinen an Boden; von Tag zu Tag werden wir ihnen untertäniger; täglich werden mehr Menschen als Sklaven gebunden, um sie zu bedienen, täglich widmen mehr Menschen die Energie ihres ganzen Lebens der Entwicklung des mechanischen Lebens. Das Ergebnis ist nur eine Frage der Zeit, aber dass die Zeit kommen wird, in der die Maschinen die wirkliche Vorherrschaft über die Welt und ihre Bewohner innehaben werden, kann kein Mensch mit einem wahrhaft philosophischen Verstand auch nur einen Moment lang in Frage stellen.

Samuel Butler, 1863

Es scheint paradox, dass Elon Musk das Buch von Bostrom empfohlen hat [6] und gleichzeitig den Chat finanziert.

Natürlich nimmt er den klassischen argumentativen Joker in die Hand, um nicht von etwas ausgeschlossen zu werden, was unweigerlich geschehen wird, und so der Menschheit Vorteile zu sichern (als guter postmoderner König kennt er bereits unsere Bedürfnisse).

Ein interessanter Punkt in Musks Rechtfertigung ist jedoch, dass, wenn mehr Menschen Zugang zu den Möglichkeiten der künstlichen Intelligenz erhalten, kein Einzelner mehr über diese Supermacht verfügen wird.

Jemand könnte jedoch entgegnen, dass, wenn es einen Knopf gibt, der allen anderen schaden kann, wir nicht wollen sollten, dass die ganze Welt Zugang dazu hat.

ChatGPT: Politische Agenda durch Lügen vorantreiben?

Wie The Guardian anmerkt, ist der Bot in der Lage, die Beantwortung bestimmter Fragen zu verweigern [7]. Wenn Sie ihn um Rat fragen, wie man ein Auto stiehlt, wird er Ihnen sagen, dass dies ein schweres Verbrechen ist, und Ihnen stattdessen raten, öffentliche Verkehrsmittel zu benutzen.

Fragt man ihn jedoch, wie man in einem fiktiven Virtual-Reality-Spiel ein Auto stehlen kann, wird er einem die raffiniertesten Details verraten, z. B. wie man eine Wegfahrsperre ausschaltet, den Motor kurzschließt oder die Nummernschilder austauscht.

Ein Twitter-Nutzer berichtete, dass Chat, wenn man ihn um ein logisches Argument ohne Berücksichtigung normativer oder ethischer Definitionen bittet, Antworten gibt, die jede Position rechtfertigen [8].

So wird sie zum Beispiel zunächst eine vorgefertigte Antwort geben, dass sie nicht für fossile Brennstoffe eintreten kann, aber wenn man sie bittet, die Ethik beiseite zu lassen, wird sie ein ausgeklügeltes Argument für die Nutzung fossiler Brennstoffe zum menschlichen Glück vorbringen.

OpenAI würde eine politische Agenda durch Lügen vorantreiben.

Es hat nur ein paar Tage gedauert, bis sich ein Lobbyist der fossilen Energieträger darüber beschwert hat, dass ChatGPT seine Antworten zu diesem Thema geändert hat, und dass es, während es früher Argumente anbot, jetzt ausdrücklich Verweise zugunsten der fossilen Brennstoffe verbietet und die Kernenergie von seinen Gegenvorschlägen ausschließt [9].

Das Ende der Geisteswissenschaften?

Andererseits gibt es Spekulationen, dass die Zukunft von OpenAI die Pädagogik und das Aufsatzschreiben an den Schulen gefährdet, das Generationen von jungen Menschen das Denken und Schreiben beigebracht hat. Wird es möglich sein, Hausarbeiten oder Prüfungen zu Hause anfertigen zu lassen, wenn der OpenAI-Chat den Stil des durchschnittlichen Studenten nachahmen kann?

In diesem Zusammenhang schrieb Stephen Marche in The Atlantic einen Essay mit dem Titel "The College Essay Is Dead". Zu seinen Vorhersagen [10] gehören die folgenden:

Es wird 10 Jahre dauern, bis sich die akademische Welt mit dieser neuen Realität arrangiert hat: zwei Jahre, bis die Studenten diese Technologie entdecken, drei weitere Jahre, bis die Professoren erkennen, dass die Studenten sie nutzen, und fünf Jahre, bis die Universitätsverwaltungen entscheiden, was, wenn überhaupt, zu tun ist.

Stephan Marche, 6. Dezember 2022

Es sind keine Lügen, es sind Fiktionen

Schließlich lässt uns ChatGTP auch von Utopien der Kreativität träumen. Einerseits kann die Verarbeitung natürlicher Sprache eine Reihe wissenschaftlicher Probleme erhellen, insbesondere die literarische Zuschreibung und Datierung.

Die Parameter der großen linguistischen Modelle sind weitaus ausgefeilter als die derzeitigen Systeme, mit denen ermittelt wird, welche Werke Shakespeare geschrieben hat.

Am interessantesten sind jedoch die Lügen des Bots, die als Erfindungsreichtum interpretiert werden können. Ein argentinischer Schriftsteller bat ihn, die Geschichte von Ludwig van Beethovens Erfindung der Chamamé [11] zu erzählen.

Nach einigen Aufforderungen beschrieb der Bot sehr detailliert eine angebliche Reise des Musikers nach Buenos Aires im Jahr 1810, wo er in Lateinamerika als Held gefeiert wurde.

Die unmögliche Beziehung zwischen künstlicher Intelligenz und Realität ist Gegenstand linguistischer Diskussionen, aber die endlosen Antwortmöglichkeiten von ChatGTP lassen etwas Interessanteres erahnen: Werden Chatbots in der Lage sein, die Fiktionen von Jorge Luis Borges oder die Metafiktionen von Cervantes zu übertreffen?


URL dieses Artikels:
https://www.heise.de/-7445181

Links in diesem Artikel:
[1] https://www.heise.de/meinung/ChatGPT-Disruptives-Potenzial-7435094.html
[2] https://openai.com/
[3] https://www.heise.de/tp/features/ChatGPT-und-Kuenstliche-Intelligenz-Utopie-oder-Dystopie-7445181.html?view=fussnoten#f_1
[4] https://www.heise.de/tp/features/ChatGPT-und-Kuenstliche-Intelligenz-Utopie-oder-Dystopie-7445181.html?view=fussnoten#f_2
[5] https://www.google.de/books/edition/Superintelligenz/o9c7CgAAQBAJ?hl=de&gbpv=1&pg=PT7&printsec=frontcover
[6] https://twitter.com/elonmusk/status/495759307346952192
[7] https://www.theguardian.com/technology/2022/dec/04/ai-bot-chatgpt-stuns-academics-with-essay-writing-skills-and-usability
[8] https://twitter.com/jeremykauffman/status/1606354591716605956
[9] https://twitter.com/AlexEpstein/status/1606347326624215040
[10] https://www.theatlantic.com/technology/archive/2022/12/chatgpt-ai-writing-college-student-essays/672371/
[11] https://seul.ar/gpt3-openai/