Eine übliche KI arbeitet mit Lernprozessen in einem neuronalen Netz, in dem ihr bekannte Zusammenhänge von Fakten so lange vorgelegt werden, bis sie als statistisch hinreichend für wahr gelten. Somit können diese Zusammenhänge bei Anfragen als "wahr" zurückgespielt werden. Problematisch dabei sind
- es können auch falsche Zusammenhänge aufgenommen werden, wenn sie nur genügend oft vorgelegt werden; dazu braucht es nur Bots, die dies einige tausend Mal indoktrinieren
- die statistische Zusammenhänge gelten nie für eine individuelle Aussage sondern nur für eine Gruppe
von Aussagen (Beispiel: Eine Aussage zur Schuhgröße einer zufälligen Person kann nicht getroffen werden, jedoch für die Verteilung in einer Gruppe, was für einen Schuhhersteller interessant ist) und ihre Werte sind nie exakt sondern immer mit einem Streuung versehen (daher sind Statistiken im Fernsehen mit exakten Zahlen immer ein Fake, wenn nicht der Geltungsbereich angegeben wird)
- eine statistische Aussage kann niemals einen dahinter liegenden logischen oder mathematischen Zusammenhang erklären. Deshalb wird eine KI nicht sagen können, warum sie zu einem Ergebnis gekommen ist. Man muss hoffen, dass ihre Aussage irgendwie Sinn macht.
So muss z.B. beim Pythagoras-Satz c^2= a^2 + b^2 jede Kombination (z.B. a^2 = c^2 - b^2) getrennt gelernt werden. Für einen Menschen wäre das kein Problem, da er neben Fakten auch Logik in der Schule lernt.
So war ein Test der ChatGPT mit der Frage "Wie lange braucht ein Raumschiff von der Erde nach Proxima Centauri, wenn für Beschleunigung und Bremsen nur 1g zulässig ist?" Die Antwort unter einem Wortschwall war 4,2 Jahre, was genau die Entfernung in Lichtjahren ist. Hierzu hätte eigentlich eine Integralgleichung gelöst werden müssen. Ich denke, es sind ein paar tausend Jahre, abgesehen von Tod durch Strahlung und Kollisionen.
Man darf also nicht alles glauben, was ChatGPT oder eine sonstige KI heraussprudelt, sondern sollte immer begleitend den gesunden Verstand einschalten. Es ist zu befürchten, dass die kompromisslose Anwendung heutiger KIs zu manchen Katastrophen führen wird. Ich werde jedenfalls über keine Brücke gehen, die eine KI entworfen hat.
Eine echte künstliche Intelligenz, die dem Menschen überlegen sein könnte, müsste "a priori" Informationen wie mathematische und logische Regeln handhaben können, mit denen gesuchte Antworten aus Einzelfakten direkt abgeleitet werden können. Sie müsste deshalb nicht nur
- "nominal" :auf Wortgleichheit bzw. richtige Zuordnung bei mehreren Bedeutungen z.B. "Bank", "Leiter" aus dem Kontext erkennen (etwa Stand von ChatGPT) sondern auch
- "ordinal" : Über/Unterordnung erkennen (ist Teil von.., ist Vater von..) und sowie Lücken z.B bei Entscheidungen, wie a<b und a>b automatisch Lücke für a=b erkennen, sowie
- "kardinal" : mit Gleichungen rechnen und auch Fehler darin erkennen, z.B. Energie[W]:= Länge[m] + Gewicht [kg], und mit Ausgleich von unterschiedliche Maßeinheiten, z.B. m< >inch, MW< >BTU und °C< >°F, sowie Skalierungen, z.B. W, MW, GW, umgehen können.
Das aber sind nur die notwendigen Werkzeuge. Darüber hinaus wird sie wirklich erst intelligent, wenn sie logische Zusammenhänge durch offene Fragen (z.B. wie, warum [bei Kleinkindern sehr beliebt!], wo, wer, wann, womit, wohin, woher, mit wem ...) stellen und interpretieren kann, die immer eine Erklärung fordern und nicht mit ja/nein beantwortet werden können.
Inzusammmenhang mit Datenbanken, die ein Datadictionary besitzen, welches auch Attribute wie Zugriffsverfahren, Datentyp und physikalische/sonstige Einheiten der Satzinhalte beschreibt, wäre eine Wissensexplosion durch automatisches Navigieren möglich.
Dagegen kann eine heute genügend trainierte KI im Bereich der Mustererkennung (z.B. bei Krebsdiagnose oder Zielerkennung) gegenüber einem Menschen erhebliche Vorteile haben.
Also keine Angst vor der gegenwärtigen KI, wenn sie nicht gerade mit einer Waffe auf euch zielt.
Und noch eins: ein Mensch hat ca. 100 Mrd. Prozessoren (Neuronen) mit Billionen von Verbindungen (Synapsen) dazwischen und braucht für die Funktion nur 30W, die er jederzeit aus der Nahrung gewinnt; wie viele Prozessoren benutzt realistisch eine KI und wieviel MW braucht sie, die von außen bereitgestellt werden müssen: Einfach im Ernstfall Stecker ziehen!
Weitaus gefährlicher sind Experimente von Elon Musk mit Chips oder Nanobots im Gehirn eines Menschen, die neue Fähigkeiten zum Übermenschen erwirken sollen (Transhumanismus). Denn dann steht Logik, Intuition und Erfahrung mit 100 Mrd. Prozessen bereits zur Verfügung.