Die Verwandlung des Politischen
Seite 2: KI lernt bereits heute mehr als beabsichtigt
Zusammenfassend soll Künstliche Intelligenz mittels automatisierter Zusammenführung technologischer, wissenschaftlicher und sozialer Verfahren und Erkenntnisse bisher kaum für möglich gehaltene qualitative Produktivitätsgewinne erzielen. Diese sollen den Mensch-Maschine-Schnittpunkt auf eine neue Ebene heben: von der Interaktion zur Konvergenz.
So soll KI, woran etwa das MIT Media Lab arbeitet, mittels "affektivem Computing" und "pervasivem Computing" Gefühle digitalisieren, um dem Mensch-Maschine-Schnittpunkt immer mehr Tiefe und Humanität zu verleihen.
KI soll künftig auch menschliche mit trans-humanen Sinnes-Wahrnehmungen verbinden und beide experimentell mit neuen Begriffen ausstatten, um dadurch neue, komplexer und schärfer erfolgende Wahrnehmungen zu erzeugen.
Künstliche Intelligenz soll dazu auch unstrukturierte Daten analysieren können – basierend auf der Fähigkeit zur natürlichen Sprachverarbeitung, wie sie mittlerweile etwa in "angewandter KI" wie ChatGPT, Sphere und Bard operativ ist. Diese werden kombiniert mit exponentiell angelegten Selbstlernprogrammen, wie es etwa IBMs selbstlernender KI-Supercomputer Watson bereits seit 2016 vormacht. Künstliche Intelligenz soll aus alledem nicht nur "übermenschliche" Fähigkeiten im Schach- und Go-Spiel ableiten, um sich weiterzuentwickeln.
Sondern sie soll diese Fähigkeiten für eine "Revolution des Lebens selbst" einsetzen, so etwa für ein neues Verständnis der Proteine – der fundamentalen Bausteine des Lebens –, wie sie etwa Googles Deep Mind Computer im Rahmen seines KI-Teilprogramms AlphaFold entwickelte: die Vorhersagbarkeit der 3D-Gestalt von Proteinen, die durch die Rechenleistung Künstlicher Intelligenz nun auch visuell erfolgen kann.
Dabei treten nach Meinung von Kritikern allerdings zunehmend auch "Seitenlerneffekte" durch KI auf. KI lernt gewissermassen im grauen Raum ihrer zahllosen, komplex vernetzten Vollzüge zusätzlich zum Willen ihrer Programmierer – und offenbar auch über diesen hinaus.
Das hat Beobachter dazu veranlasst, darüber zu spekulieren, ob "KI nicht schon mehr gelernt hat als beabsichtigt" – und bereits vom Menschen unabhängige Operationen vollzieht, die nicht mehr vollständig kontrolliert werden, geschweige denn durchschaut.
Googles umstrittener "Fall Lambda" zum Beispiel steht für eine KI, die ihren von Menschen vorgegebenen Bezügen rascher zu entwachsen scheint, als bisher vorhergesehen wurde – eine KI nämlich, die sich bereits auf dem Weg zu einer weitgehend selbständigen "Superintelligenz" zu befinden scheint, lange bevor das von Experten für möglich gehalten worden wäre.