Ansicht umschalten
Avatar von M.O.I  Abt. Wiederbeschaffung
  • M.O.I Abt. Wiederbeschaffung

mehr als 1000 Beiträge seit 30.03.2020

Re: Warum sollte das Erreichen einer "Superintelligenz" wichtig sein?

Flake schrieb am 27.08.2024 21:03:

Du verwechselst da etwas. Diese Szenarien sind mögliche Zukünfte, keine Pläne. Du hast deine Krankenversicherung doch auch nicht, damit du krank wirst, oder?

Die "Superintelligenz" wird kommen, man rechnet noch in diesem Jahrzehnt damit. Warum? Warum wedelt der Hund mit dem Schwanz? Weil er es kann.

Hmm, wirklich tolle Argumente, nur dass sich da der Zusammenhang nicht wirklich erschließt.

https://situational-awareness.ai/wp-content/uploads/2024/06/situationalawareness.pdf
Seite 48

Dir ist aufgefallen, dass die hübsche Grafik da einen ganz merkwürdigen Knick aufweist, so in näherer Zukunft? Schreiben wir die "bekannte" Entwicklung wie dargestellt fort, wäre die 10^12 "Superintelligenz" irgendwo in Richtung des nächsten Jahrhunderts zu verorten.
Dass die Entwicklungskurve mit irgendwas bei 2018 ansetzt ist auch schon ein wenig verdächtig, denn damit spart sie den Sprung, den die KI-Forschung etwa 2015/16 gemacht hat - ("Attention is all you need") völlig aus.

Die Annahme, dass KI, insb. LLMs, die Trainingsmöglichkeiten verbessern ist schon zutreffend, allerdings schon in Grenzen, siehe "Model Autophagy Disorder".

Neben den exponentiell steigenden Anforderungen für Rechenleistung gibt es also auch inhaltlich konkrete Gründe dafür, dass sich die Entwicklung eher abgeflacht fortschreiben wird als für einen plötzlichen Entwicklungssrpung.

Sie hat ihren Namen daher, dass niemand mehr verstehen wird, wie diese Lösungen funktionieren, weil sie jenseits unseres Verstandes sind. Bereits jetzt hat die KI Medikamente entwickelt auf die "die Forschung nicht gekommen wäre":

https://www.heise.de/hintergrund/Die-ersten-von-KIs-gefundenen-Medikamente-kommen-9663211.html

Ist das der Fall? Also die "KI" hat eigenständig Medikamente entwickelt? Der Artikel liest sich doch schon irgendwie anders und da ist bei näherer Betrachtung weder ein Beleg noch ein Ansatz für AGI zu erkennen.

Es gibt wirklich viele Gründe sich damit auseinanderzusetzen und nicht einfach abzuwarten, was da auf uns zurollt.

Selbstverständlich. Aber dann bitte nicht mit esoterisch anmutenden Endzeit-"Szenarien", erst recht nicht, wenn jegliche Begründung, was, warum und wie eine "Superintelligenz"-KI das verhindern könnte. Respektive dass man zunächst einmal definieren müsste, was so eine Superintelligenz denn eigentlich sein soll bzw. was sie können müsste.

Noch können wir vermutlich froh sein, dass die "KI's" so schlau sind wie sie sind und uns brav jede auch noch so dämliche Frage beantworten. Und hoffen, dass es dabei bleibt ;)

Bewerten
- +
Ansicht umschalten