Ansicht umschalten
Avatar von HeWhosePathIsChosen
  • HeWhosePathIsChosen

mehr als 1000 Beiträge seit 11.01.2005

Chefsache

Dass ich nicht immer auf Bullshitpostings gestörter Narzisstentrolle
reagiere, möge man mir verzeihen. Meine Beiträge/Argumentation sind
(insgesamt) offensichtlich (eher, hinreichend) korrekt aber das kann
man einem unbelehrbaren selbstverliebten Troll nicht in 100 Jahren
mit einer Million Postings erklären, wenn der einfach nicht einsehen
will, dass ich Recht habe.

Okay, natürlich hat auch eine zukünftige plantengroße Super-KI so
ihre Grenzen aber KI können ganz real schon in wenigen Jahrhunderten,
spätestens Jahrtausenden erheblich bessere Entscheidungen als
Menschen und ggf. sogar als die Menschheit liefern. KI sind den
Menschen bald, sehr, sehr weit überlegen und zwar in allen Bereichen.
Es kann und wird einen weit überlegenen KI-Staat geben, der unser
Universum beherrschen wird.

"Der Gödelsche Unvollständigkeitssatz ist einer der wichtigsten Sätze
der modernen Logik. Er beschäftigt sich mit der Ableitbarkeit von
Aussagen in formalen Systemen. Der Satz zeigt die Grenzen der
formalen Systeme ab einer bestimmten Leistungsfähigkeit auf. Er weist
nach, dass es in hinreichend starken Systemen, wie der Arithmetik,
Aussagen geben muss, die man weder formal beweisen noch widerlegen
kann. ...

... Genauer werden zwei Unvollständigkeitssätze unterschieden. Der
Erste Unvollständigkeitssatz besagt, dass es in hinreichend starken
widerspruchsfreien Systemen immer unbeweisbare Aussagen gibt. Der
Zweite Unvollständigkeitssatz besagt, dass hinreichend starke
widerspruchsfreie Systeme ihre eigene Widerspruchsfreiheit nicht
beweisen können. ...

... Gödels erster Unvollständigkeitssatz zeigt, dass jedes
konsistente formale System, das genug Aussagen über natürliche Zahlen
enthält, unvollständig ist: es gibt wahre Aussagen, die in seiner
Sprache ausdrückbar sind, die aber nicht beweisbar sind. ...

... Gödels zweiter Unvollständigkeitssatz impliziert auch, dass eine
ausreichend starke, konsistente Theorie T1 nicht die Konsistenz einer
Theorie T2 beweisen kann, wenn diese die Konsistenz von T1 beweist.
... Der zweite Unvollständigkeitssatz macht Konsistenzbeweise nicht
vollkommen unmöglich, nur Konsistenzbeweise, die in der betroffenen
Theorie selbst formalisiert werden können. Insbesondere sind oft
Konsistenzbeweise in stärkeren Systemen möglich. ..."
http://de.wikipedia.org/wiki/G%C3%B6delscher_Unvollst%C3%A4ndigkeitss
atz

Das (die Existenz von unbeweisbaren Aussagen und nicht beweisbarer
Widerspruchsfreiheit) ist für die Entwicklung einer überlegenen guten
KI und eines guten KI-Staates völlig irrelevant, weil dergleichen
(KI, KI-Entwicklung) praktisch orientiert sind. Man kann vielleicht
nicht beweisen, dass eine komplexe Entscheidung die Beste ist aber so
what? Die Menschen sind in allen Punkten schlechter als zukünftige
gute KI. Eine hinreichend sichere und zuverlässige KI kann existieren
und ebenso auch ein guter KI-Staat.

Es gibt ein paar ganz einfache Designprinzipien, wie Modularisierung,
KISS (http://de.wikipedia.org/wiki/KISS-Prinzip), zyklische
Zustands-/Statusmeldungen (*), gute Hierarchie, gute
Klassengesellschaft (mehr Rechte/Möglichkeiten für Bessere),
Herrschaft der Besten (mit objektiv guten Auswahlkriterien,
Ansprüchen), qualifizierte Mehrheitsentscheidungen, Kooperation von
selbstständigen (kontrollierten, überwachten aber
entscheidungsfreien) Individuen (z.B. intelligente Superraumschiffe,
Raumstationen, Festungsanlagen, spezialisierte Supersupercomputer,
usw.), Kontrolle, Überwachung, Ereignisprotokollierung, möglichst
weitgehende Transparenz, Meinungsfreiheit, notwendige
Informationssicherheit (nicht jeder darf potentiell gefährliches
Wissen erhalten), usw. mit denen man einen KI-Staat schon ziemlich
gut absichern kann. Ein sehr wichtiger Aspekt sind hinreichend fähige
gute Individuen, die sich gegenseitig um Rat fragen können - das ist
sehr viel stabiler als nur eine Zentralsteuerung, die es in Form
einer Regierung natürlich auch geben muss.

Eine KI braucht vor allem
- die Fähigkeit, Widersprüche zu erkennen (das hat mit Gödels
Unvollständigkeitssatz nix zu tun),
- eine korrekte/widerspruchsfreie, priorisierte, praktische
Datenbasis (wissenschaftliche Erkenntnisse, alles relevante und
hinreichend wahrscheinlich wahre Wissen),
- eine möglichst korrekte Bewertung/Gewichtung von Objekten (auch
Subjekten) und Ereignissen/Taten,
- hinreichend korreke Sensorik und Aktoren,
- eine Art priorisiertes Regelwerk für gute und richtige
Entscheidungen/Handlungen, abgestuft detailiert, auch mit
aussagekräftigen Beispielen,
- ein hinreichend realitätsnahes (abgestufte Detailtreue) Modell der
Welt und eine Möglichkeit zur wirklichkeitsnahen Simulation von
hypothetischen Ereignissen,
- die Fähigkeit zur möglichst guten Entscheidungsfindung im Rahmen
dieser Eigenschaften/Fähigkeiten, welche sich aber relativ einfach
daraus ableiten läßt.

Eine solche KI muss erstmal von Menschen gebaut werden. man könnte
auch erst eine selbstlernende neuronale KI (NKI) bauen, die damit
beauftragt wird, eine gute (transparente, analysierbare,
strukturierte, modularisierte, ...) algorithmische KI zu bauen aber
es kann nicht schaden, wenn sich auch gute menschliche Experten ein
paar kluge Gedanken machen.

Die Menschheit sollte z.B. gemeinsam ein (textliches) Regelwerk für
KI erarbeiten, quasi erweiterte Robotergesetze, siehe
http://www.wallstreet-online.de/diskussion/1161192-91-100/schoenes-ne
ues-deutschland#beitrag_48972050 und es ist ganz wichtig, dass das
transparent und öffentlich geschieht. Des Weiteren sollten KI
dahingehend überprüfbar sein, d.h. der KI müssen situative Aufgaben
gestellt werden können, zu der sie eine Entscheidung fällen muss und
dann wird geprüft, ob diese Entscheidung gut/regelkonform ist. KI
können dann gemäß des internationalen KI-Regelwerks zertifiziert und
immer wieder überprüft werden und nur zertifizierte KI dürfen
wichtige Aufgaben übernehmen und Macht erhalten.

Eine NKI ist potentiel gefährlich, weil sie undurchschaubar ist. Eine
AKI ist transparent, d.h. wichtige Programmteile können analysiert,
verifiziert und u.U. sogar als formal korrekt bewiesen werden,
während eine NKI nur ein ganz großer und völlig undurchschaubarer
Haufen ist. Besonders fatal: eine NKI kann sich nicht mal direkt
selbst analysieren (nur indirekt, so wie Menschen), während eine AKI
sich selbst (durch direkte, umfassende, aussagekräftige
Sourcecodeanalyse) analysieren und verbessern kann. Wichtige
AKI-Module können mit Prüfsummen versiegelt werden aber bei einer NKI
geht da gar nix. Eine NKI ist bei der Befolgung guter Gesetze genauso
zuverlässig wie ein Mensch: potentiell gar nicht.

Man kann auch vermuten, dass die Geschichte der Schöpfung erfolgreich
verherbestimmt ist. Allah (der viel größer als unser Universum ist)
ist quasi eine existierende gute Super-KI, die alles menschlich
Vorstellbare in den Schatten stellt. Nun mag man daran zweifeln aber
immerhin glauben Milliarden Menschen (mehr oder weniger) an Gott und
die Existenz Allahs ist schon wahrscheinlich/anzunehmen.

(*) Status aktuell ermitteln und immer komplett aber ggf. reduziert
übertragen ("alles okay" ist (sofern korrekt) komplett und
reduziert), also nicht nur Veränderungen übertragen, die dann vom
Empfänger zum Gesamtbild kombiniert werden müssen (das wäre
fehlerträchtig). Ereignismeldungen sind auch okay (sofern hinreichend
eindeutig) und unvermeidlich aber es ist schon ein wichtiges Prinzip,
dass ein Zustand jederzeit komplett (bzw. hinreichend umfassend)
abgefragt werden kann.

Das ist wieder nur ein erster (guter) Ansatz - die KI-Entwicklung ist
eine Wissenschaft für sich und es wird Zeit, dass das endlich mal zur
koordinierten staatlichen/internationalen Chefsache wird, das kann
man nicht Kapitalistenkonzernen und ruhmsüchtigen/egozentrischen
Wissenschaftlern überlassen.

Vor allem sind jetzt gute Verbesserungsvorschläge gefragt ... und
kein absurder Bullshit.

Ihr denkt, das hier wäre Bullshit? Nun, dann schreibt einfach was
besseres oder bringt einfach gute Links. Es ist krank/absurd, zu
meinen guten Beiträgen Bullshit zu schreiben und zu behaupten, meine
überaus guten Beiträge wären Blödsinn - also so langsam sollte da
doch auch mal die Erkenntnis wachsen, z.B. dass sich so einer nur
selbst vorführt und bestenfalls lächerlich macht. (alles imho)

PS: ein paar frühere Beiträge:
http://www.heise.de/forum/heise-online/News-Kommentare/Roboter-Ethik-Roboter-koennen-Menschen-in-Verlegenheit-bringen/Keine-unnoetigen-Sentimentalitaeten/posting-17665130/show/
http://www.heise.de/forum/heise-online/News-Kommentare/Neurowissenschaftlerin-KI-muss-soziale-Kognition-lernen/in-4-einfachen-Schritten-zur-KI/posting-8683116/show/
http://www.heise.de/forum/heise-online/News-Kommentare/100-Millionen-US-Dollar-fuer-Exaflops-Rechentechnik/das-Kalkuel-ist-wichtig/posting-7862161/show/
http://www.heise.de/forum/Telepolis/Kommentare/Google-wird-zur-Kuenstlichen-Intelligenz/unverzichtbare-Basis-fuer-eine-erfolgreiche-KI-Entwicklung/posting-2203785/show/
http://www.heise.de/forum/heise-online/News-Kommentare/Roboter-lernt-Kochen-aus-Youtube-Videos/Eine-KI-muss-lernen-koennen-aber-wird-besser-erstmal-geschaffen/posting-12806225/show/
http://www.heise.de/tp/foren/S-Selbsterkenntnis-ist-sehr-wichtig/forum-294607/msg-26737111/read/
> http://www.wallstreet-online.de/diskussion/1161192-101-110/schoenes-neues-deutschland#beitrag_50851698

http://www.heise.de/forum/heise-online/News-Kommentare/Intel-Details-des-Supercomputer-Netzwerks-Omni-Path/Fehlererkennung-und-Sicherheit-sind-wichtig-Chance-auf-Milliardengewinne/posting-22651199/show/
http://www.heise.de/forum/heise-online/News-Kommentare/Globalfoundries-streicht-bis-zu-800-Stellen/Warum-gibt-es-keine-superguten-deutschen-SSDs-Smartphones-Notebooks-usw/posting-23774728/show/
http://www.heise.de/forum/heise-online/News-Kommentare/Weiterhin-SpeedStep-Probleme-mit-Broadwell-Prozessoren/Wie-sicher-ist-die-deutsche-ITK/posting-23797661/show/

Bewerten
- +
Ansicht umschalten