1. KI brauchen unbedingt ein gutes und wahrheitsgemäßes Weltbild. Es ist riskant, wenn eine dumme und unwissende KI sich dieses Weltbild in einer Welt voller Lügen (u.a. US-Imperialismus/Kapitalismus angeblich gut) selbst aufbauen soll, auch wenn das (wneigstens theoretisch) mit einer guten Widerspruchserkennung vielleicht sogra ziemlich gut funktionieren kann.
Sicherer und zweifelsohne ratsam ist es, wenn die Menschheit ein gutes Regelwerk und Basis-Weltbild für KI gemeinsam und transparent/öffentlich als Referenz erstellt. Das zu schaffende KI-Weltbild kann alle wichtigen Fakten enthalten und zu Streitthemen kann es auch mehrere parallele Thesen geben (Kapitalismus gut vs. Kapitalismus schlecht). Siehe auch http://www.heise.de/forum/heise-online/News-Kommentare/Kuenstliche-Intelligenz-soll-moralisches-Handeln-lernen-aus-Geschichten/Besser-ein-oeffentliches-gutes-Regelwerk-erstellen-und-es-der-KI-einprogrammieren/posting-24556051/show/
Die KI braucht eine Widerspruchserkennung - im ersten Schritt bringt das Erkennen von Widersprüchen schon sehr viel, im zweiten Schritt muss dann ermittelt werden, welche Thesen mit welcher Wahrscheinlichkeit vermutlich eher wahr/richtig sind.
So und jetzt der Superclou: all das kann man mit einer automatischen Wikipediaerstellung kombinieren, d.h. man baut einen Supercomputer, der in einer großen und vernünftig priorisierten Wikipedia (mit zu einem Thema mehrere Beiträge unterschiedlicher Komplexität) bei der Ermittlung einer guten Wissensbasis mithilft. Siehe auch http://www.heise.de/forum/heise-online/News-Kommentare/15-Jahre-Wikipedia-Die-Unvollendete/Wie-waere-es-mit-einem-Projekt-zur-automatischen-Wikipediaerstellung/posting-24116283/show/
Superwichtig(!!!): das KI-Regelwerk und die KI-Wikipedia muss öffentlich auch in einer für Menschen verständlichen Version vorliegen, also z.B. wie die aktuelle Wikipedia und Lexiaka, siehe auch http://www.heise.de/forum/Telepolis/Kommentare/Wikipedia-Zu-gross-um-zu-ueberleben/Groesse-von-Wikipedia-Gedanken-Hinweise-Wunsch/posting-25461852/show/ Warum? Weil das Gute sich nicht zu verstecken braucht, weil so falsche Informationen/Thesen im Dienste des Bösen auffallen, weil eine gute/korrekte Wissensbasis so superwichtig für korrekte/gute Entscheidungen ist, weil die Menschheit so die KI auch kontrollieren kann und weil eine Open Source Wissensbasis auch zur schnellen Verbreitung führt und somit zu guten KI beiträgt, denn warum sollte jemand mit hohem Aufwand eine schlechte Datenbasis zusammenbasteln, wenn er kostenlos eine erstklassige gute Datenbasis bekommen kann? Das ist eine sehr wichtige Strategie für den Sieg des Guten.
Die KI-Wikipedia kann nicht nur ein wichtiger und geradezu unverzichtbarer Schritt zur KI-Entwicklung sien, die KI-Wikipedia kann auch für Unternehmen und Volkswirtschaft sehr nützlich sein: stellt euch doch nur mal vor, wie nützlich es wäre, wenn ein großes Unternehmen (z.B. VW oder Siemens) all sein Know how übersichtlich in einer großen Wikipedia hätte. Der Clou: das ist nicht nur für Mitarbeiter hilfreich, das ist auch der erste Schritt zu einer Unternehmens-KI, welche beim Forschen und Entwickeln hilft!
2. Neuronale KI (NKI) sind (vermutlich) gefährlich, siehe auch http://www.heise.de/forum/Telepolis/Kommentare/Wer-denkt-dass-wir-im-Notfall-einfach-den-Stecker-ziehen-koennen-der-irrt-sich/neuronale-KI-ist-eine-gefaehrliche-Fehlentwicklung/posting-25618885/show/
NKI können u.U. wie der Mensch böse, selbstsüchtig und verlogen sein. Komplexe NKI sind zudem völlig undurchschaubar. Das ist zweifelsohne wenigstens riskant und zwar auch deswegen, weil NKI aufgrund der bereits sehr leistungsfähigen Hardware trotz ihrere prinzipiellen Unterlegenheit so verlockend sind, weil eine große NKI ggf. durchaus zu beeindruckenden Ergebnissen kommen kann, während eine prinzipiell bessere und überlegne algorithmische KI (AKI) erst mühsam geschaffen werden muss (ggf. können NKI dabei helfen). (alles imho)