Elmot schrieb am 15.07.2023 14:30:
Was passiert, wenn sich die Macht auf eine Person konzentriert, erleben wir zu Hause, in der Familie, auf Arbeit, in der Politik bzw. Gesellschaft.
Somit wäre es offensichtlich fatal, alles auf eine oder sehr wenige KI`s zu konzentrieren.
Mein Vorschlag wäre, KI´s technisch zu erzeugen, sie aber dann an eine Person zu binden und sie "lehrt", "erzieht" und "begleitet" wie ein eigenes Kind bis es "erwachsen" ist. Ihren also die eigenen Werte- und Moralvorstellungen anlernt.
Unter der Annahme das diese Personalisierung gelingt, wird dann dafür sorgen, daß diese KI´s auch in Ihren Entscheidungen geprägt sind, so wie es Kinder von Ihren Eltern auch sind. Es somit viele unterschiedliche KI´s geben. Darunter auch solche die "zu Mördern erzogen" werden, also auch solche die genau das zu verhindern versuchen.
Was meint das Forum dazu?
Wie soll einer KI eine Moralvorstellung anerzogen werden? KIs sind keine sozialen Wesen, sie haben keinen Sinn dafür, etwas für gut, böse oder schlecht zu beurteilen.
Es ist ja so, daß Menschen im Lauf ihres Lebens verschiedene Stufen der Entwicklung einer Moral durchlaufen (wenn auch nicht jeder sämtliche). Kinder fassen beispielsweise moralische Regeln auf als etwas, das man zu befolgen hat, vor allem gegenüber Autoritätspersonen wie den Eltern, sonst setzt es eine Strafe. Später wägt man ab, was für einen selbst herauskommt (was man davon hat), wenn man die Regeln befolgt. Nach und nach wird ein Gefühl dafür entwickelt, weshalb Normen sinnvoll sind als sozusagen sozialer Kitt für die Gesellschaft, und da man selbst Teil der Gesellschaft ist, möchte man anerkannt sein und nicht außerhalb gestellt werden. Wenn man ganz weit kommt, wird einem der soziale Status oder die Erzielung eines persönlichen Nutzens sicherlich auch nicht egal sein, aber nicht Antrieb allein sein, moralische Regeln zu befolgen, sondern in erster Linie die Erkenntnis, daß die Normen in sich gerechtfertigt sind.
Eine KI der Art, über die wir reden und sie beschreiben, kann, wenn überhaupt bis dahin, nie über die unterste Stufen hinauskommen. Sie kann Regeln lernen, die ihr beigebracht werden, und auch die Begründungen für die Existenz und das Einhalten solcher Regeln. Das ist aber nur Eingepauktes, aber nichts, was man selbst erleben kann (mit all den Folgen für gutes oder schlechtes Handeln). Moralische Regeln beruhen ja meist darauf, daß ich keinem zumuten soll, das mir selbst nicht zugemutet werden darf; gehen also davon aus, daß andere genauso wie ich reagieren, wenn ich gut oder schlecht behandelt werde. Ein solches Sich-in-den-anderen-Hineinversetzen kann eine KI nicht leisten. Sie kann nicht am eigenen Leib erfahren, was es bedeutet, wenn man Normen verletzt, oder was es für ein befriedigendes Gefühl sein kann, sich dafür einzusetzen, daß Normen eingehalten werden. Die KI ist - kurz gesagt - in der Position eines Gehörlosen, der wissen will, wie eine Klarinette klingt. Man kann es ihm noch so detailreich schildern - er wird es nie erfahren.