Jede AI macht nur das, für das sie programmiert wurde.
Damit ist auch die Einhaltung von Regeln und die Zielsetzung ihrer Operationen nur vom Programmierer festgelegt.
Und das, ohne wirklich Kontrolle, weil die Algorthmen heute so umfangreich und kompliziert sind, das man erst nach sehr langen und sehr umfangreichen Tests Probleme erkennt.
Wer also glaubt, AI sei "humaner" oder entspräche sonst irgendeiner verträumten Idealvorstellung, irrt. Er ist in einem Glauben verhaftet.
Die Entwicklung wird aber trotzdem unaufhaltsam sein, ebenso wie alle chemisch-biologischen Entwicklungen. Immer abhängig von der Ethik der daran Arbeitenden.
Am Ende jeder Verantwortung steht immer ein Mensch, solange wir keine selbstprogrammierende AI haben (kommt auch noch, aber ob das besser wird? Oder ob wir dann HAL haben?)
Das Posting wurde vom Benutzer editiert (18.10.2019 22:05).