Ansicht umschalten
Avatar von Karsten W.
  • Karsten W.

mehr als 1000 Beiträge seit 19.10.2000

Re: Das ist Realität…

luky schrieb am 30. Juli 2009 09:58

> Ich habe diesen Ton nicht angeschlagen. 

Doch. Ich zitiere:

"Hallo?", "Blabla.", "Dir fällt nichts besseres ein".

Als Antwort kam dann von mir "Sofastrategen", was aber auch auf
deinen Satz "Ob das jetzt im konkreten Fall schwierig ist,
interessiert mich weder vom rechtlichen noch vom ethischen Standpunkt
aus." bezogen war. Es ist immer so leicht, von der gemütlichen
Wohnung aus zu reden, wenn anders wo die Kugeln fliegen.

Also bitte erst mal überlegen, ob man sich nicht selbst etwas weit
aus dem Fenster lehnt, bevor man das anderen vorwirft.

> Solange Du diesen Ton beibehältst wirst Du von mir auch entsprechende
> Antworten bekommen.

Das geht unfrankiert zurück an den Absender...

> Mir ging es darum, darauf hinzuweisen, dass die KI-Forschung bei
> weitem noch nicht in der Lage ist, moralische Fragen zu beurteilen.

Stimmt, das kann sie nicht. Aber können das denn Menschen? Was ist
überhaupt "moralisch" und was nicht? Das ist doch ein uraltes Problem
der Menschheit, wo es sehr unterschiedliche Vorstellungen gibt. Wenn
man also von der KI Dinge verlangt, die Menschen nicht hinbekommen,
dann setzt man da IMO zu hohe Schranken.

> Dabei bleibe ich, auch wenn es unter definierten Bedingungen möglich
> ist, definierte Teilaufgaben zu lösen.

Das kann man heute ja auch nicht mehr verneinen, weil es
offensichtlich funktioniert. Darum geht ja aber auch in der aktuellen
KI: Teilaufgaben zu lösen. Das kann also z.B. ein Auto sein, was
selbstständig auf der Autobahn fährt, dabei den Verkehr beobachtet
und Verkehrsschilder liest, im Gegensatz zum Menschen aber weniger
übersieht, schneller reagiert und nicht müde wird. Dafür aber in
seltenen Situation evtl. falsch handelt, wo manche Menschen richtig
gehandelt hätten.

Oder halt ein militärischer Roboter, welcher prinzipiell zwar auch
mal den falschen erschießen kann (wie das normale Soldaten ja
ebenfalls tun - aus welchen Gründen auch immer), dafür aber auch
robuster und reparierbar ist und daher sehr viel höhere Risiken
eingehen kann, was dann dazhu führt, das er sich im Zweifelsfall halt
auch eher erschießen lassen kann, als versehentlich den falschen als
Angreifer zu sehen.

> Deshalb halte ich es für falsch, den Maschinen Verantwortung zu
> übertragen, bzw. Verantwortung auf die Maschine abzuschieben.

Menschen sind es nun mal aber gewohnt, Verantwortung auf andere
Menschen abzuschieben. Am Schluß ist es halt oft niemand gewesen. Man
mag das kritisieren, aber auch hier werden IMO Dinge von Robotern
gefortdert, die Menschen nicht zu leisten in der Lage sind, wodurch
dann u.U. das Nichtnutzen von Vorteilen, die Roboter gegenüber
Menschen haben, mehr Nachteile hätte.

> Ich habe klar geschrieben – muss Dir entgangen sein, jedenfalls
> wolltest Du nicht darauf eingehen, dass das allenfalls ein kleiner
> Anteil der Soldaten ist. 

Das ist mir schon klar. Und ich habe geantwortet, das Roboter dafür
viel eher riskieren können "erschossen" zu werden, eben weil sie eben
keine Überlebenstrieb haben und leichter repariert werden können.

Menschen kann man halt z.B. (noch) keine Extremitäten nachzüchten.
Und auch "einfache" Schußwunden hinterlassen Narben und oft
Einschränkungen für den Rest des Lebens. Und wenn man tot ist, ist
man tot. Daher schießen Soldaten halt in der Realität eher als das
oft wünschenswert ist und daher übersteigen die zivilen Opfer oft die
militärischen.

> ein hervorragendes Besipiel für diesen Aspekt. Natürlich ist da die
> Diskussion über Verantwortung müssig, weil der Mensch die Kontrolle
> behält.

Ja. Allerdings wird es wohl bald tailautonome Systeme geben, bei
denen eben diese Form von Mikormanagement nicht nicht nötig ist. 

Im Artikel geht es ja nun gerade über die Zukunft und wie man KI
gestalten sollte, damit es nicht z.B. zu einem "Terminator-Szenario"
kommt. Ich halte das für eine durchaus relevante Problematik, die man
nicht einfach mit "KI komplett verbieten" oder "KI wird es eh nie
geben" abbügeln kann.

> unterscheidet. Roboter sind nicht schuld- und straffähig. Während man
> fehlbare Menschen vor Gericht verurteilen kann, würden solche
> Versuche bei Maschinen letztlich ins Leere laufen.

Irgendjemand hat diese Maschinen aber instruiert, angelernt und in
den Einsatz geschickt. Letztlich verlagert sich also die
Verantwortung einfach auf diese Personen (Zumindest solange bis
Roboter tatsächlich mal schuld- und straffähig werden). Genauso wie
heute ein Offizier ja auch verantwortlich für das Verhalten seiner
Soldaten ist. Ich sehe da also weder den großen Unterschied noch das
große Problem.

> Es werden noch Milliarden von Forschungsgeldern ausgegeben werden,
> bis ein Roboter den Satz "Gehorche, oder ich schalte Dich aus" als
> existentielle Bedrohung erfahren, 

Braucht er nicht. Er sollte so programmiert sein, das er eben einfach
so gehorcht. Wenn man einem Roboter sowas wirksam androhen kann, dann
ist er wohl schon analog zum Menschen schuldfähig. Vorher ist er
dagegen einfach kontrollierbar.

Wird es Fehlfunktionen von Robotern geben? Natürlich. Flugzeuge
stürzen auch mal wg teschnischer Defekte ab, Autos machen Unfälle
weil ein Reifen platzt, und ein Roboter wird auf Situationen ab und
zu falsch reagieren. Absolute Sicherheit kann einfach nicht das
Kriterium sein, einfach weil es unerfüllbar ist.

> Hier sind wir uns ja beinahe einig, zumindest wenn man das "nicht in
> allen Situationen" etwas deutlicher betont, als Du das würdest.

Hab ich doch mehrfach. Schon beim "Opener" ging es ja darum, das
Menschen wie Maschinen Fehler machen und man daher auch mit einem
gewissen Risiko leben muß. Ich denke halt, das an Maschinen heute oft
deutlich strengere Kriterien angelegt werden als an Menschen und
daher tatsächlich sogar mehr Menschen zu schaden kommen als es durch
auch fehlerbehafteten aber evtl. dann doch seltener fehlenden
Maschinen der Fall wäre.

> ist nach dem aktuellen Stand der Technik nicht möglich, dass eine
> Maschine ein Kind in einer Gefechtssituation zuverlässig genung
> erkennt, um selbständig zu entscheiden, ob die Situation zur
> Anwendung von Gewalt berechtigt oder nicht. Das war meine Aussage,
> dabei bleibe ich.

Ok. Ich sehe das allerdings anders.

> Schon gar nicht während des Anflugs einer Cruise Missile, wie im
> ursprünglich von mir vorgetragenen Beispiel. 

Das ist sicherlich heute noch nicht möglich. Allerdings kann das auch
kein menschlicher Pilot, der gerade eine "smart bomb" abwirft. Wenn
dann so eine Hochzeitsgesellscahft weggebombt wurde, dann auch nicht,
weil der Pilot ein Soziopath war, sondern weil die Situation falsch
eingeschätzt wurde.

> Algorithmen benötigt, die in der Lage sind, Täuschungsmanöver zu
> durchschauen. 

Ein Roboter kann aber z.B. auf Mündungsfeuer achten und nur Personen
angreifen, die eng mit der Position korrellieren. Weil er erstens
schneller und ohne Panik reagieren kann, zweitens evtl. bessere
Sensoren hat und drittens dem Gegner aus den oben beschriebenen
Gründen den "ersten Schuß" lassen kann. 

Das Roboter aber trotzdem Fehler machen können, steht außer Frage. Es
geht aber letztlich nur darum: Wer macht mehr Fehler, Menschen oder
Roboter.

> Ich weiss ja nicht, wie gründlich Du Dich mit der Materie befasst
> hast, 

Ich kenne die Schwierigkeiten und Ansätze. Momentan sind voll
autonome Systeme natürlich noch nicht sinnvoll machbar. Was aber
passieren wird, ist das die momentan recht primitiv ferngelenkten
Systeme schrittweise in den nächsten Jahren immer mehr Eigenautonomie
bekommen werden.

> Unterscheide ein Eishockey-Spiel von einer Massenschlägerei, 

Sagen wir's mal so: Wer zu einem Eishockeyspiel Militärroboter
hinschickt, der dürfte sich dann schnell vor Gericht wiederfinden. 

> ein
> Pfadfinder-Lager von einem Militär-Camp, zivile von militärischen
> Fahrzeugen, eine Blinddarm-OP von einem Folterverhör usw.

Das sind alles Dinge, bei denen momentan niemand auch nur im Traum
daran denkt, das Roboter entscheiden zu lassen. Was passieren wird,
ist eher folgendes: Der Roboter fährt durch ein Kampfgebiet mit
momentaner Ruhe und sucht nach auffälligen Objekten und Personen.
Wenn diese erkannt wurden, sendet er die Bilder ans Hauptquartier und
fragt nach Befehlen (wie das auch eine normale Patroullie aus
Soldaten machen würde, nur das der Roboter halt direkt Videobilder
überträgt). Wir geschossen, dann ist das am Geräusch und am
Mündungsfeuer erkennbar und der Roboter wird u.U. das Feuer gezielt
erwiedern. Gleichzeitig benachrichtigt er das Hauptquartier, welches
dann Verstärkung schickt.

So in etwa dürfte die relativ nahe Zukunft in dem Bereich aussehen.
Von Blinddarm-OPs oder Eishockeyspielen sehe ich da nichts.

Nur mal nebenbei: Ich lasse die ganze Fragestellung inwieweit
militärische Konflikte und Waffen nun allgemein unmoralisch sind und
eh und verboten gehören mal komplett bei Seite, denn das ist wirklich
ein ganz anderes Thema was anderswo genug diskutiert wird.

> Es reicht einfach nicht, etwas unter Labor-Bedingungen zu können.

Sicher. Daher machen DARPA&Co auch Sachen wie die mit den autonom
fahrenden Autos unter möglichst realistischen Bedingungen.

> Jede Interaktion mit Menschen birgt die Gefahr, die Grenzen der
> Programmierung zu überschreiten. 

Wenn dem so ist, dann kann ein Roboter sich aber viel eher leisten
ger nichts zu tun, als ein Mensch, der in solchen Fällen dann wohl in
Panik ausbrechen und völlig unberechenbar sein wird.

... Fortsetzung nächstes Post

Bewerten
- +
Ansicht umschalten