Karsten W. schrieb am 29. Juli 2009 14:49
> Wieder einmal nur persönliche Angriffe gegen meine Person, ohne meine
> Argumentation auch nur anzusprechen.
Ich habe diesen Ton nicht angeschlagen. Wenn Du gerne höfliche
Antworten kriegst, solltest Du das mE. selber noch etwas üben.
Solange Du diesen Ton beibehältst wirst Du von mir auch entsprechende
Antworten bekommen.
Dass die Bemerkung mit den "Sofastrategen die Welt erklären"
unpassend war, ist nicht nur mir aufgefallen – Dir anscheinend nicht.
Also beklag Dich nicht! Aber vielleicht sind wir wirklich nur
unglücklich kollidiert…
Mir ging es darum, darauf hinzuweisen, dass die KI-Forschung bei
weitem noch nicht in der Lage ist, moralische Fragen zu beurteilen.
Dabei bleibe ich, auch wenn es unter definierten Bedingungen möglich
ist, definierte Teilaufgaben zu lösen.
Deshalb halte ich es für falsch, den Maschinen Verantwortung zu
übertragen, bzw. Verantwortung auf die Maschine abzuschieben.
> > Und ich habe mir jetzt wirklich Mühe gegeben, Dir diesen Umstand zu
> > erklären,
> Also das ich ein Idiot bin. Und du wunderst dich, das ich diese Art
> zu argumentieren nicht wirklich überzeugend finde?
Nein. Ich habe es offen gelassen, ob Du aus Doofheit oder anderen
Beweggründen nicht auf meine Erklärungen eingehst, selber aber
forderst, dass man auf Deine Argumente unbedingt eingehen müsse,
obwohl ich darauf mE. schon geantwortet habe:
> Ich hatte klar über das Thema geschrieben:
Ja. Du hättest auch mal lesen sollen, was ich geschrieben habe.
> - Soldaten handeln de facto in Konflikten unmoralisch. Zum Teil zu
> Selbsterhaltung ("erst schießen, dann fragen") zum Teil aus anderen
> Gründen (Soziopathie, Machtmißbrauch etc).
Ich habe klar geschrieben – muss Dir entgangen sein, jedenfalls
wolltest Du nicht darauf eingehen, dass das allenfalls ein kleiner
Anteil der Soldaten ist.
Wenn Du wirklich, wie es für mich den Anschein machst, in die
Richtung argumentierst, dass Roboter geeignet wären, weil sie besser
als die allerschlimmsten Auswüchse menschlicher Unmenschlichkeit
wären, dann hast Du im Einzelfall recht, aber es hat mE. keine
Konsequenzen, weil 95% der Menschen eben nicht in diese Kategorie
gehören.
> - Roboter sind ersetzbar und können daher ein höheres Risko eingehen,
> während Soldaten aus ihrem Selbsterhaltungstrieb eher zu früh
> schießen.
Ja. Die ferngesteuerten Entschärfungs-Roboter der Polizei sind mE.
ein hervorragendes Besipiel für diesen Aspekt. Natürlich ist da die
Diskussion über Verantwortung müssig, weil der Mensch die Kontrolle
behält.
Von einem moralischen Standpunkt betrachtet ist natürlich genau
dieser fehlende Selbsterhaltungstrieb der Machinen von Menschen
unterscheidet. Roboter sind nicht schuld- und straffähig. Während man
fehlbare Menschen vor Gericht verurteilen kann, würden solche
Versuche bei Maschinen letztlich ins Leere laufen.
Es werden noch Milliarden von Forschungsgeldern ausgegeben werden,
bis ein Roboter den Satz "Gehorche, oder ich schalte Dich aus" als
existentielle Bedrohung erfahren, und "menschlich" darauf reagieren
wird. Ganz zu schweigen von dem Problem, in besagtem Satz allfälllige
Ironie zu erkennen.
> - Roboter können aufgrund moderner Sensorik (z.B.
> Lidar-Entfernungsmessung in Kombination mit Kameras) durchaus Kinder
> erkennen. Nicht in allen Situationen, aber die Technik ist ja auch
> noch längst nicht am Ende.
Hier sind wir uns ja beinahe einig, zumindest wenn man das "nicht in
allen Situationen" etwas deutlicher betont, als Du das würdest. Es
ist nach dem aktuellen Stand der Technik nicht möglich, dass eine
Maschine ein Kind in einer Gefechtssituation zuverlässig genung
erkennt, um selbständig zu entscheiden, ob die Situation zur
Anwendung von Gewalt berechtigt oder nicht. Das war meine Aussage,
dabei bleibe ich.
Schon gar nicht während des Anflugs einer Cruise Missile, wie im
ursprünglich von mir vorgetragenen Beispiel. Es werden ja auch
Algorithmen benötigt, die in der Lage sind, Täuschungsmanöver zu
durchschauen. Und es dreht sich ja nicht nur um diesen Einzelfall
"Kind".
Ich weiss ja nicht, wie gründlich Du Dich mit der Materie befasst
hast, aber ich kann Dir eine ganze Reihe von Beispielen heranziehen,
die eine Maschine unterscheiden können müsste – sofern sie ohne
menschliche Aufsicht eingesetzt werden sollte. Und jedes davon
erfordert einen gewaltigen Programmier- und Rechenaufwand:
Unterscheide ein Eishockey-Spiel von einer Massenschlägerei, ein
Pfadfinder-Lager von einem Militär-Camp, zivile von militärischen
Fahrzeugen, eine Blinddarm-OP von einem Folterverhör usw.
Es reicht einfach nicht, etwas unter Labor-Bedingungen zu können.
Jede Interaktion mit Menschen birgt die Gefahr, die Grenzen der
Programmierung zu überschreiten. Ob wir in den nächsten 10 bis 20
Jahren so weit sein werden, wird sich mE. zeigen, aber meiner Meinung
nach wird die KI immer noch gründlich überschätzt.
> Dein einziges Gegenargument dagegen war "phantasterei". Es dürfte
> dich also nicht wundern, wenn ich dieses Argument nicht wirklich
> ernst nehmen kann, oder?
Ich hoffe, ich habe jetzt deutlicher gemacht, wieso ich Deine
Einschätzung der technischen Möglichkeiten für unrealistisch halte.
Wenn Du ohne deutlich bessere Argumente dabei bleiben willst, sehe
ich keinen Anlass, meine Einschätzung zu revidieren.
Meine eigentliche Aussage war – falls das das Problem gewesen sein
sollte – keinesfalls Technik-feindlich gedacht. Sie richtete sich
gegen den Versuch, die Verantwortung für das "Böse" auf Maschinen
abzuschieben.
Also weiter forschen, nicht zu hohe Erwartungen hegen und sich
bewusst sein, dass die Verantwortung bei den Menschen, nicht bei den
Maschinen liegt.
> Wieder einmal nur persönliche Angriffe gegen meine Person, ohne meine
> Argumentation auch nur anzusprechen.
Ich habe diesen Ton nicht angeschlagen. Wenn Du gerne höfliche
Antworten kriegst, solltest Du das mE. selber noch etwas üben.
Solange Du diesen Ton beibehältst wirst Du von mir auch entsprechende
Antworten bekommen.
Dass die Bemerkung mit den "Sofastrategen die Welt erklären"
unpassend war, ist nicht nur mir aufgefallen – Dir anscheinend nicht.
Also beklag Dich nicht! Aber vielleicht sind wir wirklich nur
unglücklich kollidiert…
Mir ging es darum, darauf hinzuweisen, dass die KI-Forschung bei
weitem noch nicht in der Lage ist, moralische Fragen zu beurteilen.
Dabei bleibe ich, auch wenn es unter definierten Bedingungen möglich
ist, definierte Teilaufgaben zu lösen.
Deshalb halte ich es für falsch, den Maschinen Verantwortung zu
übertragen, bzw. Verantwortung auf die Maschine abzuschieben.
> > Und ich habe mir jetzt wirklich Mühe gegeben, Dir diesen Umstand zu
> > erklären,
> Also das ich ein Idiot bin. Und du wunderst dich, das ich diese Art
> zu argumentieren nicht wirklich überzeugend finde?
Nein. Ich habe es offen gelassen, ob Du aus Doofheit oder anderen
Beweggründen nicht auf meine Erklärungen eingehst, selber aber
forderst, dass man auf Deine Argumente unbedingt eingehen müsse,
obwohl ich darauf mE. schon geantwortet habe:
> Ich hatte klar über das Thema geschrieben:
Ja. Du hättest auch mal lesen sollen, was ich geschrieben habe.
> - Soldaten handeln de facto in Konflikten unmoralisch. Zum Teil zu
> Selbsterhaltung ("erst schießen, dann fragen") zum Teil aus anderen
> Gründen (Soziopathie, Machtmißbrauch etc).
Ich habe klar geschrieben – muss Dir entgangen sein, jedenfalls
wolltest Du nicht darauf eingehen, dass das allenfalls ein kleiner
Anteil der Soldaten ist.
Wenn Du wirklich, wie es für mich den Anschein machst, in die
Richtung argumentierst, dass Roboter geeignet wären, weil sie besser
als die allerschlimmsten Auswüchse menschlicher Unmenschlichkeit
wären, dann hast Du im Einzelfall recht, aber es hat mE. keine
Konsequenzen, weil 95% der Menschen eben nicht in diese Kategorie
gehören.
> - Roboter sind ersetzbar und können daher ein höheres Risko eingehen,
> während Soldaten aus ihrem Selbsterhaltungstrieb eher zu früh
> schießen.
Ja. Die ferngesteuerten Entschärfungs-Roboter der Polizei sind mE.
ein hervorragendes Besipiel für diesen Aspekt. Natürlich ist da die
Diskussion über Verantwortung müssig, weil der Mensch die Kontrolle
behält.
Von einem moralischen Standpunkt betrachtet ist natürlich genau
dieser fehlende Selbsterhaltungstrieb der Machinen von Menschen
unterscheidet. Roboter sind nicht schuld- und straffähig. Während man
fehlbare Menschen vor Gericht verurteilen kann, würden solche
Versuche bei Maschinen letztlich ins Leere laufen.
Es werden noch Milliarden von Forschungsgeldern ausgegeben werden,
bis ein Roboter den Satz "Gehorche, oder ich schalte Dich aus" als
existentielle Bedrohung erfahren, und "menschlich" darauf reagieren
wird. Ganz zu schweigen von dem Problem, in besagtem Satz allfälllige
Ironie zu erkennen.
> - Roboter können aufgrund moderner Sensorik (z.B.
> Lidar-Entfernungsmessung in Kombination mit Kameras) durchaus Kinder
> erkennen. Nicht in allen Situationen, aber die Technik ist ja auch
> noch längst nicht am Ende.
Hier sind wir uns ja beinahe einig, zumindest wenn man das "nicht in
allen Situationen" etwas deutlicher betont, als Du das würdest. Es
ist nach dem aktuellen Stand der Technik nicht möglich, dass eine
Maschine ein Kind in einer Gefechtssituation zuverlässig genung
erkennt, um selbständig zu entscheiden, ob die Situation zur
Anwendung von Gewalt berechtigt oder nicht. Das war meine Aussage,
dabei bleibe ich.
Schon gar nicht während des Anflugs einer Cruise Missile, wie im
ursprünglich von mir vorgetragenen Beispiel. Es werden ja auch
Algorithmen benötigt, die in der Lage sind, Täuschungsmanöver zu
durchschauen. Und es dreht sich ja nicht nur um diesen Einzelfall
"Kind".
Ich weiss ja nicht, wie gründlich Du Dich mit der Materie befasst
hast, aber ich kann Dir eine ganze Reihe von Beispielen heranziehen,
die eine Maschine unterscheiden können müsste – sofern sie ohne
menschliche Aufsicht eingesetzt werden sollte. Und jedes davon
erfordert einen gewaltigen Programmier- und Rechenaufwand:
Unterscheide ein Eishockey-Spiel von einer Massenschlägerei, ein
Pfadfinder-Lager von einem Militär-Camp, zivile von militärischen
Fahrzeugen, eine Blinddarm-OP von einem Folterverhör usw.
Es reicht einfach nicht, etwas unter Labor-Bedingungen zu können.
Jede Interaktion mit Menschen birgt die Gefahr, die Grenzen der
Programmierung zu überschreiten. Ob wir in den nächsten 10 bis 20
Jahren so weit sein werden, wird sich mE. zeigen, aber meiner Meinung
nach wird die KI immer noch gründlich überschätzt.
> Dein einziges Gegenargument dagegen war "phantasterei". Es dürfte
> dich also nicht wundern, wenn ich dieses Argument nicht wirklich
> ernst nehmen kann, oder?
Ich hoffe, ich habe jetzt deutlicher gemacht, wieso ich Deine
Einschätzung der technischen Möglichkeiten für unrealistisch halte.
Wenn Du ohne deutlich bessere Argumente dabei bleiben willst, sehe
ich keinen Anlass, meine Einschätzung zu revidieren.
Meine eigentliche Aussage war – falls das das Problem gewesen sein
sollte – keinesfalls Technik-feindlich gedacht. Sie richtete sich
gegen den Versuch, die Verantwortung für das "Böse" auf Maschinen
abzuschieben.
Also weiter forschen, nicht zu hohe Erwartungen hegen und sich
bewusst sein, dass die Verantwortung bei den Menschen, nicht bei den
Maschinen liegt.