luky schrieb am 31. Juli 2009 11:49
> Standpunkt, wie sie sein sollte und einmal von einem realistischen
> Standpunkt, wie sie jetzt ist.
Möglich. Bei der allgemeinen Diskussion um die Weiterentwicklung von
Technik, KI, Roboter usw. ist es natürlich so, das viel über
zukünftige Entwicklungen nachgedacht wird - was ja auch sinnvoll ist,
will man vermeiden, das einen das völlig unvorbereitet trifft.
Es gibt halt Leute (wie z.B. die hier: http://singinst.org/, ist aber
nur eine Gruppe von mehreren), die darüber nachdenken, lange bevor es
echte KI gibt. Nun mag man die belächeln, verspotten, für
technikgeile Geeks halten usw., aber bisher hab ich auch noch kein
überzeugendes Argument gehört (welches also nicht unbelegbare
metaphysische Vorstellungen bemüht), was gegen die Entwicklung
"starker" KI spricht. Eine solche "starke KI" wird nun aber von
Menschen gemacht - und daher haben Menschen wahrscheinlich auch sehr
viel Einfluß darauf, wie diese KI später handeln wird: (in unserem
Sinne) Moralisch oder unmoralisch.
> Ich war aber wirklich fixiert, auf die selbständig denkenden Roboter
> à la Asimov.
Die gibt es natürlich noch für einige Zeit nicht. Ich persönlich
halte die zwar für machbar (evtl. auch noch in meiner Lebenszeit),
aber das ist natürlich Spekulation.
Was es aber natürlich gibt, sind immer bessere spezialisiert
intelligente Systeme, denen man auch immer mehr "Verantwortung" geben
wird, weil mehr "Intelligenz" mehr Autonomie und damit auch letztlich
etwas wie "Verantwortung" bedingt.
"Verantwortung" ist aber nun ein recht breiter Begriff, man gibt ja
z.T. auch kleinen Kindern schon mal ein wenig Verantwortung, selbst
wenn diese ja eigentlich unmündig ist. Analog gibt dann ein Pilot in
seinem Flugzeug ein wenig Verantwortung an den Autopilot oder andere
technische Systeme ab.
Und das wird halt kontinuiertlich zunehmen (wobei ich da aber eben
auch eine Menge Vorteile sehe).
Was z.B. viele nicht wissen ist, das heute schon weltweit etwa die
Hälfte aller Börsentransaktionen (in den USA abgeblich sogar schon
80%) von spezialisierten KI-Systemen gemacht werden. Da geben dann
halt die Händler Verantwortung für riesige Summen Geld ab. Und das
verzwickte ist ja, das diese Systeme oft schon nicht mehr nach festen
Regeln funktionieren, sondern permanent lernen und sich anpassen.
Wenn die also falsch entscheiden, wer trägt dann letztlich wirklich
die Verantwortung?
Spannendes Thema. Leider aber in D kaum diskutiertbar, weil hier die
meisten den Kopf in den Sand stecken.
> Dass also nicht mehr der Hersteller, sondern die
> Maschine selbst (wichtig!) sich für allfälliges Fehlverhalten
> rechtfertigen müsste. ^^
Das bedingt aber halt die Möglichkeit überhaupt anders handeln zu
können. Ein Autopilot der nach sehr engen Regeln arbeitet kann man ja
nur "bestrafen" (in dem Falle also demontieren bzw. löschen), wenn er
diese Regeln bricht.
Das führt dann bei immer intelligenteren und komplexeren Systemen
allerdings schnurstracks zum Problem des "freien Willens" und der
Strafmündigkeit. Denn auch bei Menschen kann man ja argumentieren,
das diese gar keinen freien Willen haben und ihre "Schandtaten" z.B.
gesellschaftliche Ursachen habe.
Wo da nun also die Grenze ist, wo also Strafmündigkeit beginnt und wo
die Verantwortung ("Eltern haften für ihre Kinder") beim Konstrukteur
oder Benutzer liegt, das wird irgendwann nicht mehr einfach zu
entscheiden sein. Bis da es aber noch einige Zeit hin.
> Das wiederum halte ich wie gesagt für eine Utopie, jedenfalls für die
> nächsten 20 Jahre
Da stimmte ich dir zu.
> Schönes WE.
Wünsch ich dir ebenfalls.
> Standpunkt, wie sie sein sollte und einmal von einem realistischen
> Standpunkt, wie sie jetzt ist.
Möglich. Bei der allgemeinen Diskussion um die Weiterentwicklung von
Technik, KI, Roboter usw. ist es natürlich so, das viel über
zukünftige Entwicklungen nachgedacht wird - was ja auch sinnvoll ist,
will man vermeiden, das einen das völlig unvorbereitet trifft.
Es gibt halt Leute (wie z.B. die hier: http://singinst.org/, ist aber
nur eine Gruppe von mehreren), die darüber nachdenken, lange bevor es
echte KI gibt. Nun mag man die belächeln, verspotten, für
technikgeile Geeks halten usw., aber bisher hab ich auch noch kein
überzeugendes Argument gehört (welches also nicht unbelegbare
metaphysische Vorstellungen bemüht), was gegen die Entwicklung
"starker" KI spricht. Eine solche "starke KI" wird nun aber von
Menschen gemacht - und daher haben Menschen wahrscheinlich auch sehr
viel Einfluß darauf, wie diese KI später handeln wird: (in unserem
Sinne) Moralisch oder unmoralisch.
> Ich war aber wirklich fixiert, auf die selbständig denkenden Roboter
> à la Asimov.
Die gibt es natürlich noch für einige Zeit nicht. Ich persönlich
halte die zwar für machbar (evtl. auch noch in meiner Lebenszeit),
aber das ist natürlich Spekulation.
Was es aber natürlich gibt, sind immer bessere spezialisiert
intelligente Systeme, denen man auch immer mehr "Verantwortung" geben
wird, weil mehr "Intelligenz" mehr Autonomie und damit auch letztlich
etwas wie "Verantwortung" bedingt.
"Verantwortung" ist aber nun ein recht breiter Begriff, man gibt ja
z.T. auch kleinen Kindern schon mal ein wenig Verantwortung, selbst
wenn diese ja eigentlich unmündig ist. Analog gibt dann ein Pilot in
seinem Flugzeug ein wenig Verantwortung an den Autopilot oder andere
technische Systeme ab.
Und das wird halt kontinuiertlich zunehmen (wobei ich da aber eben
auch eine Menge Vorteile sehe).
Was z.B. viele nicht wissen ist, das heute schon weltweit etwa die
Hälfte aller Börsentransaktionen (in den USA abgeblich sogar schon
80%) von spezialisierten KI-Systemen gemacht werden. Da geben dann
halt die Händler Verantwortung für riesige Summen Geld ab. Und das
verzwickte ist ja, das diese Systeme oft schon nicht mehr nach festen
Regeln funktionieren, sondern permanent lernen und sich anpassen.
Wenn die also falsch entscheiden, wer trägt dann letztlich wirklich
die Verantwortung?
Spannendes Thema. Leider aber in D kaum diskutiertbar, weil hier die
meisten den Kopf in den Sand stecken.
> Dass also nicht mehr der Hersteller, sondern die
> Maschine selbst (wichtig!) sich für allfälliges Fehlverhalten
> rechtfertigen müsste. ^^
Das bedingt aber halt die Möglichkeit überhaupt anders handeln zu
können. Ein Autopilot der nach sehr engen Regeln arbeitet kann man ja
nur "bestrafen" (in dem Falle also demontieren bzw. löschen), wenn er
diese Regeln bricht.
Das führt dann bei immer intelligenteren und komplexeren Systemen
allerdings schnurstracks zum Problem des "freien Willens" und der
Strafmündigkeit. Denn auch bei Menschen kann man ja argumentieren,
das diese gar keinen freien Willen haben und ihre "Schandtaten" z.B.
gesellschaftliche Ursachen habe.
Wo da nun also die Grenze ist, wo also Strafmündigkeit beginnt und wo
die Verantwortung ("Eltern haften für ihre Kinder") beim Konstrukteur
oder Benutzer liegt, das wird irgendwann nicht mehr einfach zu
entscheiden sein. Bis da es aber noch einige Zeit hin.
> Das wiederum halte ich wie gesagt für eine Utopie, jedenfalls für die
> nächsten 20 Jahre
Da stimmte ich dir zu.
> Schönes WE.
Wünsch ich dir ebenfalls.