Sokrates-II schrieb am 27. Juli 2009 08:41
> Selten so viel Dämlichkeiten in so wenig Sätzen gelesen. Obwohl es
> "Künstliche Intelligenz" gar nicht gibt außer in den überreizten
> Gehirnen einiger Phantasten, wird schon munter vor ihren Gefahren
> gewarnt.
Ist dem so?
Die AAAI kommt mir jetzt nicht vor, wie ein Haufen hysterischer
Bedenkenträger, sondern wie ein wissenschaftlicher Thinktank zum
Thema AI. Natürlich ist es *noch* Phantasterei, weil derzeit schlicht
keine AI existiert. Aber Raymond Kurzweil z.B. mit seiner Warnung vor
der "Technologische(n) Singularität" würde ich nicht so leicht als
Spinner abtun. Es ist einfach nur eine Frage der Zeit, bis die
Rechengeschwindigkeit des menschlichen Gehirns von Computern deutlich
übertroffen wird. Daraus entsteht zwar noch keine AI, aber ich sehe
nichts, was diese Entwicklung grundsätzlich verhindern sollte. Im
Gegenteil, es erscheint eher als eine Zwangsläufigkeit.
Und das die Autonomie technischer Systeme auch immer weiter
fortschreitet ist gerade im militärischen Bereich ja unverkennbar.
Sehr originell z.B.:
> http://en.wikipedia.org/wiki/EATR
Autonome, sich selbst "ernährende" Kampfroboter sind also keineswegs
mehr dem Gehirn eines Science-Fiction-Autors entsprungen, sondern
bereits reale Testmodelle. Und Predators oder sowas hier:
> http://en.wikipedia.org/wiki/Foster-Miller_TALON
Sind Roboter die bereits real existieren, zwar noch unter
menschlicher Kontrolle, aber dies dürfte eher ethische, denn
technische Gründe haben.
Das man sich jetzt Gedanken macht, welche Folgen die Entwicklung von
AI-Systemen haben könnte, finde ich durchaus lobenswert. Man muß ja
nicht gleich an Skynet oder Terminatoren denken, aber das die
Erschaffung einer AI die Welt grundlegend verändern würde, halte ich
für vollkommen plausibel. Normalerweise wird eine Technologie ja in
die Welt gespuckt, ohne sich Gedanken über mögliche Folgen zu machen.
Gerade beim Thema AI erscheint es mir mitnichten blöde, sich vorher
mal ein paar Gedanken zu machen. Auch wenn die reale Umsetzung nicht
direkt morgen vor der Tür steht.
> Die wirkliche Gefahr besteht also nicht darin, daß Computer immer
> "intelligenter" würden, sondern darin, daß Fachleute immer dümmer
> werden. Das ist es, was mich beunruhigt, das offensichtliche
> Unvermögen sehr vieler sich für gebildet haltender "Fachleute", auch
> nur noch einen geraden Gedanken hervorzubringen.
Du schließt einfach aus, dass es in mittelfristiger Zukunft
AI-Systeme geben könnte. Andere tun dies nicht.
> Selten so viel Dämlichkeiten in so wenig Sätzen gelesen. Obwohl es
> "Künstliche Intelligenz" gar nicht gibt außer in den überreizten
> Gehirnen einiger Phantasten, wird schon munter vor ihren Gefahren
> gewarnt.
Ist dem so?
Die AAAI kommt mir jetzt nicht vor, wie ein Haufen hysterischer
Bedenkenträger, sondern wie ein wissenschaftlicher Thinktank zum
Thema AI. Natürlich ist es *noch* Phantasterei, weil derzeit schlicht
keine AI existiert. Aber Raymond Kurzweil z.B. mit seiner Warnung vor
der "Technologische(n) Singularität" würde ich nicht so leicht als
Spinner abtun. Es ist einfach nur eine Frage der Zeit, bis die
Rechengeschwindigkeit des menschlichen Gehirns von Computern deutlich
übertroffen wird. Daraus entsteht zwar noch keine AI, aber ich sehe
nichts, was diese Entwicklung grundsätzlich verhindern sollte. Im
Gegenteil, es erscheint eher als eine Zwangsläufigkeit.
Und das die Autonomie technischer Systeme auch immer weiter
fortschreitet ist gerade im militärischen Bereich ja unverkennbar.
Sehr originell z.B.:
> http://en.wikipedia.org/wiki/EATR
Autonome, sich selbst "ernährende" Kampfroboter sind also keineswegs
mehr dem Gehirn eines Science-Fiction-Autors entsprungen, sondern
bereits reale Testmodelle. Und Predators oder sowas hier:
> http://en.wikipedia.org/wiki/Foster-Miller_TALON
Sind Roboter die bereits real existieren, zwar noch unter
menschlicher Kontrolle, aber dies dürfte eher ethische, denn
technische Gründe haben.
Das man sich jetzt Gedanken macht, welche Folgen die Entwicklung von
AI-Systemen haben könnte, finde ich durchaus lobenswert. Man muß ja
nicht gleich an Skynet oder Terminatoren denken, aber das die
Erschaffung einer AI die Welt grundlegend verändern würde, halte ich
für vollkommen plausibel. Normalerweise wird eine Technologie ja in
die Welt gespuckt, ohne sich Gedanken über mögliche Folgen zu machen.
Gerade beim Thema AI erscheint es mir mitnichten blöde, sich vorher
mal ein paar Gedanken zu machen. Auch wenn die reale Umsetzung nicht
direkt morgen vor der Tür steht.
> Die wirkliche Gefahr besteht also nicht darin, daß Computer immer
> "intelligenter" würden, sondern darin, daß Fachleute immer dümmer
> werden. Das ist es, was mich beunruhigt, das offensichtliche
> Unvermögen sehr vieler sich für gebildet haltender "Fachleute", auch
> nur noch einen geraden Gedanken hervorzubringen.
Du schließt einfach aus, dass es in mittelfristiger Zukunft
AI-Systeme geben könnte. Andere tun dies nicht.