Ansicht umschalten
Avatar von Karsten W.
  • Karsten W.

mehr als 1000 Beiträge seit 19.10.2000

Re: Kleines Gedankenexperiment

sadran schrieb am 29. Juli 2009 20:45

> Exakt. Ich persönlich glaube an vollständig irrationale
> Entscheidungen, die von keinerlei Vorbedingungen bestimmt ist.

Tja, wenn du das halt glaubst, dann glaubst du das halt.

> Selbstverständlich sind häufig die rationalen Entscheidungen die
> besseren.

Auch Intuition ist IMO zwar deterministisch trotzdem aber nicht
rational.

> Auch richtig. Von daher bin ich auch überzeugt, daß die wirklich
> freien Entscheidungen im Leben sehr selten sind.

Die Frage ist, wie du darauf kommst, das es sie dann gibt. Bzw. wie
du jemals feststellen willst, ob eine Entscheidung nun "frei" war
oder nicht. Ich halte meine Definition für Freiheit deshalb weitaus
praktischer, einfach weil sie handfest, überprüfbar und relevant ist.

> "Per Zufall". Ist hier für mich nicht mit der Entscheidung eines
> Würfels zu vergleichen. 

Womit dann dann? (ich sprecht hier von einem "echt
indeterministischen Würfel, also z.B. auf der Basis von
Quantenrauschen, so das denn wirklich indeterministisch wäre)

Es gibt doch nur die Möglichkeiten, das man eine Entscheidung auf der
Basis von irgendwelchen Fakten trifft (dann ist sie IYO aber nicht
frei), oder das sie völlig beliebig (also '"ausgewürftelt"). Mir
fällt beim besten Willen keine weitere Möglichkeit ein.

> Das Ergebniss des würfelns in einem
> vollkommen determinstischen System übrigens auch vorhersagbar 

Das ist mir schon klar, daher auch die "".

> eines der beiden Lösungsmöglichkeiten auswählt. Genau hier passiert
> eine völlig, irrationale Entscheidung, 

Die allerdings vom Zufall abhängt - und damit wieder nicht frei ist
(eben weil sie ja von etwas *abhängt*).

Wenn Freiheit für dich einfach nur Zufall ist, warum nennst du das
dann "Freiheit" und nicht einfach "Zufall"?

> die du von außen nicht erklären kannst.

Das ist die Frage. Es gibt ja inzwischen haufenweise Untersuchtungen,
die zeigen, das Probanten zwar denken, frei zu entscheiden, das die
Entscheidung in ihmrem Gehirn aber schon deutlich früher festgelegt
wurde als sie das bewußt wahrgenommen haben.

> Lösungsmöglichkeiten völlig gleich zu bewerten. Der Mensch ist
> dennoch in der Lage bei völlig identischer Ausgangssituation

Die gibt es nicht. Auch deterministisches Chaos ist nach einer
gewissen Zeit prinzipiell nicht mehr vorhersehbar, selbst wenn es
eigentlich determinstisch ist.

> Sorry, sehe ich anders. Die Leistungsfähigkeit von Desktop-PC
> verläuft eben nicht mehr exponential, wenn du dir mal neuere
> Statistiken hierzu anschauen würdest.

Nenn mir mal welche, die dagegen sprechen. Ich kenne keine, im
Gegenteil hat die Entwicklung sogar einen Sprung gemacht, der
momentan klar vor einfach exponentiellem Wachstum liegt. Denk aber
daran, dich auf Gesammtsysteme zu beziehen und nicht nur z.b. auf den
Prozessor. 

Entwicklung läuft natürlich auch nicht perfekt exponentiell. Mal
hinkt sie ein paar Jahre hinterher, mal geht sie deutlich schneller.
Es geht hier um die grobe Kurve.

> Es gibt auch in der Physik thereoretische Grenzen, die man nicht
> brechen kann. 

Die frage ist nur, was für welche das sind.

> So sagt z.B. die Relativitätsheorie aus, daß man
> Materie nicht auf Lichtgeschwindigkeit beschleunigen kann.

Dafür sagt die Relativitätsheorie dann wieder, das man prinzipiell
z.B. Wurmlöcher oder einen "Warpantrieb" bauen kann, der das umgeht.

> Bei Computern wird man nicht unterhalb von Quanten rechnen können.

Und was bedeutet das konkret? Molekulare Nanotechnologie würde es
erlauben einen PFlop-Rechner mit Speicher im PByte-Bereich in cm^3
Bereich zu zu realisieren. Mit Femtotechnologie wäre das sogar im
Bereich von um^3 möglich.

> Es gibt Grenzen, die sind auch in der Physik nicht aushebel bar.

Ja. Aber niemand kennt die. Und selbst die bekannten liegen teils so
hoch, das da noch sehr viel Luft nach oben ist.

> Genau: Was mag bei Software verdopplung heißen? Ich würde sagen die
> Programmierung in einem Single-Thread ist die bisherige Methode.

Multi-Threading ist nicht wirklich neu, sondern vor allem
kompliziert. Daher hat man bisher drauf verzichtet, wo es nicht
unbedingt nötig war.

> Damit hat die Software-Entwicklung seit vielleicht 50 Jahren ihre
> aller ersten Sprung der Entwicklung. 

Das ist doch recht willkürtlich gedacht. Besser wäre z.B. ein Metrik
wie "Zeilen pro Programm" oder "Codepoints pro Programm". Das wächst
nämlich kontinuierlich. 

> Bei einem Programm im herkömmlichen Sinne sage ich dazu niemals nie.

Dann ist ja gut. Klang vorher aber anders.

> einem intelligenten Menschen mußt du nicht alles bis ins Detail
> beschreiben, wie einem Compiler. 

Auch das ist Ansichtssache. In Assembler muß man z.B. beschreiben,
welche Register welche Daten aufnehmen, wann und wie man das umlädt
usw. In Hochsprachen ist das nicht mehr nötig, diese Details erledigt
der Compiler. Ebenso muß man in Assembler z.B. die
Operatorenreihenfolge optimal auswählen um den Prozessor optimal
auszulasten. Heutige Compiler erledingen auch das. Usw. usf. Ein
Compiler erledingt heute tatsächlich sehr viele Details, die früher
der Programmierer erledigen mußte. Was ist Intelligenz, wenn nicht
sowas?

> Hier besteht dazu auch kein Zwang,
> du kannst davon ausgehen, daß er deine Anweisungen interpretieren
> wird und um fehlende Informationen selbständig erweitert. 

Das können Programme heute auch. Sie machen da natürlich Fehler. Aber
das gilt auch für Menschen. In dieser Diskussion mißverstehen wir uns
z.B. gegenseitig auch ab und zu. Und wir sind "die Krone der
Schöpfung" bzw. zumindest das intelligenteste, was auf diesem
Planeten rumläuft.

> Ein
> Compiler (oder was auch immer ein neues herkömmliche Programm
> erzeugt) wird das niemals !automatisch! können. Im mußt du selber
> wiederum beschreiben, wie er und wo er sich fehlende Informationen
> besorgen kann.

Kommt drauf an, auf welchem Level man das sieht. Natürlich sind
Menschen intelligenter als Compiler. Aber was ist z.B. mit einer
Katze oder einem Schimpansen? Und auch Menschen werden ja bzgl.
Geistesleistungen von Rechnern immer öfter abgehängt. Spiel z.B. mal
gegen ein gutes Schachprogramm. Großmeister haben manchen Zügen
solcher Programme sogar schon "Genialität" bescheinigt.

> oh man... du bist ein echter Haarspalter. 

Wieso? Ich sprach von VMs und da sind JIT-Compiler schon seit
Jahrzehnten üblich.

> Just-in-time-Kompilierung
> ist also eine Mischung aus Interpreter und Compiler.

Ja. Es sind aber ebenso echte Compiler wie herkömmliche Compiler. Der
Unterschied ist allerdings, das sie lernen, wie ein Programm konkret
benutzt wird und das in die Optimierung einfließen lassen. Daher ist
vorher nicht absehbar ("indeterminiert"), was für Code da letztlich
tatsächlich ausgeführt wird (weil ja niemand weiß, wie genau das
Programm später benutzt wird).

> Wodrauf du ganz am Anfang hinaus wolltest ist: Das ein VM eine
> Wundermaschine ist, die Dinge macht, die niemand ihm vorher
> beigebracht hat. 

Nein. Hab ich nirgends geschrieben. Nur das die Dinger
inderterministisch funktionieren, sich also dynamisch der Situation
anpassen.

> glauben solltest, unterhalte dich bitte mit einem Professor der
> Informatik. 

Woher weißt du, das ich kein Professor der Informatik bin? Kennst du
mich?

> Bei mir passieren Dinge auch
> völlig ohne Ursache. Desweiteren "verpuffen" in meinem Weltbild auch
> Ursachen, ohne weitere Dinge anzustoßen.

Letzteres ist auch in einem deterministischen Weltbild möglich.
Erstes nicht. Allerdings gibt es nicht "deine Welt" und "meine Welt",
es gibt nur "die Welt". Einer von uns beiden irrt sich da also.

Bewerten
- +
Ansicht umschalten