Fenichel schrieb am 28.01.2024 13:24:
Vielen Dank für die Erklärungen.
Ist das, was Lem damals beschrieb, mit den heutigen KI-Problemen vergleichbar: Diese "Halluzinationen", von denen ich hörte?
Unklar.
LEM deutete das Problem an mit dem was wir Heute gerne machen:
Big Data, alles zusammenraffen und dann mit Algorithmen "irgendwas" entscheiden.
fürs Management reduziert auf einen linearen Hauptsatz.
Auch die NSA saugt und speichert alles was nicht niet und nagelfest ist.
Trotzdem scheinen andere mit weniger Masse aber mehr intelligentem Denken aangewendet bessere Erkenntnisse zu erwirtschaften.
( Amerikaner haben IMHO eh das Sapir Whorf Problem.)
Als junger Ing habe ich meine Problem-Objekte in Messtechnik ertränkt.
LSA dran, 50 bis 100 Probes einen riesen Wust Daten erzeugen gesteuert von überkomplexen Triggerbedingungen.
... und dann versucht aus dem Salat rauszusaugen was schief läuft.
20++ Jahre später staubt der LSA auf dem Boden rum.
methodisch geht man eher per "deep groking" heran.
Beobachten und _verstehen_ was man sieht.
Aus den äußeren Stimuli und Reaktionen ableiten was innen drin passiert.
Wenn etwas unter Zeitdruck nicht klappt macht es keinen Sinn mehr Daten hinzu zuziehen.
Hmm, das ist der Struktur nach das gleiche was in "The Magic ManMonth"
thematisiert wird: mehr Resourcen auf ein verspätetes Projekt macht es später.
sorgfältige Überlegungen ganz am Anfang ( spez Interfacing, Wechselwirkungen ... )
sparen gigantische Summen ein und machen manches erst möglich.
Konnte man nicht Wissen, ungekanntes Unbekannte, alle eher dumm Ausreden.