Ansicht umschalten
Avatar von Filzlausi - m
  • Filzlausi - m

335 Beiträge seit 18.08.2022

Danke für Ihr Reply

kaept'n finn schrieb am 03.11.2022 00:50:

Dane für diese interessanten Einblicke. Auf Erfahrungen wie deine kann ich leider nicht zurückgreifen, aber ich programmiere auch moderne CPUs sehr nah am Silizium.

Ich denke mit all dem Marketing um immer schnellere CPU und Smartphones haben die Leute überhaupt kein Gefühl dafür, wie leistungfähig selbst viele Generationen alte CPUs überhaupt sind und was für Unmengen von Rechenoperationen die jede Millisekunde durchführen können. Herrje, ich hab hier einen 12 Jahre alten Mini-Rechner am Fernseher angechlossen, der decodiert problemlos Videos in 1080p auf der CPU. Die Auflösung sind knapp 2 Mio. Pixel und das Ganze mit bis zu 60fps, also etwa 16ms um die 2 Mio. Pixel aus dem Video-Codec rauszuextrahieren - nur so als simples Beispiel, wie schnell selbst alte CPUs arbeiten.

Kein Wunder, dass man immer den Einruck hat, es ist zu langsam, wenn alles total überladen ist und durch einen Javascript-Interpreter läuft (Krücken wie JIT bei dieser Wortwahl mal aussen vor gelassen). Wenn dieser ganze Ballast nicht da ist, und eine Baremetal-Steuersoftware auf einem solchen Chip läuft, kann ich mir nicht vorstellen, dass der mit der Steuerung ganz gleich welchen Rakententyps jemals überfordert sein wird. Es sind nicht mehr die 1980er, und die waren es auch vor 10, 20 Jahren nicht mehr.

Korrekt.
Übrigens: Bei "uns" damals, wurden zeit-kritische Sachen auch noch in Assembler gemacht.
Schon weil Fortran für 16bit und andere Rechner mehr Speicher brauchten, und in der Reaktion auf abgefragte Sensoren dann langamer gewesen sind.
Und da gings noch nicht mal um sogenannte "Echtzeit"-Bertriebssysteme und Programme dafür.
Hatte damals, also schon zu DDR-Zeiten, auch mit Untersuchungen zu (ebenfalls geklautem) RMX zu tun.
Und danach, also als ich nach der Wende in den Westen migrierte, dann direkt dafür programmieren dürfen - naja, also müssen:
RMX war der heiße Scheiß für Industrie-Automatisierung damals - allerdings nicht lange ;-)
Nu ja, meine Erfahrungen bzgl. der Leistung und "Echtzeitfähigkeit" waren etwas ernüchternd.
Die Hardware dafür (zuerst 386iger Boards, dann auch 486er von Intel) jedoch extrem teuer!
Anfangs (das war 1992) hatten die Intelianer noch nicht mal einen C-Compiler für ihr RMX III.
Wir machten also mit deren damaligem PLM rum.
Und der Compiler hatte auch noch Fehler bei Tabellen, die etwas tiefer waren, Also Tabellen-Strukturen, die viele Ebenen hatten.
Zusätzlich: Mer als 1000 Zeilen Source waren für den Compiler/den Debugger ein Problem.
Das war damals so primitiv, daß der Debugger die Source nicht lesen/zum Code matchen konnte, wenn sie mehr als 1000 Zeilen enthielt...

Ich denke auch da ist die Verpackug und Abchirmung eines solchen Chips eine größeres Problem als die Rechenpower.

Zu Java-Script: Das sei das größte Vebrechen, wo es in der IT jemals gegeben hat
(Java eh schon, aber Java-Script wohl noch das "Sahnehäuptchen" oben drauf)
Weis nicht mehr, wer das so schrieb, vielleicht wars gar der Fefe.
Ich mein, daß der wo das mal schrieb, wohl recht hat.
Bzgl. Mil-Tec (falls da sowas drinnn sein sollte), auf jeden Fall!

Ein Grüezi von einem alten, mittlerweile in Rente befindlichen, -m
;-)

Mögen Sie bitte, wie in Ihrem OP, und auch Ihrem Vor-Post, aufschien, am Nachdenken über Sinn und/oder Unsinn mancher Sachen festhalten.

Ein Grüezi von mir!

Bewerten
- +
Ansicht umschalten