mensch183 schrieb:
Der Atari bootet nur deshalb so schnell, weil er keinerlei Checks der verbauten Hardware machen muß...
Und wo bitte steht geschrieben, daß ein PC das unbedingt machen
muß? Nur weil die vielen Hersteller nur extrem unflexibel sind und sich nur sehr schwer zu neuen Standards einigen können (wie z.B. UEFI) heißt das noch lange nicht das es nicht geht.
Ein Computer der einerseits in der Hardware flexibel ist ohne bei jedem Einschalten initialisieren zu müssen ist technisch leicht machbar.
mensch183 schrieb:
Da steckt immer haargenau das gleiche drin und das Betriebssystem hat hart alles für diese Konfiguration nötige verdrahtet, also welche Geräte es initialisieren muß.
In meinem PC steht auch (meist für Monate) das gleiche drin ohne eine Hardwareänderung. Warum sollte es nicht möglich sein die Initialisierung einmalig (beim Zusammenbau/Erweiterung) durchzuführen und zu speichern (z.B. in einem gesonderten Bereich des MB-EEPROMs) anstatt jedesmal beim Einschalten.
mensch183 schrieb:
PCs sind hingegen irre flexibel mit ganz verschiedenen Hardwarekomponenten ausrüstbar und laufen trotzdem alle mit dem gleichen Betriebssystem. Um das zu realisieren brauchts Mechanismen, alle möglichen Schnittstellen und Busse im PC abzufragen, was denn tatsächlich für Hardware da ist und diese dann nach und nach zu initialisieren. Das kostet notwendigerweise Zeit.
Genau diese Notwendigkeit stelle ich doch in Frage. Wieso sollte es denn bitte notwendig sein eine Hardwarekomponente initialisieren zu müssen? Nimmt man digitalen Schaltkreisen den Strom und schaltet wieder ein, reicht eine kleine (sogar passive Schaltung) um ihnen automatisch einmalig ein Reset-Signal zukommen zu lassen. Dann haben sie einen definierten Ausgangszustand. Mehr ist nicht nötig. Das einzige was sich ändert beim Aus-/Einschalten ist der Inhalt von Speicherzellen. (RAM, HDD, Cache, VRAM usw).
mensch183 schrieb:
Wenn du einen PC richtig fix booten willst, hast du 2 Varianten:
A) nimm ihm die genannte Flexibilität, d.h. biete nur genau 1 Konfiguration an und stimme die Firmware und da OS genau darauf ab (--> das will man nicht)
Das Problem sehe ich da drin, daß jeder Hersteller einer Komponente seine Firmware in der selbigen speichert. Würde man das MB zur Masterkomponente erklären, ihm entsprechenden EEPROM Speicher zur Verfügung stellen und seine Firmware (BIOS/UEFI) entsprechend ausstatten, so wäre es möglich, daß eine neue Hardwarekomponente ihre "Firmware" in diesen Masterbereich überträgt. Dazu bräuchte es allerdings entsprechende OS-unabhänige Standards. Dies würde jedoch möglich machen, daß alle neuen OSes hardwareunabhänig und dadurch wesentlich stabiler laufen würde, weil die Hardwareverwaltung nicht mehr softwareseitig wäre (wo sie nichts verloren hat) sondern wirklich hardwareseitig.
Und das würde eine ungeahnte OS-seitige
Flexibilität ermöglichen!
mensch183 schrieb:
B) boote nicht immer komplett neu sondern lege den Rechner beim Ausschalten in einem Zustand schlafen, der dem Status _nach_ der Geräteerkennung entspricht. (das will MS implementieren)
Im Prinzip zwar schon ein Schritt in die richtige Richtung aber ein halbherziger. Wie schon von einem anderen erwähnt, das einzige Problem ist diese blöde Kompatibilitätsgeschichte.
Würde man mit heutiger Technik und Hardware, einen Computer ohne irgendwelche Vorgaben von Grund auf neu aufbauen, könnte man mit gegenbener Technik problemlos das 10x der Leistung heutiger Computer erreichen. Von Sicherheit und Stabilität mal ganz zu schweigen. Doch das würde für die großen Konzerne Verluste bedeuten, da solche Rechner 10 Jahre noch für die allermeisten Anwendungen genügen würde. Doch da ist leider kein Profit mit zu machen. Also wird stattdessen immer neuere fehleranfälligere Hard- und Software auf den Markt geworfen um den Kunden zu "trösten".