News Im Test vor 15 Jahren: Windows 2000 und Hyper-Threading vertrugen sich nicht

smart- schrieb:
Ach ja, vor 15 Jahren tickte die Welt noch anders...
War halt damals ein riesiges Problem, da Anfangs Windows XP richtig schlecht war, sprich instabil.
Windows 2000 dagegen wurde primär auch von Unternehmen genutzt und galt damals als sehr stabil. Hatte auch ein Freund von mir auf seinem PC und nie einen Absturz.
Nun, im Vergleich zum bei Home-Usern üblichen Win9x war es bereits da "rock solid".. ;)
Win2k war gut und stabil, obwohl mir die Systemanforderungen verglichen mit Win 3.1 verschwenderisch vorkamen.
Habe wg. Stabilitsgründen damals auch eine Zeit lang Windows 98SE und 3.1 parallel genutzt.
Win 3.1 lief im Standardmodus seht stabil (im Vergleich zu 98SE gabs kaum Bluescreens. ~Max 2-3 Mal pro Jahr).
Das war beim Programmieren in VB und Delphi ein echter Segen. ^^
 
andi_sco schrieb:
Habe beides in Benutzung.

Was ist eigentlich effektiver? „Kleine“ 4 Kern CPU a la Pentium oder i5 mit HT? Braswell gegen Haswell

??
 
^NT 5.1 (aka XP) hatte soweit ich weiß, keinen DOS Unterbau mehr.
Wie seine Vorgänger und OS/2 hatte es aber eine virtuelle DOS-Maschine, NTVDM.

Diese "Emulation" von DOS gab es auch auf nicht-x86 Plattformen, wie z.B. Alpha und MIPS.
Darin lief bei Bedarf auch ein angepasstes Win 3.11, allgemein bekannt als WoW (Windows on Windows).
Oder mehrere in getrennten Prozessen, zwecks Prozessisolation (konnte OS/2 übrigens auch, wenn nicht besser.)

Ironischerweise konnten also Win16-Programme (x86) auf allen NT-Plattformen ohne Änderungen laufen.
(Ok, es gab da auch FX-32!, ein Third-Party Produkt das Win32-x86 auf den Plattformen unterstütze.)

Das heißt, bis zum Erscheinen von AMD-64 (aka X86-64). Aus unerfindlichen Gründen hatte MS keinen Bock mehr,
das alte Emulation-Backend von NTVDM (basierend auf SoftPC) zu portieren.

Bis heute wird auch die Kommandozeile (CMD.EXE) als DOS-Fenster bezeichnet, obwohl es eigentlich auf Command.com basierte und bei 64-Bit Windows fehlt.
 
  • Gefällt mir
Reaktionen: CMDCake
2005 hatte ich einen P4 mit 2.8 GHz und HT. In den Games habe ich jetzt nichts bemerkt (subjektiv), wohl aber in der Bedienbarkeit und Ansprechbarkeit des Systems unter Last.
 
Giga-Gaga schrieb:
Damals extra einen P4 2,8Ghz mit HT geholt und nicht bereut. Schon allein Windows lief besser, wenn Mal ein Programm abgestürzt ist oder die CPU ausgelastet hat könnte man normal weiter arbeiten.
Exakt, das war eine Offenbarung im Vergleich zu den SingleCore-AMDs zu der Zeit.
 
HTT Fluch und Segen.

Richtig zu schätzen gewusst habe ich HTT erst in Verbindung mit einem Atom N550 und da haben die beiden HTT Kerne noch richtig was gebracht.
 
CMDCake schrieb:
Jetzt bin ich irritiert, es hieß doch als Ryzen raus kam und Leistungseinbrüche in Games auftraten wenn SMT aktiviert war, dass Windows die Last auch auf die schwächeren "logischen Kerne" schiebt auch wenn noch genug physische kerne übrig waren. Bedingt dadurch das Windows eben nicht erkennen kann ob es sich um "richtige" oder SMT kerne handelt. Denn würde Windows das erkennen können, dann hätte es die massiven Leistungseinbußen in Games ja garnicht erst gegeben, und den Game das 3 Kerne braucht würde dann einfach 3 Physische kerne zugewiesen statt die Last Random auf SMT und Echten Kernen hin und her zu schieben.

Oder wo ist da mein Denkfehler?


Mit SMT gibt es keine echten und falschen Kerne mehr. Der Sheduler versucht jetzt alles so zu legen, dass er die "Kerne" 0,2,4 und 6 ausgelastet werden bzw 1, 3, 5 und 7. Manchmal grätscht aber noch ein anderes Programm rein und belastet "Kern" 1, während gerade etwas rechenintensives auf 0 läuft. Da sich Beide die Ressourcen teilen, kann es dann in Spielen zu weniger FPS kommen.
 
  • Gefällt mir
Reaktionen: CMDCake
Zurück
Oben