News Im Test vor 15 Jahren: Windows 2000 und Hyper-Threading vertrugen sich nicht

Viele haben mehrere PCs und die sind dann auch aus verschiedenen Generationen, so dass man zwangsläufig einen mit HT hat.
Die Umfrage geht davon aus, dass man nur einen PC hat. Wenn man das wörtlich nimmt, muss man den aktuell am meisten benutzen bewerten und nicht einen, der nur irgendwo herum steht und nur noch selten läuft.
 
Coca_Cola schrieb:
Damals wie heute ist der Leistungszuwachs idr. sehr überschaubar.

Stimmt - die 20-30% kann man getrost ignorieren :p
 
Der Pentium 4 konnte mit HT noch eine ganze Weile für Programme und Spiele genutzt werden, die einen Dualcore vorraussetzten. 2 Kerne oder einer mit HT sind in der Summe zwei Prozessoren und solange die Leistung reicht, reicht dann auch ein Pentium 4. Aktuell kann man ja auch einen Dualcore mit HT für Sachen benutzen, die einen Quadcore voraussetzen.
 
PiraniaXL schrieb:
Damals wurde die Software auch noch vernünftig Programmiert und Optimirt.

Ganz im Gegensatz zur Sprache heutzutage.
 
  • Gefällt mir
Reaktionen: Topas93, Brixx, M4deman und 4 andere
deo schrieb:
Viele haben mehrere PCs und die sind dann auch aus verschiedenen Generationen, so dass man zwangsläufig einen mit HT hat.
Die Umfrage geht davon aus, dass man nur einen PC hat. Wenn man das wörtlich nimmt, muss man den aktuell am meisten benutzen bewerten und nicht einen, der nur irgendwo herum steht und nur noch selten läuft.
ich habe nur einen und zwar ohne HT. HT hat für mich, in meinem anwendungsgebieten, keinen spürbaren mehrwehrt
 
Neu in Windows XP war jedoch, dass das Betriebssystem zwischen logischen und physischen CPU-Kernen unterscheiden konnte, was sich positiv auf die Leistung auswirken sollte.

Jetzt bin ich irritiert, es hieß doch als Ryzen raus kam und Leistungseinbrüche in Games auftraten wenn SMT aktiviert war, dass Windows die Last auch auf die schwächeren "logischen Kerne" schiebt auch wenn noch genug physische kerne übrig waren. Bedingt dadurch das Windows eben nicht erkennen kann ob es sich um "richtige" oder SMT kerne handelt. Denn würde Windows das erkennen können, dann hätte es die massiven Leistungseinbußen in Games ja garnicht erst gegeben, und den Game das 3 Kerne braucht würde dann einfach 3 Physische kerne zugewiesen statt die Last Random auf SMT und Echten Kernen hin und her zu schieben.

Oder wo ist da mein Denkfehler?
 
Damals extra einen P4 2,8Ghz mit HT geholt und nicht bereut. Schon allein Windows lief besser, wenn Mal ein Programm abgestürzt ist oder die CPU ausgelastet hat könnte man normal weiter arbeiten.

@CMDCake: was bei Intel mit HT klappt muss bei AMD mit SMT nicht zwangsläufig auch funktionieren, sind halt andere techniken.
 
Zuletzt bearbeitet:
Johnny Cache schrieb:
Irgendwie vermisse ich die Zeiten als die Programme noch nicht mehrere Cores unterstützt haben.
Wenn damals ein Programm meinte einen Core zu 100% dicht machen zu müssen war das dem restlichen System vollkommen egal. Heute schaffen es machen Programme selbst einen eigentlich gnadenlos überdimensionierten Ryzen 7 1700 mit 64GB RAM in die Knie zu zwingen.
Dafür braucht die Abarbeitung dann auch nicht Stunden lang, sondern nur einige Minuten. Du kannst ja die Prozesse selbst zuweisen. Wenn du dir die Zeit zurück wünscht, dann weise jedem Programm auf deinem Rechner doch nur einen Kern zu ^^ viel Spaß damit.

@PiraniaXL
Stimmt so nicht. Es gibt heute massig gut Optimierte Software! Aber für die meisten Leute gibt's ja nur spiele.

Wenn man liest, dass sich Leute beschweren, dass ein Programm die gesamte Leistung eines 8C/16T Prozessors ausnutzen kann, dann weiß ich nicht, ob das die richtigen Leute sind, um über gute Software Optimierung zu sprechen...
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Teralios, Alphanerd, Mini-Max und eine weitere Person
CMDCake schrieb:
Jetzt bin ich irritiert, es hieß doch als Ryzen raus kam und Leistungseinbrüche in Games auftraten wenn SMT aktiviert war, dass Windows die Last auch auf die schwächeren "logischen Kerne" schiebt auch wenn noch genug physische kerne übrig waren.

Das war einer der Gründe, erkennen kann es Windows aber bis heute nicht zu 100%...
Um das zu erreichen müsste entweder der CPU Hersteller die Kerne markieren und das an das OS weiter reichen, oder Windows müsste die Leistung der "Kerne" einzeln ermitteln und anschliessend das Ergebnis auch anwenden.
 
  • Gefällt mir
Reaktionen: CMDCake
Ist doch immer das Selbe, ist die GPU zu 99% ausgelastet ist es egal, aber wehe die CPU wird zu 99% ausgenutzt, irgendwas stimmt mit der Software nicht, die is dreck, Windows ist doof, warum so eine hohe auslastung?

Leute, wenn Programme X Kerne benutzen können, werden diese mit sehr hoher wahrscheinlichkeit wenn nix anderes limitiert, auch zu 99% ausgelastet. Das Selbe wie beim RAM, warum beschweren sich leute das er benutzt wird? Versteh ich nicht.
 
  • Gefällt mir
Reaktionen: MuhKalb
Shoryuken94 schrieb:
Wenn man liest, dass sich Leute beschweren, dass ein Programm die gesamte Leistung eines 8C/16T Prozessors ausnutzen kann, dann weiß ich nicht, ob das die richtigen Leute sind, um über gute Software Optimierung zu sprechen...

Dem kann ich nur voll und ganz zustimmen.

Wenn man sich eine 8/16, 12/24 oder 16/32 CPU verbaut, dann doch wohl weil mein Use Case es vorgibt und meine bevorzugten Anwendungen es unterstützen.

Wenn ich mein System z.B. mit einer Produktivitätssoftware (Adobe Premiere Pro) auslaste, dann freue ich mich über die schnelle Abarbeitung der Arbeitsschritte und für alle anderen Szenarios kann ich den Kernen doch Software zuweisen.

Ich zumindest hoffe auf mehr und mehr Mehrkern-Support.

Liebe Grüße
Sven
 
Mein erster Mehrkern-Rechner war ein C128. Der kam mit einem 6502-kompatiblem Kern und einem Z80-Kern. Aber naja, heute meint man wohl eher SMP, also gleichartige Kerne die im gleichen Adressraum arbeiten. Das wäre dann mein Gigabyte 586 DX-Board welches anfangs 2xPentium90 und später 2xPentiumMMX233 antrieb.

Mit Linux und NT klappte das überraschend gut und das Board war damals kaum teurer als normale Boards, kam aber mit sechs RAM-Slots und UW-SCSI. Insgesamt ein feuriger kleiner Renner.
 
Viel interessanter fand ich,das Intel beim Einkauf von HP Systemen für interne Nutzung,die Anweisung heraus gab, HT standardmäßig im BIOS zu deaktivieren. Das läßt sicher gewisse Schlußfolgerungen auf den Nutzen dieser
Option zu. Mal abgesehen von der Software Problematik und dem genutzten OS.
 
Hab damals unter Windows XP meinen Pentium 4 mit 2.8 GHz gegen einen Pentium 4 HT mit 3,06 GHz ersetzt. Der Leistungsunterscheid war leider sehr ernüchternd.:D Davor musste ich auch noch das Bios modden etc. Waren noch coole Tüftler-Zeiten.
 
anexX schrieb:
Bei BF1 sind im Schnitt 5 FPS mehr ohne SMT drin:

Bei einem Intel messe ich auch gerne mal 20 FPS mehr in BF1, allerdings mit aktiviertem HT :-)

 
Quake 3 hatte den Konsolenbefehl "r_smp" für symmetric multiprocessing. Leider verstand der sich nicht gut mit den neuen cpu generationen, die mehrere threads/kerne auf einer cpu hatten. War mehr so ein Befehl für die oldschool mainboards mit mehr als einem CPU sockel. Und ich hatte mich damals schon gefreut mit meinem 3,2ghz northwood :(
 
Windows 2000... das waren noch Zeiten :)
Ich fand's jedenfalls klasse!
100x besser als dieses bescheidene Windows ME.

Ich glaube meine CPU war ein Athlon 1200 Thunderbird.
An den Rest kann ich mich leider nicht mehr erinnern.
Nur noch dass ich NOLF1 und GTA3 spielte.

Grüße
 
Achja Win 2k auf einem AMD Athlon XP 2400+ (oder 2200+?). Das Ding hatte definitiv nur einen Kern ohne HT oder ähnlichem.
Und viele Jahre später arbeiten hier ein Laptop mit 2 Kernen+HT (i3 oder i5) und ein Intel Xeon, der genau wegen dem HT auch einem i5 vorgezogen wurde^^
 
Zurück
Oben