Test Core i9-10900K und i5-10600K im Test: Eine Frage des Limits

Ned Flanders schrieb:
Der Effekt auf die CPU Last ist unabhängig vom Seitenverhältnis. Sie sinkt mit zunehmender Auflösung.
Sie sinkt mit sinkenden fps^^ Warum die bei dir von 500 auf 300 sinken bei dieser Auflösung erschließt sich mir aber nicht...
Wie gesagt, der Benchmark ist irgendwie komisch, Superposition hält z.B. konstant einen Thread auf 100% solange man im CPU Limit ist.
 
  • Gefällt mir
Reaktionen: Baal Netbeck
Ned Flanders schrieb:
Das widerspricht aber meines Erachtens dem was Zero erklärt hat, und auch seiner Messreihe, die ja als flach bis zum GraKa Bottleneck betrachtet wurde.
Wenn man davon ausgeht, dass das Spiel die "Spiellogik" halbwegs gut multithreaden kann und die Drawcalls der limitierende Faktor sind, dann bedeuten mehr Drawcalls....wegen höheren Grafiksettings oder weil das Seitenverhältnis mehr Objekte zeigt.....eben das die FPS sinken.
Der eine Thread der die Drawcalls berechnet arbeitet weiterhin so hart wie möglich, aber weil er die FPS limitiert, muss auch der Rest seltener aktuallisiert werden...insgesamt sinkt die Auslastung der CPU.

Und das gleiche wenn die FPS wegen eines GPU Limits sinken...auch dann muss die CPU seltener aktualisieren....Auslastung und Verbrauch sinken.
Ned Flanders schrieb:
Ja ich weiss nicht, ich hab schon öfters gesehen das Games keinen der Kerne 100% auslasten. Das erscheint mir jetzt wenig auffällig.
Das stimmt.
Der Scheduler schiebt auch single core Last gerne von Thread zu Thread....und zwar deutlich schneller als die Anzeige der Auslastung es aktualisiert und so siehst du gar keinen Kern/Thread auf 100%....manchmal lässt der Scheduler die Last auch auf einem Thread und dann sieht man es, aber man kann sich nicht darauf verlassen.

Im Grunde bleibt nur die Möglichkeit zu gucken, ob , die GPU unter 99% ausgelastet ist, ohne dass ein Limiter aktiv ist.
Dann limitiert die CPU....und ist diese nicht voll ausgelastet oder unter 50% bei einer HT/SMT CPU, limitiert ein Kern.
....und ist sie Gesamt sehr hoch ausgelastet...oder bei aktivem HT/SMT über 50-60% ausgelastet, kann man mit mehr Kernen noch die FPS potentiell steigern.....darunter müssen wohl schnellere Kerne und/oder schnellerer Ram her.

...Ausnahmen dazu findet man sicherlich auch irgendwo....aber so würde ich das generell sehen.
 
Ich habe übrigens noch mal die Zahlen von PCGH für den Vergleich mit dem 3900X ausgewertet, da deren größerer Unterschied zwischen 9900K und 10900K ja hautpsächlich daher zu kommen scheint, dass manche Werte für den 9900K einfach zu niedrig sind und noch nicht aktualisiert wurden.

Für die Differenz zwischen 10900K und 3900X ergeben sich über die 8 getesteten Spiele ein Mittelwert von +12% und zwar sowohl für die average FPS als auch für die P99 Frametimes.

Jetzt schaut man hier auf CB mit ihren 1080p Tests, die ja die Unterschiede verdecken sollten, und was sieht man dort?
Der 10900K ist ganze 17% schneller als der 3900X bei den average FPS und immer noch 13% schneller bei den P99, somit ist der Abstand zwischen AMD und Intel bei CB sogar größer als bei PCGH.
 
  • Gefällt mir
Reaktionen: Hardwarious, Celinna und matty2580
Baal Netbeck schrieb:
Der Scheduler schiebt auch single core Last gerne von Thread zu Thread....und zwar deutlich schneller als die Anzeige der Auslastung es aktualisiert und so siehst du gar keinen Kern/Thread auf 100%....manchmal lässt der Scheduler die Last auch auf einem Thread und dann sieht man es, aber man kann sich nicht darauf verlassen.

Ne, das passiert auch wenn ich in Arma3 beispielsweise die Threads per Affinity fest setze. Das liegt nicht am Scheduler.

Taxxor schrieb:
Der 10900K ist ganze 17% schneller als der 3900X bei den average FPS und immer noch 13% schneller bei den P99, somit ist der Abstand zwischen AMD und Intel bei CB sogar größer als bei PCGH

Das hab ich schon in meinem ersten Post hier im Thread geschrieben. Der 9900k ist schlicht viel zu langsam bei PCGH. Daher wirkt der 10900k so viel schneller.
 
  • Gefällt mir
Reaktionen: Celinna und Krautmaster
Ned Flanders schrieb:
Ne, das passiert auch wenn ich in Arma3 beispielsweise die Threads per Affinity fest setze. Das liegt nicht am Scheduler.
Du setzt das Spiel auf einen Thread?
 
Baal Netbeck schrieb:
Du setzt das Spiel auf einen Thread?
Wollt ich auch gerade fragen, wenn es mindestens 2 Threads sind, wird ja wieder gesprungen und man sieht potenziell keine 100%
 
  • Gefällt mir
Reaktionen: Baal Netbeck
Genau Taxxor, so groß waren die Unterschiede gar nicht, bis auf Wolfenstein, was aber schon immer ein spezielles Game war, auch bei GPU Tests.

Dann hört hoffentlich auch das PCGH Bashing auf, denn die Jungs da verstehen eigentlich ihr Handwerk.😁
 
Baal Netbeck schrieb:
Du setzt das Spiel auf einen Thread?

Nein, ich setze es auf 3 Threads, so viele wie es startet. Aber das ist nicht hin und her geschoben, sonst würde das im TM ganz anders aussehen. Der Main Thread bleibt relativ stabil auf einem Kern kleben. Das ist bei meinem Sys auch bei anderen Single Thread Anwendungen so. Da wird sehr selten gewechselt. Da tun sich schlicht irgendwelche anderen Bottlenecks auf.

Beispiel CPUz Stresstest 1 Thread, der klebt auch auf CPU0 für über eine Minute.

1590092521136.png


Das war doch auch irgendwann mal ein Teil des MS Scheduler Patches als Anpassung auf Ryzen afaik.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: adAstra und s0UL1
Taxxor schrieb:
Ich sehe nicht, wo AMD nicht die Preise von Bulldozer aufruft^^

Also so ein FX-8350 mit 8 Threads hat damals 190€ gekostet, das entspricht Inflationsbereinigt heute 206€.
Für den von dir verbauten FX-6100 mit 6 Threads waren 140€ fällig, das entspricht heute 160€

Heute bekommt man für 129€ einen 3300X mit 8 Threads, der in einer völlig anderen Liga spielt.
Und für den Preis des 8350 bekommt man umgerechnet heute einen 3600 plus After-Market Kühler.

Und mit diesen beiden Ryzens ist man für den Preis auch deutlich näher an den teureren Intel Produkten dran, als es Bulldozer war.

Der FX 8100 war das, was heute der 3950X oder Threadripper ist. Die Preise da sind jedoch jenseits von gut und böse. Der 6100 entspricht dem 3900X bis 3950X. Die sollte AMD mal auf 140€ bis 180€ senken und die Threadripper meinetwegen für 300€+ anbieten.
Es ist für mich auch ok, wenn die etwas langsamer wären, aber sie sind aktuell im Vergleich zum Zambezi zu teuer.
 
DavidG schrieb:
Der FX 8100 war das, was heute der 3950X oder Threadripper ist.
Guter Witz, dann zeigst du mir sicher gleich die Benchmarks, in denen es ein FX8100 mit Intels damaligen HEDT 12 Kernern aufnehmen konnte.
Dann könnte man sagen, dass sie vergleichbar mit einem 3950X gewesen wären, wobei selbst dann nicht, da sie eben im Mainstream nicht mehr Threads geboten haben als alles was vorher schon seit langem am Markt war und damit auch noch langsamer waren, als die Threadgleichen Konkurrenzprodukte.

DavidG schrieb:
Der 6100 entspricht dem 3900X bis 3950X
Und warum?
Der 6100 hatte weniger Threads als ein oller i7-2600K, der 6100 ist zu vergleichen mit dem was heute ein 3300X ist.
Du hattest damals im FX Lineup nur 4, 6 oder 8 Threads bei AMD zur auswahl, heute hast du im Mainstream 4, 8, 12, 16, 24 und 32 Threads.
Warum sollte man die CPU die damals die zweitschlechteste war, jetzt mit den beiden Top CPUs vergleichen?
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Sennox und catch 22
Ned Flanders schrieb:
Der Main Thread bleibt relativ stabil auf einem Kern kleben. Das ist bei meinem Sys auch bei anderen Single Thread Anwendungen so. Da wird sehr selten gewechselt.
Wie gesagt....manchmal sieht man ein single Thread limit deutlich wie du es hier zeigst....und bei anderen Anwendungen sieht man es nicht im Taskmanager....das bedeutet aber nicht, dass es kein single Thread limit sein kann.

Der Windows Scheduler ist in den letzen zwei Jahren auch besser geworden...vor allem in Bezug auf Ryzen....aber ich hatte 2017 schon den Fall, dass ich Cinebench R15 im singlecore Test laufen hatte und an einem Tag hat er mir einen Thread zu 100% ausgelastet...und am nächsten alle 16 Threads zu je 8%...mit grausiger Punktezahl.
 
Taxxor schrieb:
Guter Witz, dann zeigst du mir sicher gleich die Benchmarks, in denen es ein FX8100 mit Intels damaligen HEDT 12 Kernern aufnehmen konnte.
Dann könnte man sagen, dass sie vergleichbar mit einem 3950X gewesen wären, wobei selbst dann nicht, da sie eben im Mainstream nicht mehr Threads geboten haben als alles was vorher schon seit langem am Markt war und damit auch noch langsamer waren, als die Threadgleichen Konkurrenzprodukte.


Und warum?
Der 6100 hatte weniger Threads als ein oller i7-2600K, der 6100 ist zu vergleichen mit dem was heute ein 3300X ist.
Du hattest damals nur 4, 6 oder 8 Threads bei AMD zur auswahl, heute hast du im Mainstream 4, 8, 12, 16, 24 und 32 Threads.
Warum solltest du die CPU die damals die zweitschlechteste war, jetzt mit den beiden Top CPUs vergleichen?

Es gab damals keine 12 Kerner von Intel, aber der FX 8100 und der Reisen 3950X sind beide AMDs High End Prozessoren, wobei das streng genommen Threadripper ist, für den die Preise aber jenseits von gut und böse sind.
 
DavidG schrieb:
Es gab damals keine 12 Kerner von Intel
Klar, die Haswell Xeons^^
Mit den heutigen Xeons schlägt sich so ein 3950X ja auch rum, konnte das ein 8100?
Ergänzung ()

DavidG schrieb:
der Reisen 3950X sind beide AMDs High End Prozessoren
Nein, AMD hatte damals schlicht und einfach keine High End Prozessoren, das ist der Punkt.
 
  • Gefällt mir
Reaktionen: Sennox
@Baal Netbeck

Ok, aber das ist dann vieleicht Teil einer anderen größeren Diskussion. Ich beobachte das so nicht bei mir. Ein Thread ist ein Kern im TM und der switcht etwa halbminütlich mal den Kern. Manchmal auch minütlich. Aber keinesfalls so, dass man zwei Kerne halb ausgelastet sehen würde oder gar alle Kerne. Ich kann gern nochmal einen Arma screenshot des TM machen, aber heut wirds nichts mehr.

Das tut imho dem Sachverhalt auch keinen Abbruch. Die Frage ist ja ob die Kernlast unabhängig von der Auflösung ist und somit linear extrapolierbar, auch über CPU Architekturen hinweg.

Lassen wir Zero das mal anschauen, ich glaube wir raten mit unserem begrenzten Wissen hier nur.
 
  • Gefällt mir
Reaktionen: adAstra
DavidG schrieb:
Der FX 8100 war das, was heute der 3950X oder Threadripper ist. Die Preise da sind jedoch jenseits von gut und böse. Der 6100 entspricht dem 3900X bis 3950X. Die sollte AMD mal auf 140€ bis 180€ senken und die Threadripper meinetwegen für 300€+ anbieten.
Es ist für mich auch ok, wenn die etwas langsamer wären, aber sie sind aktuell im Vergleich zum Zambezi zu teuer.

Völliger Nonsense. Die Produktgruppen, die es heute gibt, gab es damals noch überhaupt nicht. Natürlich kann man völlig relatisfern seine Milchmädchenvergleiche durchziehen, doch dann enttäuscht die Realität direkt doppelt. Threadripper ist HEDT, Ein FX8100 war nie HEDT - HEDT gab es damals von AMD nicht -, ist es auch jetzt nicht und wird es auch nie sein. Das ist eine völlig andere Produktklasse und kein vernünftiger Mensch käme auf die Idee hier einen Vergleich anstreben zu wollen.

Die AMD Ryzen sind spottbillig für die Leistung, die sie zur Verfügung stellen.
 
  • Gefällt mir
Reaktionen: Sennox, catch 22, s0UL1 und eine weitere Person
Ich kann wirklich und tatsächlich nur gutes Berichten über Intel. Zum Launch Erscheiungstag den 2600K gekauft, der hat gehalten bis zum 8700K auch zum erst Erscheinungstag. Ich bleibe bei Intel.
 
Taxxor schrieb:
Klar, die Haswell Xeons^^
Mit den heutigen Xeons schlägt sich so ein 3950X ja auch rum, konnte das ein 8100?
Ergänzung ()


Nein, AMD hatte damals schlicht und einfach keine High End Prozessoren, das ist der Punkt.

Hasfail kam erst Jahre nach Zambezi raus. Gegenspieler von Zambezi war Sandy Bridge.
 
Ned Flanders schrieb:
Die Frage ist ja ob die Kernlast unabhängig von der Auflösung ist und somit linear extrapolierbar, auch über CPU Architekturen hinweg.
Für PC Spiele und gleiches Seitenverhältnis....immer im CPU Limt ......ja.

Das habe ich auch schon selbst getestet. von 720 zu 1440p... im CPU Limit absolut gleich.

Aber wenn ich natürlich zu höheren Auflösungen in ein GPU Limit komme sinken die FPS und damit auch die CPU-Last.
 
Ab wann ist eigentlich mit DDR5 zu rechnen? Das wäre für mich so der nächste Step. Momentan schlägt sich nein Prozi noch ordentlich...
 
Zurück
Oben