Test Core i9-10900K und i5-10600K im Test: Eine Frage des Limits

DavidG schrieb:
Hasfail kam erst Jahre nach Zambezi raus. Gegenspieler von Zambezi war Sandy Bridge.
Und in dem Fall der Sandy Bridge i3^^

Wie gesagt AMD hatte einfach kein HighEnd zu der Zeit, genau wie man zur Zeit von RX480 und RX580 kein HighEnd hatte.
Die Tatsache, dass die beiden Karten das beste waren was AMD zu der Zeit hatte, bedeutet nicht, dass sie zu vergleichen sind mit Big Navi der dann wieder 3 Klassen höher mitspielt
 
  • Gefällt mir
Reaktionen: Sennox
Erinnert bisschen an das Pentium 4 Debakel.

Chillaholic schrieb:
Die benchen auch in 720p [...] viel CPU-intensiveren Parcours.
Finde die Methode von PCGH persönlich aber angemessener, wenn es um die reine Leistungsbewertung geht.
 
Baal Netbeck schrieb:
Aber wenn ich natürlich zu höheren Auflösungen in ein GPU Limit komme sinken die FPS und damit auch die CPU-Last.

Yo, aber da man ja immer irgendwie im GPU Limit spielt und sich das Takt und Turboverhalten von CPUs, sowie die Größe und Geschwindigkeit des Caches unterscheiden würde sich das dann eben nicht mehr linear verhalten und eine CPU-X kann unter teilweisem GPU Limit ganz anders skalieren als eine CPU-Y, als dies in einem rein CPU limitierten Bench den Anschein hat. Das ist ja der Kern des Ganzen. Wie aber Zero erklärt hat, sollte das nicht der Fall sein weil die CPU, unabhängig von der Auflösung und Last der GraKa einfach frist was sie bekommen kann und immer die gleiche Last hat.

Mal GPU als Heizung im Gehäuse und sich daraus ergebende Unterschiede ganz außen vor. Das wird sonst zu kompliziert in der Betrachtung.

Ich hoffe du verstehst was ich meine.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: .Sentinel.
Taxxor schrieb:
Und in dem Fall der Sandy Bridge i3^^

Wie gesagt AMD hatte einfach kein HighEnd zu der Zeit, genau wie man zur Zeit von RX480 und RX580 kein HighEnd hatte.
Die Tatsache, dass die beiden Karten das beste waren was AMD zu der Zeit hatte, bedeutet nicht, dass sie zu vergleichen sind mit Big Navi der dann wieder 3 Klassen höher mitspielt

Sie waren aber schneller als von vielen gedacht. Der FX tut hier gut seinen Dienst und das seit bald 9 Jahren. Ich bezweifle, dass man mit Reisen so lange hin kommt.

Ich werde den FX so lange behalten, bis AMD die Reisen 9 für 200€ anbietet oder Intel die i9 für 300€.
 
KlaraElfer schrieb:
Dann setz dir im Bios doch ein AVX Offset bzw eine TDP Grenze, dann hast du auch keine 250 Watt Verbrauch, solltest du wieder eine Runde Prime 95 zocken.
Hört hört, die Kompetenz in Person nur wäre es doll gewesen wenn sie dann auch mal den Test gelesen hätte denn da lag der Core i9-10900K auch ohne AVX (Cinebench 20) bei kuscheligen 287W, mit AVX kam der Cut bei 311W.

OK das bezog sich auf das Gesammtsystem aber ziehen wir den Idle Verbrauch ab bleiben immernoch gute 240W übrig.

Das Teil ist sowas wie die Neuauflage der FX-9000 Serie, nur eben mit lausiger Multicore satt Singlecore Performance.
 
  • Gefällt mir
Reaktionen: Sennox
Ned Flanders schrieb:
Wie aber Zero erklärt hat, sollte das nicht der Fall sein weil die CPU, unabhängig von der Auflösung und Last der GraKa einfach frist was sie bekommen kann und immer die gleiche Last hat.
Nicht so ganz, es kann schon Unterschiede zwischen den GPUs geben in Verbindung mit unterschiedlichen CPUs.
Nur weil zwei CPUs im absoluten CPU Limit mit einer 2080Ti gleich schnell sind bedeutet das nicht automatisch, dass man mit der Kombination aus RTX2060 und der jeweiligen CPU auch die gleichen fps erhält, weil sie sich unterschiedlich im GPU Limit verhalten können.
Igor hatte dazu ja Mal ne Messereihe gepostet, die Unterschiede belaufen sich zwischen 1 und 5%
Ergänzung ()

DavidG schrieb:
Sie waren aber schneller als von vielen gedacht. Der FX tut hier gut seinen Dienst und das seit bald 9 Jahren. Ich bezweifle, dass man mit Reisen so lange hin kommt.
Sie waren nicht schneller als von vielen gedacht, genau umgekehrt, viele dachten sie wären schneller und wurden dann enttäuscht.

Und natürlich kann man Ryzen solange nutzen, warum sollte man es auch nicht?
Da man ja jetzt schon nah an der Spitze ist mit der Leistung kann man ihn sogar potenziell sehr viel länger nutzen als einen 6100, der zu Release schon 2 Generationen hinterher war.
Einen 2600K könnte man sehr viel länger nutzen.

Das einzige, was Bulldozer in den Jahren nach Release geholfen hat war, dass die Unterstützung für mehr als 4 Threads so langsam gekommen ist.

Bei Ryzen sieht das nicht anders aus, wir sind gerade in der Phase, wo vermehrt auch Mal mehr als 8-12 Threads angesprochen werden, für Fläche deckende Verbreitung dauets noch jahre. Ryzen bietet auch hier schon mehr.

Wenn jemand mit deinen scheinbar sehr niedrigen Ansprüchen sich heute einen 3300X für 130€ kauft, kann er den auch 2030 noch verwenden.

DavidG schrieb:
Ich werde den FX so lange behalten, bis AMD die Reisen 9 für 200€ anbietet oder Intel die i9 für 300€.
Dann hoffe ich Mal für dich, dass er bis zu deinem Tod durchhält^^
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Sennox
Wadenbeisser schrieb:
Das Teil ist sowas wie die Neuauflage der FX-9000 Serie, nur eben mit lausiger Multicore satt Singlecore Performance.

Nur, dass die CPU eben auch Leistung liefert und nicht wie der FX9590 untergeht und in Cinebench 170 Watt mehr als die schnellere Konkurrenz verbraten hat, sondern nur 60 oder 70 Watt, je nach Test.
Aber ihr spielt ohnehin nur Prime 95, Blender und Co - für 56 Sekunden.^^
Die Spiele-Leistungsaufnahme liegt nur 20 bis 30 Watt höher, in Teillastbereichen ist der Intel auch sparsamer wie man bei Igors Lab sehen kann. Ganz so schlimm ist es nun auch wieder nicht. ;)
 
Zuletzt bearbeitet von einem Moderator:
BosnaMaster schrieb:
Ab wann ist eigentlich mit DDR5 zu rechnen? Das wäre für mich so der nächste Step. Momentan schlägt sich nein Prozi noch ordentlich...
Sehr sicher nicht vor 2022 und preislich wird das auch alles andere als schön für eine Weile. ;)
 
@KlaraElfer

Ähm nein, eben nicht.
Wenn das Teil nicht deutlich gedrosselt werden soll frißt es so viel wie die derzeitige Threadripper Generation bei nicht ansatzweise vergleichbarer Leistung. Schnell ist das Teil nur im Teillast Bereich, also bei der Singlecore Performance.
 
  • Gefällt mir
Reaktionen: Sennox
Ned Flanders schrieb:
Yo, aber da man ja immer irgendwie im GPU Limit spielt
Ähm.... Nein. ;)

Also ich weiß nicht was du so spielst... Und mit welcher Grafikkarte, aber ich habe einige Spiele, wo die Grafikkarte trotz 1440p nie das Limit ist.

Ich spiele zwar noch viele ältere Spiele, aber auch bei den neueren wie Anno 1800 ist man in den kritischen Situationen in cpu Limit... Cities Skylines...Planet Zoo... Prison architect...total war spiele...usw.

Und die Radeon VII ist für 1440p nicht gerade üppig schnell.... Ich muss für viele neue Shooter/RPGs/Aktion Spiele die Settings senken um auf angenehme FPS zu kommen.

Metro, tomb Raider, KcD.... Gibt natürlich viele Spiele, die GPU limitiert sind..... Aber eben längst nicht alle.

Und gegen ein GPU Limit kann man in der Regel gut mit geringeren settings arbeiten und so spielbare FPS erreichen.

Hat ein CPU limitierten Spiel schlechte FPS, ist der Spielraum in der Regel klein und man muss sich mit Rucklern oder träger Steuerung abfinden.
 
  • Gefällt mir
Reaktionen: Der Paule
Ned Flanders schrieb:
und @Baal Netbeck

Der Effekt auf die CPU Last ist unabhängig vom Seitenverhältnis. Sie sinkt mit zunehmender Auflösung.
Auch hier tut es dies nicht.
Die CPU Leistung ist unabhängig der GPU- Leistung.

Messreihe:
320x200
1590093999671.jpeg


640x400
1590094021018.jpeg


800x600
1590094048268.jpeg


1280x720
1590094094271.jpeg


1440x817
1590094399746.png

Ergebnis:
320x200 = 1318 FPS
640x400 = 1315 FPS
800x600 = 1315 FPS
1280x720 = 1368 FPS
1440x817 = 1393 FPS

Wie immer Quick und Dirty. Kein wissenschaftlicher Anspruch. Messungenauigkeiten sind sicher drin, da ich auch hier mein System nicht "sauber" laufen lasse.
Allerlei Tasks und Mist im Hintergrund.

Ab 1440x900 begrenzt bei meiner 2080TI lt. Debugger die VRAM- Pipeline, obwohl die GPU noch genügend Luft hätte. Die GPU begrenzt hier nicht, sondern die Speicherbandbreite oder Speicherlatenz der GPU.

Also auch hier- Ganz normales Verhalten. Wenn die GPU nicht begrenzt, schiebt die CPU konstant Leistung.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: ALPHA-S, simosh, LukS und 4 andere
ZeroZerp schrieb:
Also auch hier- Ganz normales Verhalten. Wenn die GPU nicht begrenz, schiebt die CPU konstant Leistung.

Merci...

Und wie sieht's aus wenn du ins GPU/GraKa Limit kommst ? Sinkt die CPU Last dann wie bei mir? Das ist ja der Interessante Punkt...
 
Linmoum schrieb:
Sehr sicher nicht vor 2022 und preislich wird das auch alles andere als schön für eine Weile. ;)

Also quasi mit Ryzen 5xxx und Intel irgendwas nach Rocket Lake...
 
alteseisen schrieb:
Ryzen 4000 für Desktop soll auf alle Fälle eine neue Speicheranbindung mit 2GHz bekommen, dann sind 4GHz-RAM Bausteine synchron (!) kein Problem mehr. Was asynchron dann noch rauszukitzeln möglich ist wird man sehen.

Wenn's wie bei Rezen 3000 ist sind bis zu ca. 2100MHz synchron möglich. Dadurch wären 4200MHz Module optimal. Mein 3700X geht bis 1900MHz.
 
Ned Flanders schrieb:
Merci...

Und wie sieht's aus wenn du ins GPU/GraKa Limit kommst ? Sinkt die CPU Last dann wie bei mir? Das ist ja der Interessante Punkt...
Ja- Sinkt...
Die CPU versucht die Daten durchzudrücken, kommt aber nicht mehr durch und schiebt idle- cycles ein.
Ist bei mir, wie bei dir. Ist aber auch logisch, weil sie eben den ewig gleichen Datensatz nicht mehr so oft liefern muss...

Übertakte mal Deinen VRAM- Dann siehst Du, wo der Bottleneck liegt...

LG
Zero
 
Wadenbeisser schrieb:
Wenn das Teil nicht deutlich gedrosselt werden soll frißt es so viel wie die derzeitige Threadripper Generation bei nicht ansatzweise vergleichbarer Leistung.

Das ist abhängig von den Einstellungen, die man setzt. Viel frisst die CPU nur wenn man sie lässt, ansonsten ist sie noch halbwegs sparsam und kommt an einen auf 105 Watt gedrosselten 3900x heran.

Ich würde mich jedenfalls für den 10900K anstatt für den 3900x entscheiden, aber momentan habe ich beide CPUs und kann jeweils deren Vorteile nutzen.
 
Das beisst sich jetzt aber mit der Annahme alle CPUs würden immer Volllast laufen unabhängig vom GraKa bottleneck, nicht? Unter teilweisem GPU bottleneck wirds dann kompliziert.
 
  • Gefällt mir
Reaktionen: .Sentinel.
Ned Flanders schrieb:
Yo, aber da man ja immer irgendwie im GPU Limit spielt und sich das Takt und Turboverhalten von CPUs, sowie die Größe und Geschwindigkeit des Caches unterscheiden würde sich das dann eben nicht mehr linear verhalten und eine CPU-X kann unter teilweisem GPU Limit ganz anders skalieren als eine CPU-Y, als dies in einem rein CPU limitierten Bench den Anschein hat.

Wichtiger Punkt. Mit einem GPU Limit kappst Du immer die Leistungsspitzen einer CPU weg. Die min FPS oder 99tel werden im Normalfall auch in Auflösungen jenseits der 1080P durch schnelle CPUs noch nach oben gedrückt.
Von den Dips der Streaming- Engines bei Zellwechsel mal ganz zu schweigen...
Da bleibt I/O und Latenz alles. (PS5/ neue XBOX ick hör Dir trapsen...)
AMD holt da viel (konstruktonstechnisch und die- space- mäßig teuer erkauft) durch große Caches raus.

LG
Zero
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Baal Netbeck und Ned Flanders
Genau, und da die CPUs ein unterschiedliches Boostverhalten haben (neben anderen Faktoren) kann man nicht mehr in den Bereich Teilllast schließen. Möglich gar, dass die min FPS von CPU X im GPU Limit über die steigen die man vorher noch im reinen CPU Limit unter Volllast gemessen hatte.

Schön das wir uns einig werden.

Das ganze wird sehr kompliziert... auch wenn man die GPU mal als Wärmequelle noch garnicht mit in die Gleichung einbezieht, gegen deren Effekt unsere Diskussion vermutlich eh völlig akademisch ist.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: .Sentinel.
Zurück
Oben