Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
TestCore i9-10900K und i5-10600K im Test: Eine Frage des Limits
Wie gesagt AMD hatte einfach kein HighEnd zu der Zeit, genau wie man zur Zeit von RX480 und RX580 kein HighEnd hatte.
Die Tatsache, dass die beiden Karten das beste waren was AMD zu der Zeit hatte, bedeutet nicht, dass sie zu vergleichen sind mit Big Navi der dann wieder 3 Klassen höher mitspielt
Yo, aber da man ja immer irgendwie im GPU Limit spielt und sich das Takt und Turboverhalten von CPUs, sowie die Größe und Geschwindigkeit des Caches unterscheiden würde sich das dann eben nicht mehr linear verhalten und eine CPU-X kann unter teilweisem GPU Limit ganz anders skalieren als eine CPU-Y, als dies in einem rein CPU limitierten Bench den Anschein hat. Das ist ja der Kern des Ganzen. Wie aber Zero erklärt hat, sollte das nicht der Fall sein weil die CPU, unabhängig von der Auflösung und Last der GraKa einfach frist was sie bekommen kann und immer die gleiche Last hat.
Mal GPU als Heizung im Gehäuse und sich daraus ergebende Unterschiede ganz außen vor. Das wird sonst zu kompliziert in der Betrachtung.
Wie gesagt AMD hatte einfach kein HighEnd zu der Zeit, genau wie man zur Zeit von RX480 und RX580 kein HighEnd hatte.
Die Tatsache, dass die beiden Karten das beste waren was AMD zu der Zeit hatte, bedeutet nicht, dass sie zu vergleichen sind mit Big Navi der dann wieder 3 Klassen höher mitspielt
Sie waren aber schneller als von vielen gedacht. Der FX tut hier gut seinen Dienst und das seit bald 9 Jahren. Ich bezweifle, dass man mit Reisen so lange hin kommt.
Ich werde den FX so lange behalten, bis AMD die Reisen 9 für 200€ anbietet oder Intel die i9 für 300€.
Dann setz dir im Bios doch ein AVX Offset bzw eine TDP Grenze, dann hast du auch keine 250 Watt Verbrauch, solltest du wieder eine Runde Prime 95 zocken.
Hört hört, die Kompetenz in Person nur wäre es doll gewesen wenn sie dann auch mal den Test gelesen hätte denn da lag der Core i9-10900K auch ohne AVX (Cinebench 20) bei kuscheligen 287W, mit AVX kam der Cut bei 311W.
OK das bezog sich auf das Gesammtsystem aber ziehen wir den Idle Verbrauch ab bleiben immernoch gute 240W übrig.
Das Teil ist sowas wie die Neuauflage der FX-9000 Serie, nur eben mit lausiger Multicore satt Singlecore Performance.
Wie aber Zero erklärt hat, sollte das nicht der Fall sein weil die CPU, unabhängig von der Auflösung und Last der GraKa einfach frist was sie bekommen kann und immer die gleiche Last hat.
Nicht so ganz, es kann schon Unterschiede zwischen den GPUs geben in Verbindung mit unterschiedlichen CPUs.
Nur weil zwei CPUs im absoluten CPU Limit mit einer 2080Ti gleich schnell sind bedeutet das nicht automatisch, dass man mit der Kombination aus RTX2060 und der jeweiligen CPU auch die gleichen fps erhält, weil sie sich unterschiedlich im GPU Limit verhalten können.
Igor hatte dazu ja Mal ne Messereihe gepostet, die Unterschiede belaufen sich zwischen 1 und 5%
Ergänzung ()
DavidG schrieb:
Sie waren aber schneller als von vielen gedacht. Der FX tut hier gut seinen Dienst und das seit bald 9 Jahren. Ich bezweifle, dass man mit Reisen so lange hin kommt.
Sie waren nicht schneller als von vielen gedacht, genau umgekehrt, viele dachten sie wären schneller und wurden dann enttäuscht.
Und natürlich kann man Ryzen solange nutzen, warum sollte man es auch nicht?
Da man ja jetzt schon nah an der Spitze ist mit der Leistung kann man ihn sogar potenziell sehr viel länger nutzen als einen 6100, der zu Release schon 2 Generationen hinterher war.
Einen 2600K könnte man sehr viel länger nutzen.
Das einzige, was Bulldozer in den Jahren nach Release geholfen hat war, dass die Unterstützung für mehr als 4 Threads so langsam gekommen ist.
Bei Ryzen sieht das nicht anders aus, wir sind gerade in der Phase, wo vermehrt auch Mal mehr als 8-12 Threads angesprochen werden, für Fläche deckende Verbreitung dauets noch jahre. Ryzen bietet auch hier schon mehr.
Wenn jemand mit deinen scheinbar sehr niedrigen Ansprüchen sich heute einen 3300X für 130€ kauft, kann er den auch 2030 noch verwenden.
DavidG schrieb:
Ich werde den FX so lange behalten, bis AMD die Reisen 9 für 200€ anbietet oder Intel die i9 für 300€.
Nur, dass die CPU eben auch Leistung liefert und nicht wie der FX9590 untergeht und in Cinebench 170 Watt mehr als die schnellere Konkurrenz verbraten hat, sondern nur 60 oder 70 Watt, je nach Test.
Aber ihr spielt ohnehin nur Prime 95, Blender und Co - für 56 Sekunden.^^
Die Spiele-Leistungsaufnahme liegt nur 20 bis 30 Watt höher, in Teillastbereichen ist der Intel auch sparsamer wie man bei Igors Lab sehen kann. Ganz so schlimm ist es nun auch wieder nicht.
Ähm nein, eben nicht.
Wenn das Teil nicht deutlich gedrosselt werden soll frißt es so viel wie die derzeitige Threadripper Generation bei nicht ansatzweise vergleichbarer Leistung. Schnell ist das Teil nur im Teillast Bereich, also bei der Singlecore Performance.
Also ich weiß nicht was du so spielst... Und mit welcher Grafikkarte, aber ich habe einige Spiele, wo die Grafikkarte trotz 1440p nie das Limit ist.
Ich spiele zwar noch viele ältere Spiele, aber auch bei den neueren wie Anno 1800 ist man in den kritischen Situationen in cpu Limit... Cities Skylines...Planet Zoo... Prison architect...total war spiele...usw.
Und die Radeon VII ist für 1440p nicht gerade üppig schnell.... Ich muss für viele neue Shooter/RPGs/Aktion Spiele die Settings senken um auf angenehme FPS zu kommen.
Metro, tomb Raider, KcD.... Gibt natürlich viele Spiele, die GPU limitiert sind..... Aber eben längst nicht alle.
Und gegen ein GPU Limit kann man in der Regel gut mit geringeren settings arbeiten und so spielbare FPS erreichen.
Hat ein CPU limitierten Spiel schlechte FPS, ist der Spielraum in der Regel klein und man muss sich mit Rucklern oder träger Steuerung abfinden.
Wie immer Quick und Dirty. Kein wissenschaftlicher Anspruch. Messungenauigkeiten sind sicher drin, da ich auch hier mein System nicht "sauber" laufen lasse.
Allerlei Tasks und Mist im Hintergrund.
Ab 1440x900 begrenzt bei meiner 2080TI lt. Debugger die VRAM- Pipeline, obwohl die GPU noch genügend Luft hätte. Die GPU begrenzt hier nicht, sondern die Speicherbandbreite oder Speicherlatenz der GPU.
Also auch hier- Ganz normales Verhalten. Wenn die GPU nicht begrenzt, schiebt die CPU konstant Leistung.
Ryzen 4000 für Desktop soll auf alle Fälle eine neue Speicheranbindung mit 2GHz bekommen, dann sind 4GHz-RAM Bausteine synchron (!) kein Problem mehr. Was asynchron dann noch rauszukitzeln möglich ist wird man sehen.
Ja- Sinkt...
Die CPU versucht die Daten durchzudrücken, kommt aber nicht mehr durch und schiebt idle- cycles ein.
Ist bei mir, wie bei dir. Ist aber auch logisch, weil sie eben den ewig gleichen Datensatz nicht mehr so oft liefern muss...
Übertakte mal Deinen VRAM- Dann siehst Du, wo der Bottleneck liegt...
Wenn das Teil nicht deutlich gedrosselt werden soll frißt es so viel wie die derzeitige Threadripper Generation bei nicht ansatzweise vergleichbarer Leistung.
Das beisst sich jetzt aber mit der Annahme alle CPUs würden immer Volllast laufen unabhängig vom GraKa bottleneck, nicht? Unter teilweisem GPU bottleneck wirds dann kompliziert.
Yo, aber da man ja immer irgendwie im GPU Limit spielt und sich das Takt und Turboverhalten von CPUs, sowie die Größe und Geschwindigkeit des Caches unterscheiden würde sich das dann eben nicht mehr linear verhalten und eine CPU-X kann unter teilweisem GPU Limit ganz anders skalieren als eine CPU-Y, als dies in einem rein CPU limitierten Bench den Anschein hat.
Wichtiger Punkt. Mit einem GPU Limit kappst Du immer die Leistungsspitzen einer CPU weg. Die min FPS oder 99tel werden im Normalfall auch in Auflösungen jenseits der 1080P durch schnelle CPUs noch nach oben gedrückt.
Von den Dips der Streaming- Engines bei Zellwechsel mal ganz zu schweigen...
Da bleibt I/O und Latenz alles. (PS5/ neue XBOX ick hör Dir trapsen...)
AMD holt da viel (konstruktonstechnisch und die- space- mäßig teuer erkauft) durch große Caches raus.
Genau, und da die CPUs ein unterschiedliches Boostverhalten haben (neben anderen Faktoren) kann man nicht mehr in den Bereich Teilllast schließen. Möglich gar, dass die min FPS von CPU X im GPU Limit über die steigen die man vorher noch im reinen CPU Limit unter Volllast gemessen hatte.
Schön das wir uns einig werden.
Das ganze wird sehr kompliziert... auch wenn man die GPU mal als Wärmequelle noch garnicht mit in die Gleichung einbezieht, gegen deren Effekt unsere Diskussion vermutlich eh völlig akademisch ist.