Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsAMD vs. Intel: Ryzen 7 9800X3D in 17 Tagen, Ryzen 9000X günstiger
Ich hätte auch nichts gegen einen 16 Core ohne HT dafür minimal günstiger und jeweils mit l3 cache. Die würde ich dann 9285 K Ultra unLimited Edition nennen
Interessanter sind meiner Meinung nach aber auch eher die minimalen FPS.
Ein Age of Empires 4 geht z.B. vom 5800X zum 7800x3d von 71 auf 103 minimale FPS hoch in 4k.
Bei Cyberpunk kein Unterschied. https://www.techpowerup.com/review/amd-ryzen-7-7800x3d/22.html
Du kannst unter deinem eigenen Link sehen, dass die Min-FPS für AoE 4 in 1080p und 4K praktisch identisch sind:
Was bringt dir der 4K Benchmark nun für einen Mehrwert? Absolut keinen! Spoiler: in 720p hättest du ebenfalls die exakt gleichen Min-FPS.
Squido schrieb:
Es ging hier explizit um 4K Performancegewinn mit einer 4090!
Ich habe die Benchmarks entsprechend verlinkt, ich weiß nicht was du mir da mit den CB Tests andichten willst.
Wo ist da irgendwas diskussionswürdig? Du kannst oben sehen, dass die Ergebnisse genau die gleichen sind, was den 4K-Benchmark komplett überflüssig macht, aber das willst du entweder einfach nicht einsehen, oder du verstehst den Sinn eines CPU-Tests nicht, trotzdem du hier nun schon fast 19 Jahre lang angemeldet bist.
Du willst mir jetzt nicht ernsthaft die 2-3 FPS Unterschiede als "anderes Delta" verkaufen oder?
Ich lasse jetzt einfach mal diesen Link da, mehr gibt es da nicht zu sagen. Wenn du lieber weiter TPU 4K "CPU-Benchmarks" anschauen willst, die eigentlich GPU-Benchmarks sind, dann mach das einfach, ich bin raus.
ich sehe da 90 FPS Unterschied beim 7800X3D bei Battlefield und nur 10 beim 5800X zwischen beiden Auflösungen.
Ich weiß absolut was du mir beweisen willst. Mittlerweile interessiert es mich auch nicht mehr.
Es ging hier ursprünglich um die Frage, was man für einen Performancegewinn in 4K erwarten kann, wenn man von einem 5800x mit 4090 seine CPU aufrüstet. Auch wenn Du jetzt einfach etwas anderes behauptest um recht zu bekommen.
Etwas praxisnaheres als einen 4K Benchmark mit eben jener Grafikkarte gibt es nicht. Irgendwann hat dann jemand angefangen meine Beiträge aus dem Zusammenhang zu reißen, oder nur auf einzelne Sätze zu antworten, weil wahrscheinlich nicht richtig gelesen wurde, oder das einfacher zu argumentieren war. Und dann sind wir hier gelandet.
@Squido Ich sehe da, bei der gleichen CPU, auch Min-FPS in 4K die höher ausfallen als in 1080p. Macht Sinn? Nein, macht absolut keinen Sinn. Wenn du an diese Ergebnisse glaubst, dann glaubst du auch an den Weihnachtsmann. Lies den PCGH-Link den ich gepostet habe, oder lass es. Wie gesagt, ich bin an der Stelle raus.
Squido schrieb:
Auch wenn Du jetzt einfach etwas anderes behauptest um recht zu bekommen.
Dir sind schon die ganzen anderen User hier aufgefallen, die dir ebenfalls genau wie ich geantwortet haben? Könnte das vielleicht an deinen Aussagen liegen?
Squido schrieb:
Etwas praxisnaheres als einen 4K Benchmark mit eben jener Grafikkarte gibt es nicht.
Das ist nicht praxisnah, weil es einen sinnlosen Mehraufwand bedeutet. Die gleichen Infos kannst du auch anders bekommen. Schau dir einfach an wie viele FPS die 4090 in Spiel A in 4K liefern kann, dann schaue wie viele FPS die CPUs in Spiel A in 720p liefern können und schon hast du genau das was du willst. Wenn die 4090 in 4K in Spiel A weniger FPS liefert, als deine aktuelle CPU in 720p, dann ist ein Upgrade der CPU für die 4090 und dieses eine Spiel sinnlos, so einfach ist das. Wozu brauchst du da nun einen 4K CPU-Test? Damit du nicht selbst beim entsprechenden Spiel nachschauen musst, wie viele FPS die 4090 dort liefern kann? Sollen sich CB, PCGH und co. einen riesen Aufwand machen, weil du dir den entsprechenden Spiele-Test mit Grafikkarten Benchmark nicht selbst raussuchen willst?
Wer glaubt mit einem CPU-lastigem Spiel wie Age of Empires 4, welches bereits unabhängig von der Auflösung die CPU durch die vielen Einheiten die berechnet werden müssen sehr viel mehr belastet als viele andere Spiele, irgendwas bewiesen zu haben, weiß sowieso nicht wovon er redet.^^
Nein. Das macht faktisch gesehen keinen Sinn. Man will ja sehen was die CPU im Gesamten kann.
Ein CPU Benchmark in 4k wäre genauso sinnvoll wie ein GPU Benchmark in 720p.
Es ist einfach unfassbar das es immer noch (zum Glück wenige!!) Leute gibt die einfach wirklich gar nicht wissen wovon sie reden aber Recht behalten wollen. Eigenartig.
Du stellst die Settings also immer genauso ein wie in deinem verlinkten Test. (3840x2160) TAA und lässt die FPS Höhe alleine von CPU oder GPU Limit bestimmen, was in 4K meistens die GPU ist, je nachdem welche CPU man hat. Bei einem 5800X, der mittlerweile schon recht langsam ist, würde ich das stark bezweifeln.
Du hast also kein FPS Ziel in Spiel XY, was du als flüssig empfindest und du erreichen willst, wie viel FPS du bekommst bestimmt alleine dieser eine Test mit dieser einen GPU in diesen einen im Test ausgewählten Setting (high oder ultra, RT on oder off?) mit wahrscheinlichem GPU Limit. Das ist weit entfernt von jeder Spiele-Praxis, denn heute spielt kaum jemand nativ in 4K, sondern eher mit Upscaling und WQHD oder Full HD und auch nicht allem auf ulltra bzw. genauso wie im aufgerufenen Test was diese ganze 4K CPU Testerei ad absurdum führt.
Man testet in den jeweiligen Limits, verkleinert den Testaufwand und liefert alles was man wissen muss.
Wieso einige Websites und Youtube Kanäle immer noch CPUs mit Auflösungen in Verbindung bringen, obwohl einer CPU die Auflösung egal ist, raff ich nicht.
Es fragt auch keiner bei Cinebench in welcher Monitorauflösung getestet wurde.
Moment mal Leute, es geht hier explizit um die Frage, wie viel Performancegewinn man in 4K erwarten kann.
Nichts anderes beantworten die Diagramme von techpowerup.
Nein, die zeigen dir eben nicht wie viel du erwarten kannst, wenn du nicht in diesem FPS Bereich spielst.
Das ist weit entfernt von praxisrelevant, wenn ich 4K voll aufgedreht ohne Upscaling mit 36FPS benche, weil so niemand spielt.
Cyberpunk in 4K mit Pathtracing wird idR mit DLSS Balanced gespielt, dann bist du schon wieder eher bei 80FPS, wo du wissen solltest, ob deine CPU diese schafft.
Und das erfährst du in einem 720p CPU Test.
Ich kann auch in 4K kann meine Settings so einstellen, dass ich auf 120FPS komme, und der CPU ist die Auflösung egal, daher ist die Aussage "bringt nichts in 4K" Unsinn.
Und wenn die 4090 ohne DLSS in "4K", sagen wir mal ultra inkl. RT nur 20 FPS schafft, kannst du dir auch ein Bulldozersystem für 20 Mark aufsetzen. Oder man testet alle CPUs in 8K, dann langt auch ein Pentium 4 für 3 FPS.^^ Das ist natürlich jetzt eine extreme Zuspitzung um dir zu verdeutlichen, dass deine Überlegung dir die FPS von einem GPU Limit in "4K" in den Einstellungen von deiner Website diktieren zu lassen, nicht besonders sinnig ist. Das ist auch der Grund, warum man keine CPUs in verschiedenen "Auflösungen" testet, weil es das nicht gibt.
Das ist natürlich jetzt eine extreme Zuspitzung um dir zu verdeutlichen, dass deine Überlegung dir die FPS von einem GPU Limit in "4K" diktieren zu lassen, nicht besonders sinnig ist.
Warum diskutiert ihr das eigentlich so Seiten lang?
Benches in 720p zeigen theoretische Vorteile der CPU, was vielleicht darauf hindeutet, dass man zukünftig eine zusätzliche CPU-Generation auslassen kann.
Benches darüber -in der Auflösung , in der man eben spielt - zeigen, welchen praktischen Vorteil man von der CPU schon heute erwarten kann, ohne das man das als Leser selbst ableiten muss
Für mich hieße das: wenn alle CPUs unter 4k gleich performen (was im GPU-Limit absolut erwartbar ist), gucke ich in die 720p Benches, um etwaige theoretische Vorteile zu sehen. Sollten die CPUs gleich viel Kosten, würde ich mich ggf. für die CPU entscheiden, die unter 720p mehr leistet. Sind es dort nur wenige % weniger FPS, aber die Anwendungsleistung ist besser, würde ich ggf. auch die unter 720p langsamere CPU nehmen.
Mein Fazit: man kann sich schon beides angucken, um ein rundes Gesamtbild zu bekommen. Bei 4k sollte man evtl. die 1% Percentil-Ergebnisse mehr gewichten.
Mich wundert nicht, dass die non x3d 9000er sich schlecht verkaufen.
Teure Mainboards, für Spieler nicht so doll und x3d war ja schon seit nicht als zu lange nach Release absehbar, dass sie kommen würden. Von daher bin ich nicht sicher, ob eine weitere Preis-Reduzierung hier überhaupt helfen würde, da die Mainboards dafür auch im Preis gut nach unten müssten.
Sollten die x3d aber gut werden, dürften sich diese wahrscheinlich deutlich besser verkaufen, wenngleich es hier dann an "günstigeren" Modellen aka 9700/9600x3d fehlen wird, was die Zielgruppe auch hier limitiert.
Bestes Bild seit langem! Geniales Fundstück!
15% über 5 Gens und da wurde, wie du sagst, auch fleißig geupgraded. Und nicht zu vergessen, alle 2 Gens ein neues Board