Test High-End-Benchmark-Duell: Ryzen 9 7950X und Core i9-13900K spielen auf RTX 4090

Helge01 schrieb:
Warum nicht? Nur weil man das Geld für Hardware hat bedeutet das nicht, dass man mit Geld grundsätzlich verschwenderisch umgeht.

Gleicher Trugschluss wie bei den Autos.
Na wer sichp n Golf r leisten kann den juckt auch der Sprit nicht.
Ähm doch
 
  • Gefällt mir
Reaktionen: .Sentinel.
An dem Test kann man wieder schön sehen, wer in UHD zockt, braucht eine kompetente Grafikkarte, wie die RTX 4090, der Prozessor spielt nur eine untergeordnete Rolle und ist zu vernachlässigen. Wer also nicht Rendert und ständig mit Videobearbeitung zu tun hat, dem reicht in der UHD Auflösung ein i5 der Alder Lake oder Raptor Serie oder ein entsprechenden Gegenstück von AMD Ryzen der Generation 5XXX oder 7XXX! 🤔
 
  • Gefällt mir
Reaktionen: MegaManX4
branhalor schrieb:
Naja - also von nem "Gaming-Abseits" würde ich jetzt nun nicht sprechen.
Für mich sieht das eher nach dem üblichen und von uns Verbrauchern eigentlich gewünschten Schlagabtausch aus: Eine Generation ist Intel besser, in der nächsten AMD, dann wieder Intel... laß es auch mal zwei Generationen am Stück sein. Aber gleich von "Abseits" zu sprechen, finde ich übertrieben.
Ach das ist normal hier. Da wird zerstört, der Boden gewischt, kein Land mehr gesehen etc. und dann gehts um paar Prozent Punkte.

So wie viele hier immer reden, müsste man meinen, sobald etwas neues rauskommt, was paar % mehr FPS liefert, kann man mit den Vorgängern absolut nicht mehr spielen.
 
  • Gefällt mir
Reaktionen: Viper816, karl_laschnikow, Octa und 16 andere
kicos018 schrieb:
Wo ist diese eine Person, die noch in 720p spielt?
Wo ist diese Person die den Begriff CPU Limit noch nicht verstanden hat?
 
  • Gefällt mir
Reaktionen: Skript, firemon, simosh und 7 andere
MrHeisenberg schrieb:
Frage an dich: Wenn du dich für eine der beiden CPUs entscheiden müsstest, würdest du das abhängig von der 4K oder 720p Leistung machen? (Von den anderen Faktoren wie Verbrauch etc. mal abgesehen)
720p natürlich.

Es geht doch einfach nur darum, dass mich gleichzeitig interessieren kann, was die CPUs in den höheren Auflösungen verbrauchen, wenn sie eben nicht am Limit arbeiten, so wie sie bei mir dann auch tatsächlich laufen werden.

Und je nachdem was dabei rauskommt, kann ich damit auch einen eventuellen Leistungsvorsprung in 720p ignorieren, wenn dafür bei der langsameren CPU die Verbräuche in meiner Auflösung deutlich niedriger sind.
 
  • Gefällt mir
Reaktionen: Celinna und MrHeisenberg
Hmm, ich stelle mir hier die Sinnfrage: Memory nach Spec, wer kauft das zur Highend CPU ? Unrealistisch. In sämtlichen anderen Magazinen die schnelleres Memory (für beide Seiten) nutzen kommt der AMD deutlich näher dran.

So oder so sollte AMD bei Zen 5 in Sachen IPC nachlegen, Zen 4 holt die Leistung ja massgeblich aus relativ hohem Takt. Dazu noch grösseren L1/2 Cache + L3 um Memory Latenzen abzufedern - dann wird auch 3D Cache halbwegs überflüssig.
 
Intel schafft es trotz mangelndem Fortschritt immer wieder etwas besser zu sein. Irgendwie würde ich es ihnen gönnen, so richtig abzulosen, passiert aber nicht.
 
Pixelhomie schrieb:
Wer sich eine RTX 4090 samt passender CPU in den Rechner packt sollte das wohl kaum interessieren.
Sehe ich genau so, zumindest wenn es um die Kaufentscheidung geht. Interessant zu wissen wäre es trotzdem.
 
die 720p haben nur symbolischen Charakter und werden in der Realität niemals angewendet. FullHD finde ich dort schon interessanter, da sehr viele diese Auflösung (Steam Charts) noch verwenden.

mein Favorit ist mit Abstand der 5800x3d (schade das der nicht vorkommt, dass ist die absolute Top Spiele CPU)
-geringer preis
-geringere leistungsaufnahme
-sehr hohe spieleleistung
 
  • Gefällt mir
Reaktionen: Celinna und janer77
Ergibt die Veröffentlichung eines solchen Tests auf Windows 11 momentan wirklich Sinn, nachdem CB erste gestern gemeldet hat, dass AMD Performanceabweichungen zwischen Win 10 und Win 11 untersucht?
 
  • Gefällt mir
Reaktionen: Viper816
  • Gefällt mir
Reaktionen: Viper816
ThirdLife schrieb:
So oder so sollte AMD bei Zen 5 in Sachen IPC nachlegen, Zen 4 holt die Leistung ja massgeblich aus relativ hohem Takt. Dazu noch grösseren L1/2 Cache + L3 um Memory Latenzen abzufedern - dann wird auch 3D Cache halbwegs überflüssig.
Überflüssig wird er auch dann nicht werden.
Selbst wenn Zen4 +25% IPC draufgelegt hätte, würde der 3D Cache nach wie vor die gleiche Steigerung draufpacken, weil die Latenz ja nach wie vor ein limitierender Faktor ist.
Überflüssig würde er, wenn wir <20ms Speicherlatenzen hätten^^
 
Taxxor schrieb:
Überflüssig wird er auch dann nicht werden.
Selbst wenn Zen4 +25% IPC draufgelegt hätte, würde der 3D Cache nach wie vor die gleiche Steigerung draufpacken, weil die Latenz ja nach wie vor ein limitierender Faktor ist.
Darum ja mehr L1/2/3 Cache ab Werk anbieten ohne Stacked V-Cache. Dafür profitieren dann halt auch 6, 12 und 16 Kerner davon statt eine einzige CPU im Portfolio.
 
GERmaximus schrieb:
Wo ist diese Person die den Begriff CPU Limit noch nicht verstanden hat?
Konversation bitte nochmal lesen. Es ging ganz klar um das Performancerating von 4K und den einhergehenden Leistungsaufnahmen. Also das, was in der realen Welt passiert.
 
ThirdLife schrieb:
Darum ja mehr L1/2/3 Cache ab Werk anbieten ohne Stacked V-Cache.
Der Stacked V Cache ist doch nichts anderes als mehr L3 anzubieten.
Ohne Stacking geht das auch ab Werk nicht, oder willst du die Chiplets nochmal 66% größer machen für die 64MB die ja irgendwo hin müssen?

Zen5 dürfte mit V-Cache ab Werk kommen, vermute ich.
Gemunkelt wird ja auch, dass dieser gleichzeitig einen Interconnect zwischen den CCDs darstellen soll.
 
  • Gefällt mir
Reaktionen: Cruentatus
crackett schrieb:
Von Hardware-Encoding war nie die Rede, also wie kommst Du überhaupt auf das schmale Brett? Wenn ich in Hardware encoden will, nehme ich ohnehin VideoToolbox 😉

Handbrake kann nur GPU (Hardware-Encoding) oder CPU. Handbrake nutzt das gleiche wie FFMPEG
Da wird nichts per OpenGL, CUDA oder OpenCL berechnet.
 
wern001 schrieb:
Die eigenen Filme lässt man per CPU umcodieren. CPU sieht besser aus und ist auch kleiner bei gleichen Qualitäts Einstellungen.
Muss seit Turing ganz klar verneint werden. Die H.264 und H.265 Encodierung per GPU steht der massiv langsameren CPU Encodierung in so gut wie nichts nach. Wenn überhaupt sind minimale Unterschiede im Direktvergleich sichtbar, bei einem Blindtest definitiv nicht.
 
Erstmal vielen Dank für den Test @Wolfgang .

Ich bin überrascht, wie deutlich der Unterschied in 4k ist. Ich gehe mal davon aus, dass der Test wiederholt wird, wenn die neuen Zen4 3D verfügbar sind.
 
Zuletzt bearbeitet: (Rechtsschreibkorrektur)
Naja, jetzt wissen die 1 oder 2% der 4090 Käufer, dass eine schnelle Intel CPU im Rechner stecken sollte.
Für die restlichen 99% der User ist der Test mehr oder weniger irrelevant 😊, da bei der Leistung der 4090 überhaupt kein Bezug zu irgendetwas anderem am Markt besteht.
Die 4080 mit ihren 1600 Euro und der verhältnismäßig geringen Leistung wird daran auch nichts ändern.
 
Zurück
Oben