Test AMD Ryzen 9 7950X3D im Test: King of the Gaming-Hill

rafiibs schrieb:
Ein Lichtjahr ist keine Zeitspanne

+1 Ignore - da nicht mit Fakten argumentiert wird - es wird der Fakt der minderwerigen schlechteren Fertigungsverfahren von Intel total ignoriert. Deshalb ist auch der Verbrauch offensichtlich höher.

Mag sein. Aber DEUTSCH ist ungenau. So wie Kohlenhyradte - Zucker usw. falsch bezeichnet oder verwendet werden im Alltag. Im Alltag wird Deutsch vieles Dumm benutzt wie Gendern usw. das I in Wörtern Groß geschrieben, dass mit 2 s, usw. siehe neue Deutsche rechtschreibugn, gendern, usw.

Ein Jahr ist ein Jahr - eine Zeiteinheit.
 
Auszug aus Wikipedia:

Das Lichtjahr ist ein Längenmaß, .... . Da die Bezeichnung das Wort „Jahr“ enthält, wird das Lichtjahr manchmal fälschlicherweise als Zeiteinheit interpretiert.
 
  • Gefällt mir
Reaktionen: Kai85, Hal14, DonPor und 2 andere
Tomi_92 schrieb:
Hahaha ich weiß schon wieso man im 720p testet. Aber das hat absolut nichts mit der Realität zu tun!
Nochmal, die CPU ist für die eingeblendete AVG FPS Zahl bei deinem Spiel völlig uninteressant. Für einen flüssigen Spielablauf hingegen schon. Ob es flüssig ist, hat mit der AVG FPS Zahl rein gar nichts zu tun.
Dein Problem ist, dass du auf die FPS Zahl fixiert bist und deswegen den Test nicht verstehst. Relevant ist aber, wie die Frametime Verläufe sind.
Tingel schrieb:
Es gibt durchaus Spiele, welche auch in 4k von einem 3D cache profitieren, da würde ein 4k Benchmark also sehr viel Sinn ergeben
Wenn der 3D Cache, dieser CPU, etwas bringt, dann bringt er einen Vorteil in egal welcher Auflösung. Je nachdem, wie stark das CPU Limit ist, kann man das bei Einzelfällen AUCH in den AVG FPS sehen.
Wenn unter 4K die GPU die größere Limitierung ist, kann die CPU aber auch einen deutlich spürbaren Vorteil für die flüssige Darstellung bringen, da die Frametimes besser werden, was man dann aber nicht in den AVG FPS sehen kann, was der Grund ist, warum Tests in 4k halt keine verwertbaren Infos bringen.
 
  • Gefällt mir
Reaktionen: MaLow17
Also ich habe mir jetzt einen 7900X bestellt, den hatte ich bereits hier und war von dem total begeistert. Ich kann für mich den Mehrpreis ggü. den derzeitigen 3D Modellen nicht rechtfertigen. Selbst mein aktueller 7600X führt mich fast konstant an mein 115 FPS Gsync Cap, mehr brauche ich nicht. Alles > 120 FPS sorgt bei meinem C1 für massives Tearing. Den 7900X behalte ich provisorisch. Ich warte noch den 7800X3D ab, da die CCD1 disabled Ergebnisse sehr vielversprechend sind.

Mir ist es letztendlich egal wie viele Kerne die CPU hat, da ich damit eh nur 3 Spiele zocke. In allen 3 Spielen profitiert der Cache.

Wenn ich dann jedoch diese Meldung hier sehe:

https://www.golem.de/news/ryzen-9-7...elt-erneut-hoch-mit-erfolg-2302-172228-5.html

Sieht man was passiert, wenn das Scheduling nicht korrekt funktioniert. Selbst im Mischbetrieb zwischen den CCDs verliert man noch 30 FPS im Vergleich zum reinen 1CCD Betrieb.

Ich selbst würde das beim 115 FPS Cap gar nicht bemerken das etwas nicht stimmt, habe aber den Preis bezahlt.

Mit dem 7800X3D umgehe ich das Problem komplett. Aufgrund von DDR5, ZEN4 und 5Ghz ist der auch in nicht Cache lastigen Spielen deutlich schneller als ein 5800X3D.

Auf einen potentiellen 8900X3D gehe ich, wenn das alles mal etabliert ist.
 
  • Gefällt mir
Reaktionen: Gortha und danyundsahne
Tingel schrieb:
das wird sich im Laufe der Zeit eher verstärken, da aktuelle Spiele besser auf die CPU optimiert werden, als das früher der Fall war.
Bei aktuellen Spielen wir überhaupt gar nichts für irgendwas optimiert. Vor allem nicht für die CPU.
Und komm mir jetzt nicht mit single core performance oder sowas.
Gerade multi core wird quasi gar nicht optimiert geschweige denn richtig genutzt..
 
  • Gefällt mir
Reaktionen: Cyberbernd
Tingel schrieb:
Ich finde es auch weiterhin lächerlich und fast schon Täuschung ausschließlich 720p Benchmarks zu zeigen und dann auch noch den "Gaming König" aufgrund dieser zu küren.

Wir hatten die Diskussion schon so oft und die Antwort ist so simpel: einfach in 720p UND 4k testen und alles ist klar. Kriegen andere problemlos hin, bei CB weiterhin Fehlanzeige.

Ich würde mir als Leser von CB sowas von verarscht vorkommen, wenn ich mir aufgrund dieser 720p Benchmarks einen X3D oder 13900K zulege und dann in meiner Konfig und meinen Spielen in meiner Auflösung keinerlei Vorteil sehe.

Für den durchschnittlichen Leser sind diese Benchmarks auch weiterhin nutzlos und verwirrend, da er/sie nicht in der Lage ist das Ergebnis korrekt zu beurteilen und auf die eigenen Bedürfnisse zu übertragen. Ich sehe solche Werte und finde sie auf theoretischer Ebene durchaus interessant, aber für mich persönlich ist die Aussagekraft absolut null, da ihr weder meine Spiele noch in meinen Einstellungen getestet habt.

Nur mal so als reales Beispiel: ich spiele derzeit mit Star Citizen und Escape from Tarkov zwei Spiele, die sehr stark von dem X3D profitieren und zumindest bei EfT kann ich das bestätigen. Bei SC habe ich aber derzeit deutlich weniger fps als ohne X3D und eine 7xxx CPU ohne X3D wäre trotzdem schneller, da eine höhere Taktfrequenz ähnlich viel wie der 3D cache bewirken kann.

Da die Fälle so unterschiedlich und speziell sind, finde ich es von CB einfach mies den 7950X3D als Gaming-King hinzustellen, wenn das einfach nicht der Realität der Meisten entspricht. Ja, es ist der 720p King, aber sonst auch nichts.

So, genug gemeckert, in Zukunft werde ich CPU-Tests bei CB einfach meiden.
Danke, das ist eben genau meine Gedanke!
 
Tingel schrieb:
Warum dann einen "Gaming King" küren und den Lesern suggerieren es wäre anders?
In der Computerbase Benchmarksuite ist der 7950X3D in dieser Realität aktuell der Benchmarkkönig.

Tingel schrieb:
Schon jetzt gibt es diverse Szenarien, wo der X3D keinerlei Vorteil hat, das wird sich im Laufe der Zeit eher verstärken, da aktuelle Spiele besser auf die CPU optimiert werden, als das früher der Fall war.
Da argumentiere ich gegen, das Verwendung des gesamten L2/L3 Cache einer CPU ein Merkmal guter Programmierung ist, statt diesen nicht zu nutzen.
Hardwareressourcen bei zeitkritischen Programcode brach liegen zu lassen ist Kennzeichen von schlechter Programmierung.
Da hat bsp. einfach jemand fixierte L2/L3 Werte für seine Engine genommen. Statt also ununterbrochen Speicherfehler (Hit-miss bei Cache) in Kauf zu nehmen hätte man ja erstmal die CPU fragen können wieviel Cache du den so abgeben kannst. Wenn man dann auf ein mal 64MB hat um jeden Mist zu buffern und nicht erst aus den RAM zu holen beschleunigt das unter Umständen enorm (und spart absurd viel Energie ein).

Tingel schrieb:
Warum dann einen "Gaming King" küren und den Lesern suggerieren es wäre anders?
Um deutlicher zu sein: Es ist ein CPU Test, bei dem CPU Leistung die Rolle spielt.
4k GPU Bottleneck interessiert zur Beurteilung der CPU Leistung nicht.
Es ist sehr einfach festzustellen ob man sich im GPU oder CPU Bottleneck befindet.

Und immer noch: zumindest aktuell ist der Gaming König in der Computerbase Suite der 7950X3D.
Warum? Weil er der schnellste in dieser Suite ist.

Tingel schrieb:
Es ergibt nur Sinn sich jetzt eine X3D CPU zu holen, wenn du sicher bist, dass du in deinen Spielen und Einstellungen einen Vorteil hast.
Die Aufgabe dieses Benchmarks ist das ermitteln der CPU Rankings. Diese Frage wird beantwortet.

Tingel schrieb:
Und leider sind die 720p Benchmarks alleine kein sehr gutes Mittel, um diese Frage zu beantworten. Der theoretische Vorteil kann in höheren Einstellungen/Auflösungen komplett verpuffen, oder gleich bleiben.
Es spielt im Rahmen der CPU Bewertung keine Rolle ob die CPUs im GPU 4k Bottleneck alle auf einer Stelle hängen oder nicht.
Erneut: Es geht um die CPU Leistung, nicht um die Leistung der Grafikkarte in 4k eines Gesamtsystems. Es geht hier auch nicht darum ob jemand nicht lieber eine Mittelklasse CPU kaufen sollte und statt dessen besser mehr in Grafikkarte stecken sollte.

Es geht um CPU Leistung.
 
  • Gefällt mir
Reaktionen: MaLow17
SavageSkull schrieb:
Nochmal, die CPU ist für die eingeblendete AVG FPS Zahl bei deinem Spiel völlig uninteressant. Für einen flüssigen Spielablauf hingegen schon. Ob es flüssig ist, hat mit der AVG FPS Zahl rein gar nichts zu tun.
Dein Problem ist, dass du auf die FPS Zahl fixiert bist und deswegen den Test nicht verstehst. Relevant ist aber, wie die Frametime Verläufe sind.
Darf ich fragen wieso du davon ausgehst das ich den Test nicht verstanden habe?

Mir geht es darum das hier etwas von „Gaming King“ geschrieben wird und dann sehe ich das der Test in 720p abgehalten wurde. Das ist einfach fern von jeder Realität, da niemand in 720p spielt. Je nach Auflösung & Grafiksettings ändert sich eben alles. Fps, Frametimes & auch die Effizienz einer CPU…
 
Tomi_92 schrieb:
Danke, das ist eben genau meine Gedanke!
Das ist aber genau falsch! Schau in den Test und guck Dir die fps an, für die der 5800X in Spiderman, Forspoken und Cyberpunk noch gut ist. Das sind keine absurd hohen Werte, sondern im Bereich von 50 bis 80fps. In 4K macht der 5800X nicht mehr fps als in 720p.
 
Tingel schrieb:
Es ergibt nur Sinn sich jetzt eine X3D CPU zu holen, wenn du sicher bist, dass du in deinen Spielen und Einstellungen einen Vorteil hast. Und leider sind die 720p Benchmarks alleine kein sehr gutes Mittel, um diese Frage zu beantworten.
Kein einziger Benchmark ist ein gutes Mittel um festzustellen, ob du im CPU oder GPU Limit hängst.
Der Test in 720p hat nur einen einzigen Zweck: Die Rohleistung der CPU unter gleichen Bedingungen ohne GPU Limitierung zu testen und zu vergleichen.


Wenn du eine Kaufentscheidung treffen willst, weil du mehr FPS in Spiel X haben willst, dann suchst du in erster Linie auch nach "Benchmarks Spiel X" und nicht nach "CPU Benchmark 4K".
 
  • Gefällt mir
Reaktionen: trb85
Wer 4k Tests bei einem CPU Test will werde ich nie verstehen.

HUB hat da ein gutes Video zu herausgebracht warum nicht in hohen Auflösungen bencht werden sollte:

 
t3chn0 schrieb:
Wenn ich dann jedoch diese Meldung hier sehe:

https://www.golem.de/news/ryzen-9-7...elt-erneut-hoch-mit-erfolg-2302-172228-5.html

Sieht man was passiert, wenn das Scheduling nicht korrekt funktioniert. Selbst im Mischbetrieb zwischen den CCDs verliert man noch 30 FPS im Vergleich zum reinen 1CCD Betrieb.

Jau, auch deswegen ist der 7800X3D für Spieler das einzig Wahre und somit die beste Gaming CPU der näheren Zukunft.
Da spart man sich im Vergleich mit dem 7950X3D (den für Spieler völlig unsinnigen 7900X3D muss man gar nicht weiter erwähnen) neben etwas Geld auch noch eine Menge Zeit, Nerven und Ärger ;) .

Zumal das Erfordernis des Einschaltens des 'Game Mode' und des Installierens der unsäglichen Xbox Game Bar für mich persönlich ein absolutes K.O. Kriterium für den 7950X3D ist/wäre. Dieser Müll kommt/käme mir nicht mal im Traum ins Haus bzw. auf die Windows 11 Installation :D .
 
  • Gefällt mir
Reaktionen: Gortha
@RogueSix

Für mich ist halt das Problem, dass ich nie ohne weiteres nachvollziehen kann ob der korrekte CCD gerade genutzt wird oder nicht. Vielleicht lasse ich ja Performance liegen ohne es zu merken, weil ich es anders gar nicht kenne.

Dann mit der GameBar die Affinitäten wie bei Process Lasso selbst zu korrigieren....nope, da bin ich raus.

Da gehe ich entweder mit dem Klassiker ohne 3D, oder mit 3D und Single CCD.
 
  • Gefällt mir
Reaktionen: Gortha, Syrato und RogueSix
Schlagt mich , aber ich wollte jetzt nicht 68 Seiten lesen. Die Tests sind ja alle in HD was keine Sau in der Realität nutzt. in WQHD oder gar 4K ist alles absolut nicht mehr so beeindruckend. Was wirklich gelungen ist , wäre die Effizienz. Aber für das Geld, kann man sehr lange noch auf der alten Generation spielen. Da warte ich sehr gern 1-2 weitere Generationen ab.
 
Tomi_92 schrieb:
Darf ich fragen wieso du davon ausgehst das ich den Test nicht verstanden habe?
Wegen dieser Aussage:
Tomi_92 schrieb:
Mir geht es darum das hier etwas von „Gaming King“ geschrieben wird und dann sehe ich das der Test in 720p abgehalten wurde. Das ist einfach fern von jeder Realität, da niemand in 720p spielt. Je nach Auflösung & Grafiksettings ändert sich eben alles. Fps, Frametimes & auch die Effizienz einer CPU…
FPS die angezeigt werden, sind AVG FPS die über einen Zeitraum (meist 2-3 Sekunden) ein arithmetisches Mittel darstellen.
Frametimes sieht man in diesen FPS nicht.
120FPS AVG können flüssig sein, aber können auch ruckeln und sind nicht mit 120FPS AVG von einem anderen Spiel vergleichbar.
 
Tomi_92 schrieb:
Das ist einfach fern von jeder Realität, da niemand in 720p spielt. Je nach Auflösung & Grafiksettings ändert sich eben alles. Fps, Frametimes & auch die Effizienz einer CPU…
Ja gut. Dann am besten in 8K testen, dann ist wahrscheinlich ein I7 7700K genauso schnell wie ein 13700K.

Nein, du hast einen CPU Test nicht verstanden.
 
  • Gefällt mir
Reaktionen: iron_monkey und McFritte
Laphonso schrieb:
Das ist so eine Falschaussage.
Können wir dieses Narrativ als dogmatisches Postulat endlich auf den Müll werfen?
Theoretisch hast du recht, allerdings haben Leute mit einer 4090 auch den entsprechend unterbau und sowiso das beste, da muss nicht entschieden werden, was besser ist.
Am Ende kommt es auf die Games an die man zockt und in welchen Einstellungen/FPS und welche graka man besitzt.
HISN füllt auch 64gb ram voll auch wenn davon dann 80% gecacht sind von Windows. Bei mir habe ich selbst mit 16GB nicht alles gecacht gehabt und jetzt mit 32Gb sowiso völlig überdimensioniert, allerdings zocke ich auch keine aktuellen cod, battlefield , FS und co. Trotzdem dürfte bei HISN wohl ein teil des caches darauf hinauszuführen sein, das bei ihm Arbeitsdateien über den Tag einfach dann beim Gamen im Cache liegen, dürfte aber bei 99% der nutzer niemals so aussehen und wenn haben diese auch 64GB verbaut und wissen so wie HISN das sie die entsprechende Hardware auch nutzen können oder es sich leisten.
Dasselbe bei Vram. Habe mit der 1080Ti nur in FF15 mal knapp die 10,5 GB gesehen nach einiger Spielzeit.
Kann aber auch nur für mich sprechen, dass ich mit 8gb vram auskomme aktuell, da ich eben kein RT nutze, 4k oder aktuellste Games.
 
Da die Werte von 4090 und 7900XTX nur in getrennten Indexes stehen habe ich zumindest die Werte für 13900KS und 7950X3D übertragen und einen gemeinsamen Index gebildet.

1677591650755.png



Das sind die Rohdaten:
1677591667311.png


Lustigerweise sind die CPUs mit der 4090 im CPU Limit sogar schneller.
 
Tomi_92 schrieb:
Mir geht es darum das hier etwas von „Gaming King“ geschrieben wird und dann sehe ich das der Test in 720p abgehalten wurde. Das ist einfach fern von jeder Realität, da niemand in 720p spielt. Je nach Auflösung & Grafiksettings ändert sich eben alles. Fps, Frametimes & auch die Effizienz einer CPU…
Copy&Paste von mir selbst:
Wenn bei 720p alle Balken unterschiedlich lang sind und ab 4K/8K (mit ner 4090 wohlgemerkt) alle ungefähr gleich gleich lang, was könnte dann bei den Auflösungen dazwischen passieren.....hmmmmmmmmm?

Richtig, im CPU Limit ist der Prozesssor vermutlich vorn, der bei 720p vorn liegt. Wie du schon sagtest spielt keiner in 720p und die meisten liegen eher im GPU Limit und je schlechter die Graka ist die du fährst desto niedriger wird die Auflösung liegen ab der du im GPU Limit liegst und höhere Auflösungen als 720p machen noch weniger Sinn als eh schon.

Was willst du eigentlich? Einen Test mit unzähligen Varianten an Grafikkarten/Settings und damit verbunden ein Aufwand der durch nichts gerechtfertigt ist?
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: wolve666
SavageSkull schrieb:
Nochmal, die CPU ist für die eingeblendete AVG FPS Zahl bei deinem Spiel völlig uninteressant. Für einen flüssigen Spielablauf hingegen schon. Ob es flüssig ist, hat mit der AVG FPS Zahl rein gar nichts zu tun.
Dein Problem ist, dass du auf die FPS Zahl fixiert bist und deswegen den Test nicht verstehst. Relevant ist aber, wie die Frametime Verläufe sind.

Wenn der 3D Cache, dieser CPU, etwas bringt, dann bringt er einen Vorteil in egal welcher Auflösung. Je nachdem, wie stark das CPU Limit ist, kann man das bei Einzelfällen AUCH in den AVG FPS sehen.
Wenn unter 4K die GPU die größere Limitierung ist, kann die CPU aber auch einen deutlich spürbaren Vorteil für die flüssige Darstellung bringen, da die Frametimes besser werden, was man dann aber nicht in den AVG FPS sehen kann, was der Grund ist, warum Tests in 4k halt keine verwertbaren Infos bringen.
Warum zeigen dann die CB benchmarks sowohl für avg als auch percentile fps den nahezu gleichen Anstieg? Hast du ein Beispiel für ein Spiel, bei dem die avg fps gleich bleiben, aber das percentile steigt?

Und es gibt ja Beispiele, wo der X3D auch in 4k etwas bringt, warum diese Fälle ignorieren?

Ich stimme dir aber zu, daran hatte ich tatsächlich nicht gedacht, dass sich bei gleichbleibenden avg/max fps trotzdem die min fps stark verbessern können (nicht müssen) und der X3D da seine Stärke hat. Das ist für mich aber nur ein Szenario von vielen.
 
Zurück
Oben