Test Benchmarks Zen 5 vs. Zen 4: AMD Ryzen 9000X(3D) vs. 7000X(3D) bei 4,8 GHz im Vergleich

Fylx schrieb:
Eine Variable, die man nicht außer Acht lassen sollte bei der eigenen Entscheidung, definitiv.
Man Leute, Auflösung oder sonst was ist vollkommen egal. Es ist die Anwendung welche die Leistung abruft oder eben nicht. Software die für uralte Konsolenhardware entwickelt wurde macht das Potential des Prozessors nicht schlechter. Bei den klassischen Hardwarefressern im Simulationsbereich wird die theoretische Mehrleistung dann auch praktisch voll abgerufen. Mit der nächsten Grafikkartengeneration verschiebt sich eh alles wieder. Die ganze Diskussion ist komplett nutzlos und die Argumente sinnbefreit. Ja Prozessor XY kann reichen aber auch total untergehen.
 
  • Gefällt mir
Reaktionen: Schinken42, Sturmwind80 und Apocalypse
DevPandi schrieb:
Führt Userbenchmark nicht eh irgendwie gefühlt einen Krieg gegen AMD? Ich bin ja mal gespannt, wie sie die Core-Timings bald in ihren Benchmark wieder neu gewichtet. Der Core Ultra 285K ist da ja auch nicht sehr gut, entsprechend müssen sie da ja auch wieder anpassen, damit das wieder stimmt und Intel vorne ist. ;)
Da hat PCGH gestern eine Meldung raus gehauen.

https://www.pcgameshardware.de/CPU-...Fazit-Core-i5-13600K-Ryzen-7-9800X3D-1459298/

Das Problem ist das UB nachwievor bei Google Suchanfragen auf Platz 1 steht.
Der unbedarfte Nutzer glaubt dann natürlich was dort steht.
 
  • Gefällt mir
Reaktionen: dergraf1 und eXe777
bensen schrieb:
Du weißt aber genau welche FPS du von der CPU erwarten kannst.
Musst dann nur noch schauen was deine GPU kann und was du überhaupt für ein Ziel für die FPS hast.
nein, das weiß ich tatsächlich nicht - denn wenn man nicht in 720p spielt und keine referenz-graka sein eigen nennt, weiß man nur um grobe tendenzen; mehr nicht - es skaliert halt nicht linear.
ich weiß auch nach diesem test nicht was ich von einem 9800x3d mit meiner 4080s in 3440x1400 an mehrleistung zu erwarten habe; es sind wohl paar prozentpunkte, aber ob das im schnitt nun 4% oder 12% sind, vermag ich aus dem test nicht zu sagen...
 
SonyFriend schrieb:
@Jan
Danke für diese zusätzlichen Infos!

Wann kam die erste X3D-CPU von AMD auf den Markt?
04.2022?
Hat intel das irgendwie nicht mitbekommen?
Seit nunmehr 2,5 Jahren fahren die Cache-CPUs Schlitten mit intel, wenn es im Gaming um hohe Performance gepaart mit bester Effizienz geht.
Intel hatte schon früher Cache CPUs.
PCGH hat sogar vor wenigen Monaten wieder Mal Broadwell C getestet und der ist einer vergleichbaren CPU ohne Cache 40% davon gelaufen.
Allerdings haben in der Tabelle dann die Zeitlich nachfolgenden CPUs eher schwach ausgesehen. Von daher ist das vielleicht eine geschäftliche Entscheidung: bringst du eine "Cache-CPU" hast du beim Vorstellen des nächsten Prozessors das Problem, dass er evtl langsamer und ineffizienter wirkt... Oder man bringt dann wieder extra eine in der Produktion teurere Variante.
Und ob Intel das möchte? Letzten Endes lassen einen solche CPUs zum einen gut aussehen, etwa bei den Gamern (5-10%des PC Marktes), dafür nicht so gut bei allen anderen, auch daher war die Zen 5 Vorstellung etwas lahm
 
5hred schrieb:
Auf Techspot eben die News dazu gelesen
Die Review zum 9800X3D von Techspot ist aber auch etwas merkwürdig, zumindest was ich jetzt zum Verbrauch gelesen hatte.^^

Bei den ersten Spielen werden jeweils die CPUs zum Vergleich herangezogen die jeweils schlechter in dem jeweiligem Spiel abschneiden, die Vorgänger-CPU 7800X3D wird zumindest bei den ersten Spielen einfach ignoriert.^^

Aber an sowas erkennt man auch sehr gut wie objektiv ComputerBase bei ihren Tests sind (auf die Analyse bezogen).^^
 
5hred schrieb:
Danke für den Lesestoff.. schau ich mir gleich an.
Aber vorher möchte ich @Jan darauf hinweisen, dass sich im Bezug zur 9800x3D CPU die hoch-seriöse userbenchmark-Seite der totalen Unbefangenheit wieder alle Ehre gibt...

Finde, das ist eine amüsante News wert!

Diese Vendetta gegen AMD-CPUs ist sehr verwunderlich. Welche Motive stehen dahinter?
Gibt's da eine offizielle (inoffizielle) Partnerschaft mit Intel zu Marketingzwecken oder machen sich da Fanbois einfach nur ihren Spass?

Auf Techspot eben die News dazu gelesen

userbenchmark 9800x3D auf Platz 12 lol
Vor vielen Monden kam mal raus, dass Userbenchmark die Ergebnisse von AMD manipuliert. Motive sind wahrscheinlich Geld oder eben die hard fanboys.
 
Werkseinstellung:
AMD Ryzen 7 7800X3D
87 % (158 FPS)​
73 % (64 W)​
vs. reduzierter Takt 4,8 Ghz
AMD Ryzen 7 9800X3D
100 % (171 FPS)​
100 % (62 W)​

Das ist ja mal richtig geil. Immer noch deutlich schneller bei quasi gleichem Verbrauch. Mich schreckt der stark erhöhte Verbrauch etwas ab und ich habe mich gefragt, was denn passiert, wenn man den 9800x3d anstatt mit 5.2 eben nur mit 5.0 oder wie hier im Beispiel mit 4.8 Ghz laufen lässt. Dann hätte man mehr Gaming performance bei ähnlichem Verbrauch, bessere Kühlung (ich gehe mal davon aus, dass der leicht gedrosselt auch weniger warm wird) und vermutlich trotzdem deutlich mehr Anwendungsperformance....das müsste man noch mal testen, wie der neue mit 5.0 oder 4.8 in Cinebench agiert. Aber so oder so ein sinnvolles Upgrade. Ich freue mich schon auf den Wechsel
 
BloodGod schrieb:
Mit 4K ist der Unterschied kaum bis gar nicht mehr vorhanden:

Der Unterschied ist immer vorhanden, nur die genutzte Grafikkarte ist zu langsam die Mehrleistung auch in FPS umzusetzen. Der eine Prozessor langweilt sich, während der andere an der Kotzgrenze läuft und man sieht bei beiden die gleichen FPS und die ganz harten Denkverweigerer machen daraus ... "beide CPUS sind gleich schnell!"
 
  • Gefällt mir
Reaktionen: LamaMitHut, thom_cat, Dimensionday und 2 andere
BloodGod schrieb:
Mit 4K ist der Unterschied kaum bis gar nicht mehr vorhanden:
aber auch nur wenn Du kein Upscaling nutzt, mit sieht die sache dann schon anders aus, da wird auch eine 4070 in WUHD sicher ähnlich zulegen wie die 4090 in 4k.
und was ich so lese verwenden sehr viele DLSS damit sie überhaupt auf Spielbare Frames kommen
 

Anhänge

  • IMG_0562.png
    IMG_0562.png
    718,1 KB · Aufrufe: 39
  • Gefällt mir
Reaktionen: Kommando und Simanova
cypeak schrieb:
ich weiß auch nach diesem test nicht was ich von einem 9800x3d mit meiner 4080s in 3440x1400 an
Hundert prozentig wirst du das aus tests auch nie erfahren alleine deine spieleinstellungen anders sind als in den tests.

Dein erster anhaltspunkt sollten da gpu/spiele benches sein. Liegst du mit deiner cpu /gpu Kombi darunter. Hast du schonmal einem anhaltspunkt, das die cpu zuschwach sein könnte. Dann nimmst du einfach ein cpu test hinzu und schaust was diese cpu‘s schaffen können. Dann kannst du gemerell sagen wieviel dazu kommt. Leider benötigst du ein Spiel welches in beiden test vorhanden ist.

Generell ist es aber doch so, umso stärker du im cpulimit ist(gpuauslastung <99) umso stärker provitierst du von einer neuen cpu.
 
danyundsahne schrieb:
Aber das P/L der RTX4090 ist genauso miserabel und eines der schlechtesten von GPUs überhaupt.
Aber das interessiert viele nicht, Hauptsache Leistung. Das ist die Realität.
Daher ist die 4090 auch so oft vertreten. Und nicht weil sie ein so schlechtes P/L hat. ;)
Als die 4080 1200€ und die 4090 1700€ gekostet hatte, sah das mit P/L Verhältnis zueinander auch noch was anders aus als jetzt mit 1000€ vs. 2000€, das sollte man auch nicht vergessen.
 
  • Gefällt mir
Reaktionen: iron_monkey
Don_Tralle schrieb:
wenn man den 9800x3d anstatt mit 5.2 eben nur mit 5.0 oder wie hier im Beispiel mit 4.8 Ghz laufen lässt.
Brauchst du nicht. Einfach den CO Wert auf -10, spart 15 Watt, oder CO -20, spart 25 Watt unter Vollast.
Im ECO Mode auf 65W+23W erreicht der Ryzen 9800X3D noch 4,8Ghz (ohne CO Anpassung)
 
  • Gefällt mir
Reaktionen: Don_Tralle
bad_sign schrieb:
Weil Intel immer noch arrogant ist, sie haben immer noch nicht ihre Position wahrgenommen. Sie haben eine Historie von Anti-Konsumer Praktiken. Sie haben immer noch ein Monopol. Sie bekommen seit 10 Jahren es nicht auf die Reihen ihre Fertigung zu Glätten.
Nenne mir mal einen Konzern, der nicht moralisch fragwürdige Entscheidungen getroffen hat.
AMD ist da vielleicht im direkten Vergleich besser, aber ganz sicher nicht frei von "Schuld".
Wenn die nicht die Underdog Rolle mit ihrem immer noch geringen Marktanteil hätten, wären die auch bei weitem nicht kundenfreundlicher aufgestellt, als Intel.

Wenn ich danach gehe darf ich bei gar Keinem Etwas einkaufen.
 
DevPandi schrieb:
Führt Userbenchmark nicht eh irgendwie gefühlt einen Krieg gegen AMD?
Es gibt aktuell nur 52 Samples vom 9800X3D auf Userbenchmark. Theoretisch könnte man den Ryzen 9800X3D im OC betreiben (sagen wir 5,4 ghz) und dann 20 mal den userbenchmark durchlaufen lassen - das würde den Prozessor noch besser dastehen lassen (Als Protestaktion gegen Userbenchmark)
 
cypeak schrieb:
nein, das weiß ich tatsächlich nicht - denn wenn man nicht in 720p spielt und keine referenz-graka sein eigen nennt, weiß man nur um grobe tendenzen;
Man muss dafür nicht in 720p spielen. Keinen Ahnung was das helfen soll. Und was ist ein Referenz Graka? Du musst nur wissen was deine Karte packt.
 
Rickmer schrieb:
Als die 4080 1200€ und die 4090 1700€ gekostet hatte, sah das mit P/L Verhältnis zueinander auch noch was anders aus als jetzt mit 1000€ vs. 2000€, das sollte man auch nicht vergessen.
Auch mit 1700€ war und ist das P/L der 4090 mit das Schlechteste gewesen ;)
Nur ist es jetzt halt noch viel schlechter :D

Gibt ja n schönes Chart hier auf CB:
https://www.computerbase.de/artikel/grafikkarten/rangliste.2487/

Da kannste auch die 1700€ eintragen und ne Linie ziehen, die wird bei so hohem Preis immer unter der Linie der anderen GPUs bleiben, selbst mit RT.
 
Wie man in vielen Signaturen sieht, ist das Preis/Leistungsverhältnis egal ... es zählt nur die Leistung. :daumen:
Ich will mich da auch gar nicht von ausschließen, denn ich habe noch nie wirklich aufs P/L-Verhältnis geachtet.
Wobei ... vor 25 Jahren vielleicht, aber da musste ich auch etwas mehr aufs Geld schauen. :D
 
cypeak schrieb:
ich weiß auch nach diesem test nicht was ich von einem 9800x3d mit meiner 4080s in 3440x1400 an mehrleistung zu erwarten habe; es sind wohl paar prozentpunkte, aber ob das im schnitt nun 4% oder 12% sind, vermag ich aus dem test nicht zu sagen...
Na bis zur theoretischen Mehrleistung des Prozessors! In Schwachanwendungen von Konsolenports bis Solitär ist es entsprechend weniger....
 
Northstar2710 schrieb:
Hundert prozentig wirst du das aus tests auch nie erfahren alleine deine spieleinstellungen anders sind als in den tests.
ja, aber das ist doch offensichtlich.
auch ist es offensichtlich dass man von einer neuen cpu umso mehr profitiert je stärker die eigene cpu limitiert - klar: beseitigt oder "verbreitert" man den flaschenhals, läuft es besser..

Northstar2710 schrieb:
Dann kannst du gemerell sagen wieviel dazu kommt. Leider benötigst du ein Spiel welches in beiden test vorhanden ist.
kann ich das? in dem (low res) test sehe ich da einen performanceunterschied der i.d.r. deutlich größer ist als er es unter höheren auflösungen (beim gleichen spiel) sein wird...das skaliert eben nicht linear.

das ist auch der grund warum ich >>hier<< so zugespitzt frage wieviel dann von den 15% einer 9800x3d (gegenüber der 7800x3d) in 3440x1440 übrig bleibt...den DAS wäre die relevante information und die geht aus diesen benches nicht hervor.
ich verstehe ja dass man jetzt nicht jede gpu kombination (oder gar jede auflösung) abtesten kann - aber das muss man auch nicht, denn es geht hier ja immer um relative vergleichbarkeit: für mich wäre die information dass z.b. beim 9800x3d in wqhd mit einer 4090 im schnitt der getesteten games 5% mehr performance unterm strich rauskommt relevanter als diese "bis zu 15%".
just sayin.
Ergänzung ()

Botcruscher schrieb:
Na bis zur theoretischen Mehrleistung des Prozessors! In Schwachanwendungen von Konsolenports bis Solitär ist es entsprechend weniger...
macht captain obvious heute überstunden? oder ist das aus den werbungen der internet-zunagsanbieter "mit bis zu" geklaut?? :D
 
cypeak schrieb:
nein, das weiß ich tatsächlich nicht - denn wenn man nicht in 720p spielt und keine referenz-graka sein eigen nennt, weiß man nur um grobe tendenzen; mehr nicht - es skaliert halt nicht linear.
ich weiß auch nach diesem test nicht was ich von einem 9800x3d mit meiner 4080s in 3440x1400 an mehrleistung zu erwarten habe; es sind wohl paar prozentpunkte, aber ob das im schnitt nun 4% oder 12% sind, vermag ich aus dem test nicht zu sagen...
Doch, das vermagst du schon.
Die Redakteure und hunderte Leser, die die Limits verstanden haben können das ja auch.
Das du es nicht verstehst ist schade, dass du darauf bestehst es nicht verstehen zu können traurig.
 
  • Gefällt mir
Reaktionen: iron_monkey und Gortha
Zurück
Oben