News MSI lässt blicken: Erste Spiele-Benchmarks mit Ryzen 9000X3D

KurzGedacht schrieb:
Doch selbstverständlich. Real kriegst du in der Regel die gleiche Performance bei weniger Stromverbrauch. Das ist per Definition höhere Effizienz (auch höhere gaming Effizienz).
Dabei bewertest du nicht mehr die CPU, ergo ist das dann halt auch kein CPU Test, sondern Systemtest. Für die GPU gilt dasselbe.
KurzGedacht schrieb:
Siehe Beitrag 239 erster Satz.
KurzGedacht schrieb:
Ich kann daran beim besten Willen nichts negatives finden.
Die Effizienz steigt gegenüber dem 7800X3D nicht, das ist das "negative".
 
Quidproquo77 schrieb:
Dabei bewertest du nicht mehr die CPU, ergo ist das dann halt auch kein CPU Test, sondern Systemtest. Für die GPU gilt dasselbe.
Das ist Quatsch. Das stimmt, wenn man die Leistung bewerten will, aber wir reden hier explizit von Effizienz.
Quidproquo77 schrieb:
Die Effizienz steigt gegenüber dem 7800X3D nicht, das ist das "negative".
Die maximale Leistung steigt. Die Effizienz steigt in vielen, aber nicht in allen Fällen.
Du kannst sagen, dass du gerne eine besseres Ergebnis hättest, aber das erreichte als schlecht umzudeuten, ist schlicht Blödsinn.
Unterm Strich ist es in jeglicher Hinsicht ein besseres Produkt.
Das einzig einigermaßen gültige Argument ist der (Auf)Preis Gegenüber den alternativen und das wird der Markt entsprechend der Leistung, Angebot und Nachfrage regeln.
 
Zuletzt bearbeitet:
Natürlich steigt die Effizienz, wenn für eine identische Aufgabe weniger Energie benötigt wird. Bei Zen 5 reden wir hier von einem 7% besseren Wert was FPS/Watt angeht, und warum sollte das bei der X3D Variante nicht so sein?

Im Gegensatz zum direkten Vorgänger können die aktuellen Varianten wahrscheinlich auch nur in den ineffizienten Bereich Takten, weil man Dank der verbesserten Effizienz (= mehr elektrische Energie wird in Rechenleistung umgewandelt und weniger in Abwärme) nicht so schnell ins thermische Limit rennt.
 
  • Gefällt mir
Reaktionen: Lonex88, Kommando und KurzGedacht
Quidproquo77 schrieb:
Siehe Beitrag 239 erster Satz.
Quidproquo77 schrieb:
Einfach um eine nüchterne Betrachtung der Effizienz von Zen5 X3D und nicht darum irgendwelche Messungen im GPU Limit zu machen oder wie sich das für jemanden persönlich dann verhält.
Deine Betrachtung ist nicht nüchtern sondern verzerrt, weil du Äpfel mit Birnen vergleichst.

Nochmal für dich. Effizienz bezeichnet das Verhältnis von Rechenleistung zu dem dafür nötigen Energieverbrauch.

Wenn du aber CPUs hinsichtlich Effizienz miteinander vergleichen möchtest, dann musst du zwangsläufig die Leistung bei identischer Leistungsaufnahme vergleichen. Da das nicht linear verläuft, kann (oder sollte) man sogar die Effizienz bei verschiedenen Power Limits vergleichen (bspw 45,65 und 85 watt).
Sobald eine CPU ein deutlich höheres Power Limit verkraftet als die anderen, ist ein direkter Vergleich schlicht nicht mehr möglich.

720p Gaming Tests ohne sinnvolles FPS oder power limit machen genau das nicht. Die liefern dir die Effizienz bei Maximaler Auslastung.

Zu schauen was die CPUs bei ihrer jeweils maximal möglichen Leistungsaufnahme verbrauchen und das ins Verhältnis zur Leistung zu setzen, gibt dir keine miteinander vergleichbaren Werte.

Darüber hinaus sagt es auch absolut nichts über die Effizienz im normalen Alltag aus.
 
  • Gefällt mir
Reaktionen: CadillacFan77, Kommando und LamaMitHut
Die einzige kritick die ich an zen4 habe ist das diese sich automatisch zum thermal limit oc was beim r7 7800x3d etwa 90°c sind dadurch ist man gezwungen ne aio zu nutzen
Das wurde mit dem zen5 gefixt

Nun zu meinen problem ich habe ein am4 system ideale cpu für mich als gamer r7 5700x3d der leider ein problem hat.
Dieser taktet zu gering (3,4-4,1ghz) weswegen der Vorteil vs meinen r7 3800xt in Anwendungen quasi fast aufgebraucht wird. +-5% gewinn
Der 5800x3d war da ok mit etwa +10% mehr perf.
Meine gpu (rtx3060) und zukünftige gpu (rtx4070 oder rtx5060ti) werden viel zu langsam sein als das ich von einer neuen cpu profitieren würde und da bleibt nur die Wahl zum r9 5900xt (16kerner) der aber ist in gaming für die übernächste gen, noch unklar was, einfach zu schwach ist. (rtx6080 mangels alternativen +- 75tf/94tf 190w tbp ab 800€)

Am5 ist keine Lösung da komplett neu und am6 wird teuer apu system das zwar effizient ist aber leider mich bis zu 850€ kostet da alles neu muss quasi ein neuen PC (board ram 32gb apu 60cu m2 ssd win 11 Lizenz)
ein am5 system wär ne Idee ab dem Zeitpunkt board ram cpu +-740€ zu dem Zeitpunkt wär das der r7 9800x3d sofern den man noch kriegt 250€ b650m Brett +- 100€ ram 48gb 140€ win 11 Lizenz 150€ und das ohne dgpu da bleibt nur ne gebr rtx4090 ab 600€ das lohnt vorne und hinten nicht da die apu Systeme komplett mit allem um die 1200€ kosten.
Zur apu ich erwarte camm2 module ddr6 12gt 512bit mit 60cu a128alu +- 3,0ghz n2 node +- rtx4090 perf. 450€

Sicher ist das die gpu jetzt maximal nur 500€ kosten darf mit gamebundle wäre ich sogar bereit bis 530€ zu gehen.
amd ist Noch keine alternative das wird sich erst mit rdna4 zeigen und wo amd die tbp setzen wird über 200w sind sie raus.
bei cpu ist man genau zwischen den Stühlen für Anwendungen etwa alltäglich winrar und verschlüsseln ok (15%) aber beim rendern (x265 crf) nutzt mir nur mehr kerne was und mehr kerne bei 5,0ghz wären das optimum
Da aber reicht der L3 cache nicht aus damit wirklich games massiv profitieren sprich das cpu limit aufheben

Aktuell bin ich zufrieden mit der perf. bei games bis 2022 danach wird es schwierig mit meiner gpu da muss was neues her.
Wird zeit fürn Artikel r7 5700x3d vs r7 3700x vs r7 5700x was bringt cache wenn der Nachfolger geringer Taktet und das bei Anwendungen xmedia recode 64 crf 20 720p same as source und vegas pro Projekt (mehrere Effekte und auto upscaling 720p 59,9hz ntsc)
Das könnte man auch beim r7 9800x3d (4,7ghz) vs r7 9700x (5,0ghz) vs r7 7700x (5,3ghz) machen
Das wäre ein Sinniges realitätsnaher Test die wenigsten würden amssiv vm laufen haben oder LLm modelle rendern wenn klar ist das dies ohne zugriff auf Datenbanken nicht geht sprich cloud anbindung.
Selbst simples wie upscaling geht damit nicht ordentlich soviel zu ai upscaling für Privatkunden ohne abo service der zudem nicht sicher ist wird das nix.
Was bleibt als Einsatz für Privatkunden für ne stärkere cpu nur gaming perf. und encoder perf.
office ist seit min 15 Jahren kein problem mehr und ist mehr ein pro für die Plattform (sata usb ram und pcie perf.)
Die vergleiche sind zwar schön und gut in mags wie eurem aber der Fokus ist zu sehr auf high end dgpu gerichtet. Das kauft kaum bis keiner und bei cpu muss man klar sagen für was man diese einsetzt.

Was fehlt ist die gpu load und tbp Angabe bei spiele perf. test und bei cpu realistische Encoderzeiten/durchschnittlichen fps sowie Projektdaten zum eigene nachtesten am eigenen pc.
Winrar archiv Einstellungen beim verschlüsseln etwa veracrypt und vegas pro projektdaten mit videos.
videofile in 2160p h264 raw
Zwar könnte man dies mit davinci resolve nutzen, dieser gibt nur cbr aus was ein problem ist da kaum cpu fordernd.
handbrake wäre ideal zum encoding test dieser lässt sich aber nur umständlich einstellen.
 
KurzGedacht schrieb:
Wenn du aber CPUs hinsichtlich Effizienz miteinander vergleichen möchtest, dann musst du zwangsläufig die Leistung bei identischer Leistungsaufnahme vergleichen.
Ich kann genausogut den Verbrauch bei gleicher Leistung vergleichen oder eben keines von beiden gleich setzen.

In den GPU FPS/W Charts werden auch nicht alle GPUs auf X W limitiert und dann geschaut wieviel sie liefern.
Da wird geschaut GPU A braucht 100W für 80FPS und GPU B braucht 200W für 180FPS -> GPU B ist effizienter

KurzGedacht schrieb:
Sobald eine CPU ein deutlich höheres Power Limit verkraftet als die anderen, ist ein direkter Vergleich schlicht nicht mehr möglich.
Demnach könnte ich auch nicht mehr sagen, dass GPU B effizienter ist als GPU A, nur weil sie 100W mehr verbraucht?
 
Taxxor schrieb:
Ich kann genausogut den Verbrauch bei gleicher Leistung vergleichen oder eben keines von beiden gleich setzen.
Erster Teil stimmt, solange alle CPUs im Vergleich eben überhaupt in der Lage sind die gleiche Leistung zu erreichen. Der zweite stimmt nicht. Das Ergebnis würde wenig Aussagen
Taxxor schrieb:
In den GPU FPS/W Charts werden auch nicht alle GPUs auf X W limitiert und dann geschaut wieviel sie liefern.
Da wird geschaut GPU A braucht 100W für 80FPS und GPU B braucht 200W für 180FPS -> GPU B ist effizienter
Das ist methodisch zumindest fragwürdig wenn das Hauptziel die Ermittlung der Effizienz wäre und eben nur für eine künstliche situation zutreffend (Volllast eben).
Bloß will man als Gamer ja in der Regel genau das, also ist zumindest für diese Zielgruppe nicht ganz Verkehrt.
Allerdings werden das bei Faktor 2 Leistung und >2x FPS auch völlig unterschiedliche GPUs sein.

Taxxor schrieb:
Demnach könnte ich auch nicht mehr sagen, dass GPU B effizienter ist als GPU A, nur weil sie 100W mehr verbraucht?
Generell zumindest Schwierig. In dem Fall haben wir aber bei Faktor 2 für den Verbrauch >2x Beim Ergebnis, was man zumindest als starkes Indiz werten kann, dass GPU B in den meisten realen Fällen effizienter sein wird.
 
KurzGedacht schrieb:
Also erst behauptest du eine schlechtere Effizienz wird durch ein GPU Limit gerettet, was es nicht gibt, da eine ineffizientere CPU nicht durch ein GPU Limit plötzlich effizienter wird und danach sagst du es sei "Quatsch" dass du in diesem Szenario nicht mehr per se die CPU testest.

Jetzt sind wir glaube ich irgendwo aber ganz sicher nicht mehr bei einer vernünftigen Betrachtung der Effizienz.
KurzGedacht schrieb:
Die Effizienz steigt in vielen, aber nicht in allen Fällen.
Und das ist anhand der bisherigen Betrachtung von Zen 5 vs Zen4 nicht zu erwarten.
Das ist in Spielen ein Effizienz-Gleichstand. Mit höherem Takt und Powerlimit des 9800X3D also schon 2x nicht möglich.

qrfgqrf.JPG


KurzGedacht schrieb:
Du kannst sagen, dass du gerne eine besseres Ergebnis hättest, aber das erreichte als schlecht umzudeuten, ist schlicht Blödsinn.
Was heißt schon schlecht, man wird halt nicht in jeder Metrik besser sein können als das Vorgängerprodukt, wahrscheinlich auch dann nicht, wenn man beide Produkte auf ein maximales PT von ~50 Watt festlegt.
KurzGedacht schrieb:
Wenn du aber CPUs hinsichtlich Effizienz miteinander vergleichen möchtest, dann musst du zwangsläufig die Leistung bei identischer Leistungsaufnahme vergleichen.
Nein, muss man nicht. Absolut nicht. Wenn der 9800X3D die Mehrleistung nur durch mehr Leistungsaufnahme erzielt, dann sollte man das schon auch so messen, wie er von AMD ausgeliefert wird.
KurzGedacht schrieb:
Sobald eine CPU ein deutlich höheres Power Limit verkraftet als die anderen, ist ein direkter Vergleich schlicht nicht mehr möglich.
Das ist ja was ganz was neues, dann sind alle Gaming-Effizienz Vergleiche mit den Intel CPUs und anderen Ryzen 16Kerner schon immer falsch gewesen, weil höheres Powerlimit.:hammer_alt:
Die Argumentation macht so jedenfalls keinen Sinn.
 
Haldi schrieb:
Scheint so als müsse ich den 7950X3D diese Generation nicht updaten.

Müssen sowieso nicht.

Andererseits: Bei deutlich besserer Anwendungsperformance, massiv aufgebrezeltem AVX512... ich sehe keinen Grund, nicht zu einem 9950X3D zu greifen.
 
Das erinnert doch genau an die Situation zum Zen 4 Release:
Bevor Anfang 2023 die X3D CPUs nachgeschoben wurden, wurde Monatelang über mangelnde Effizienz und schlechtes Preis Leistung gegenüber 5800X3d /12- 13. Gen Intel argumentiert.

Ich denke die Verkaufszahlen gaben AMD mit Zen4 X3D recht und ähnlich wird es in Verbindung mit neuen Grafikkarten dann halt bei Zen5 X3D, unabhängig ob es nun 0% oder XX% Performancezuwachs sind, sein. Ob die Mehrleistung nun einen bestimmten Aufpreis rechtfertigt, oder jemanden der gerne ein Intel System verwendet zum Wechsel bringt, ist subjektiv. Viele wollen einfach nur das "beste" haben um ihre Lieblingsspiele zu zocken oder an nem PC zu basteln/overclocken oder einfach nur etwas neues besitzen. Andere wollen das maximale aus Budget X rausholen. Jeder wie er will. ;)
 
  • Gefällt mir
Reaktionen: Volvo480
@MichaG : Wenn Ihr die neuen Arrow Lakes testet dann bitte auch so einen Test machen wie Notebookcheck ihn gemacht hat.

1728895787869.png


Der Stromverbrauch unter Volllast oder Idle interessiert mich kaum. Vielmehr interessiert der Stromverbrauch beim "normalen" arbeiten. Die AMDs haben einen guten Vollastverbrauch, Idle jedoch lagen sie die letzten Jahre schlechter als Intel. Hier würde mich ein Vergleich Zen5 vs Arrow Lake interessieren.
 
Ich verstehe nicht, wie man über grundlegende Dinge so lange diskutieren kann.

Wenn der 9800 x3d mehr verbraucht und mit jedem Watt mehr als 100% der Performance des 7800 x3d abliefert, ist das in jeder Situation ablesbar.
GPU limitiert -> 9800 x3d wird weniger verbrauchen, 7800 x3d mehr
festes Watt - Limit für CPU: 9800 x3d mehr Performance
CPU limitiert: einfache Performance / Watt - Rechnung.
 
Quidproquo77 schrieb:
Also erst behauptest du eine schlechtere Effizienz wird durch ein GPU Limit gerettet, was es nicht gibt, da eine ineffizientere CPU nicht durch ein GPU Limit plötzlich effizienter wird
Das hab ich so nie gesagt. Entweder willst du das nicht verstehen oder kannst es tatsächlich nicht. Ist mir egal, ich geb's auf.

Quidproquo77 schrieb:
Und das ist anhand der bisherigen Betrachtung von Zen 5 vs Zen4 nicht zu erwarten.
Das ist in Spielen ein Effizienz-Gleichstand. Mit höherem Takt und Powerlimit des 9800X3D also schon 2x nicht möglich.
Und wieder zitierst du Tests die mit verbuggter software gemacht wurden (während im selben test gesagt wird, dass sich in Anwendungen ein deutlich anderes Bild zeigt).

Quidproquo77 schrieb:
Nein, muss man nicht. Absolut nicht. Wenn der 9800X3D die Mehrleistung nur durch mehr Leistungsaufnahme erzielt, dann sollte man das schon auch so messen, wie er von AMD ausgeliefert wird.
Ich korrigiere mich. Du begreifst es ganz offensichtlich nicht. Lies dir den ganzen Kram nochmal durch oder lass es halt. Ist mir wumpe.
 
Kommando schrieb:
Und darüber werden sich dann die Köppe einschlagen als gäbe es nix wichtigeres. 😁

Manche haben halt ein schwaches Ego und müssen sich über Konsumprodukte profilieren... deswegen auch die heftigen Reaktionen, weil Kritik am Produkt direkt als Kritik an der eigenen Person/Ego wahrgenommen wird.

Im Volksmund sagt man über solche Leute, dass sie noch nicht erwachsen geworden sind, im Amtsdeutsch fehlt Ihnen die geistige Reife!
Hat wie alles im Leben auch Vorteile, wenn man vor Gericht steht, gibt es manchmal weniger Strafe für die "kindlich blöd geblieben".
 
KurzGedacht schrieb:
Das hab ich so nie gesagt. Entweder willst du das nicht verstehen oder kannst es tatsächlich nicht. Ist mir egal, ich geb's auf.
So verstehe ich es aber seit deinem GPU Limit Einwand beginnend von hier: Tests im GPU Limit sind jedenfalls keine Metrik die die Spiele-Effizienz eines Prozessor misst, wenn Spielelast anliegt. Der Verbrauch im GPU Limit liegt zudem trotzdem höher.
KurzGedacht schrieb:
Und wieder zitierst du Tests die mit verbuggter software gemacht wurden (während im selben test gesagt wird, dass sich in Anwendungen ein deutlich anderes Bild zeigt).
Um Anwendungen ging es nicht. Es ging um die Spiele-Effizienz. Und wieso verbuggte Software? Es hat sich "absolut nichts getan" mit neuer Software. Die 2% mehr Leistung zum Launch, irrelevant.
KurzGedacht schrieb:
Lies dir den ganzen Kram nochmal durch oder lass es halt. Ist mir wumpe.
Ja, du sagst für mich immer nur die Effizienz ist kein Argument, weil GPU Limit, weil dies und jenes.
Ergibt keinen Sinn.
KurzGedacht schrieb:
Aber das ist kein Argument, da du das Ding ja konfigurieren kannst wie es dir passt.
Die CPU im Auslieferungszustand zu testen ist kein Argument. Stark^^
iron_monkey schrieb:
Manche haben halt ein schwaches Ego und müssen sich über Konsumprodukte profilieren...
Besser wäre: Ist eine Metrik von mehreren. Und in der Regel werden alle Metriken bewertet.
Wie man da auf eine "Profilierung" kommt, ist mir schleierhaft.
iron_monkey schrieb:
deswegen auch die heftigen Reaktionen, weil Kritik am Produkt direkt als Kritik an der eigenen Person/Ego wahrgenommen wird.
Also die heftige Reaktion die du gerade zitiert hattest, wo offenbar unangenehme Messwerte, die natürlich häufiger anliegen als dem User Kommando lieb ist, als "Köppe einschlagen" geframed wird.
Das wird nicht gemacht. Idle Werte bzw. Teillast wie Surfen, Word, Excel und Co, wo der Rechner nach kurzer Minimalbelastung wieder in den Idle Zustand hüpft, hat man ständig, zum Beispiel wenn ich hier tippe.
iron_monkey schrieb:
Im Volksmund sagt man über solche Leute, dass sie noch nicht erwachsen geworden sind, im Amtsdeutsch fehlt Ihnen die geistige Reife!
Weil es ja besonders erwachsen ist Werte die einem nicht in den Kram passen zu verleugnen.:daumen:
 
Zuletzt bearbeitet:
Wird dir aber wenig helfen, wenn Zen5 X3D 5% schneller ist ;)
 
Quidproquo77 schrieb:
unangenehme Messwerte
Was sind denn unangenehme Messwerte? :D

Oh man, Du liest auch überall das negative raus. Da lass ich mich einfach nicht drauf ein und wünsche ein schönes Fussballspiel! :)
 
Zurück
Oben