News Gaming-Performance: Ryzen 9000X schlägt Ryzen 7000X3D „knapp“ nicht

@Jan wäre super, wenn ihr in die Grafik noch den 7800X3D oder ein, zwei 13/14th Gen Intel einpflegen könntet, damit man so ungefähr weis, wie der X3D Generationsabstand so ist 😘


AMD-Flo schrieb:
Mit DDR5-6000 CL30 ist der Ryzen 7 7700(X) im Schnitt schneller als der 5800X3D.
@Jan Wäre schön, wenn CB auch mit diesem üblichen Setup testet.

Siehe auch:
https://www.techspot.com/review/2592-ryzen-5800x3D-vs-ryzen-7600x/

Sinnbefreit.
AMD sagt: DDR5-5200 wird offiziell unterstüzt.
Intel sagt: DDR5-5600 wird offiziell unterstützt.

Du willst jetzt also beide Plattformen unterschiedlich stark übertakten, damit beide "normalisiert" auf 6000 MT/s laufen, wobei noch nichtmal klar ist, ob beide das überhaupt stabil packen?
Ich hatte schon genug Probleme erst meinen 5900X, und später meinen 5800X3D, mit 3600MT/s laufen zu lassen und habs letztendlich aufgegeben.
Es wäre Sinnvoller, den kleinsten gemeinsamen Nenner zu nehmen und beide Plattformen auf 5200 MT/s laufen zu lassen, als beide Herstellerangaben zu ignorieren und zu übertakten - in einer Zeit in der CPU's eh schon quasi von Werk aus am Limit laufen, wäre das am ehesten "normalisiert"...

C0rteX schrieb:
War zu erwarten. Cache ist Trumpf. Hätte mich auch überrascht, wenn es anders gewesen wäre.

@gesperrter_User
Na wenigstens "verglüht" der AMD Prozessor nicht, wie die K-Prozessoren der Intel 13./14. Gen.

AMD Fanboi detektiert!
Zur Info: AMD gönnt sich unter Volllast 230 Watt für den 7900X und den 7950X.
Das ist jetzt nicht so weit von Intels 253 Watt weg - es sind auf dem Papier genau 10%.
In der Praxis relativiert sich das aber sehr stark.
Anders gesagt: ein 14600K liefert so ziemlich die gleichen fps pro Watt wie ein Ryzen 7900X ohne 3D.
Und ich sehe dabei NICHT die ganze zeit im Afterburner Overlay oder sonstwo 95°C!

Crifty schrieb:
Was ich an der Thematik nicht verstehe ist die Tatsache das man zwei unterschiedliche Serien bedienen möchte, anstatt einer und dann durchgängig als X3D Varianten. Das würde Geld sparen und zusätzlich wären dann solche Erkenntnisse aus der Welt. Das die normalen jetzt keiner mehr wirklich interessiert, muss AMD doch auch schon aufgefallen sein.

Ist dir schonmal aufgefallen, dass die X3D CPU's allesamt niedriger Takten, als ihr non-X3D Gegenstück?
Es gibt Anwendungsgebiete, da ist nicht Cache = König, sondern Takt = König.
Am besten noch in Verbindung mit vielen Kernen, aber bitte nicht so viele, dass es eine Server CPU braucht.
Und auch bitte mit 64 bis 256 GiggleBreit RAM...
Solche Anwendungsgebiete nennt man "Produktiv-System" - also die andere Sache außer zocken, die man mit PC's macht: arbeiten!
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Pico1979 und Ja_Ge
Quidproquo77 schrieb:
Wo hätte ich das denn gesagt?
Ach, das warst nicht du sondern der Kollege Taxxor. Asch über mein Haupt.
Quidproquo77 schrieb:
Als nächstes kommt wohl einzig und alleine SuperPi?^^
Etwas Kreativität bitte. Mit der Auswahl der Benches dehnst du deine IPC von x (11%) bis (28%). Also was bringt diese Besserwisserei.
Quidproquo77 schrieb:
Die ewige Frotzelei gegen einen IHV und für den anderen und umgekehrt auch nicht.Dann hat Intel eben aus deiner speziellen Sicht die IPC über 2 Architektur-Upates nur um 22% Punkte nicht 28% in Cinebench 2013 verbessert.
Hab ich was verpasst? Ich sage die ganze Zeit, dass das egal ist. Es kommt mir nur auf für mich relevante Workloads an und eben nicht auf irgendwelche synthetischen Benchmarks. Ich hab auch nicht 'gefrozzelt' nur einmal 'gerantet' und, wie ich denke, berechtigt. Schieß dich besser weiter auf deine anderen Kombatanten ein, die deine Leidenschaft des sinnlosen Schlagabtausches teilen.
Quidproquo77 schrieb:
Ist und bleibt halt Unsinn, genauso wenn ich jetzt den AMD Prozessor mit 10 oder 20 Jahre alten legacy Code rödeln lasse oder faktenfrei irgendwas von Zwischengenerationen erzähle. Man dreht sich im Kreis.
Alte CPUs mit aktuellen Benchmarks erneut zu testen ist ebenfalls nicht auf meinem Mist gewachsen. Die Theorie, dass 'man das so macht' kommt auch aus diesm Thread.

Das mit den Zwischengenerationen ist so ein Hobby von dir? Oder willst du mir da irgendwelche Erzählungen faktenfrei unterschieben?
 
  • Gefällt mir
Reaktionen: Alesis
Stramma schrieb:
Hab ich was verpasst? Ich sage die ganze Zeit, dass das egal ist.
Ich finde es halt nicht egal, da Games auch deutlich besser skalieren. Klar kann ich auch alte workloads von vor 10 Jahren verwenden, nur bringt das üblicherweise keine Erkenntnisse darüber was die micorarch. dann heute leistet.

Ich lebe ja nicht in der Vergangenheit.
Stramma schrieb:
Es kommt mir nur auf für mich relevante Workloads an und eben nicht auf irgendwelche synthetischen Benchmarks.
Gibt doch genügend Vergleiche von anderen Testseiten, die kommen alle nicht auf das Ergebnis von Cinebench R15. Die Spiele IPC ist in ähnlichem Maße gestiegen.Siehe 10900K vs 12900K/ 13900K, die E Cores bringen ja vorerst eh nichts. Das sind 60% abzüglich paar Prozent Takt und RAM.
Stramma schrieb:
Alte CPUs mit aktuellen Benchmarks erneut zu testen ist ebenfalls nicht auf meinem Mist gewachsen. Die Theorie, dass 'man das so macht' kommt auch aus diesm Thread.
Was heißt schon alt. Die paar Jahre, da ist softwaretechnisch kaum was passiert.
Stramma schrieb:
Das mit den Zwischengenerationen ist so ein Hobby von dir?
Das Hickhack interessiert mich nicht.
 
Quidproquo77 schrieb:
Seitdem hat sich überhaupt nichts mehr getan was den Corecount im dem Preisspektrum betrifft.
Aktuelle 8 Kerner mit 16 Threads kosten nun eher wieder mehr, wenn gelauncht wird und der 9600X wohl um den Preisbereich von 359 Euro zum Launch. Da kann man nur auf Intel hoffen, dass sie die E-Cores auf den Billigmodellen freischalten, damit mal was weitergeht.

Das mit den Kernen stimmt soweit. Aber: Der 7600X war zu Markstart auch für 350 Euro zu haben (der 5600X genauso bereits). Die hielt er keinen Monat. Und bis heute hat sich der Preis sogar halbiert, gerade mal gut eineinhalb Jahre später. Und analog zu Ryzen 5600x und Co. werden die Preise wohl noch weiter fallen -- das ist mittlerweile eine 100-Euro-CPU. Das heißt, dass CPUs am Ende für mitunter weniger als einem Drittel der Marktpreise gehandelt werden, für die sie gestartet sind. Das gilt bis hoch ins High-End, siehe der 9 5950X: Für fast 1000 Euro Euro gestartet, aktuell ein 300-Euro-Chip. Es gab ihn einmalig sogar bereits für 269 Euro (boxed).

Das ist einer der gigantischen Unterschiede zu den GPUs. Einfach ein bisschen warten und den Early-Adopter-Aufschlag nicht mitnehmen. Wer eine CPU über viele Monate nutzt, den sollten ein paar Wochen Däumchendrehen nicht ins Schwitzen bringen. :)
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Ja_Ge und latiose88
da!mon schrieb:
Und ich sehe dabei NICHT die ganze zeit im Afterburner Overlay oder sonstwo 95°C!
siehst du beim 7900x doch auch nicht. vor allem sind die 2ccd cpus leichter zu kühlen als die 1ccd cpus. Auch werden beim spielen beide cpus nicht voll ausgelastet.
 
Quidproquo77 schrieb:
Ich finde es halt nicht egal, da Games auch deutlich besser skalieren. Klar kann ich auch alte workloads von vor 10 Jahren verwenden, nur bringt das üblicherweise keine Erkenntnisse darüber was die micorarch. dann heute leistet.
Wieder ein Scheinargument, da ich das ebenfalls schon sagte. In der Bubble hier sind wohl Games wichitger. Und ob mir älter Workloads wichtig sind oder nicht, könntest du schon mir überlassen.
Quidproquo77 schrieb:
Ich lebe ja nicht in der Vergangenheit.
Ich lese die 'Im Test vor 15 Jahren' Kolumne und finde das gut.
Quidproquo77 schrieb:
Gibt doch genügend Vergleiche von anderen Testseiten, die kommen alle nicht auf das Ergebnis von Cinebench R15. Die Spiele IPC ist in ähnlichem Maße gestiegen.Siehe 10900K vs 12900K/ 13900K, die E Cores bringen ja vorerst eh nichts. Das sind 60% abzüglich paar Prozent Takt und RAM.
Du stehst also doch auf den albernen Hickhack. Entscheide dich doch endlich.
Quidproquo77 schrieb:
Was heißt schon alt. Die paar Jahre, da ist softwaretechnisch kaum was passiert.
OK, das ist wircklich witzig. Hier entscheidest du, was 'alt' ist und ab welchem Zeitpunkt 'softwaretechnisch etwas passiert' und auch, dass das überhaupt relevant sein muss. Vorhin hast du auch entschieden, dass 10 Jahre zu viel sind. Warum sollte das alles so sein und warum sollte mich deine willkürliche Einordnung interessieren? Passt gerade besser oder was?

Und nochmals, evtl. verstehst du es dann: Ich nehme dir deine Meinung, Intel hat in letzter Zeit brauchbare IPC-Steigerung geschafft, nicht.
 
  • Gefällt mir
Reaktionen: C0rteX und Ja_Ge
Stramma schrieb:
Alte CPUs mit aktuellen Benchmarks erneut zu testen ist ebenfalls nicht auf meinem Mist gewachsen. Die Theorie, dass 'man das so macht' kommt auch aus diesm Thread.
Vielleicht hast dus überlesen, aber es ging nicht darum, CPUs "erneut" mit aktuellen Benchmarks zu testen.
Cinebench R20 gab es schon vor Release des 10900K.
Beim ersten Test, wo man ab da einen IPC Sprung messen konnte, also 11900K vs 10900K, gab es bereits sowohl R20 als auch R23 und der R15 war zu der Zeit 8 Jahre alt
 
Quidproquo77 schrieb:
Mehr Kerne und keine überteuerten deaktivierten Chips.
Nach 7,5 Jahren Stillstand kann man das schon mal erwarten.
Solange AMD & Intel gewinnorientiert arbeiten und die "kleinen" CPUs für den verbreiteten Office Bereich genug Leistung haben wird das eher nicht passieren. Ist ungefähr analog zu: Ich bin der Meinung Autos sollten -auch bei kleinen Modellen- mindestens 3-stellige PS Zahlen haben, aber solange es einen Markt gibt fahren die Verkehrshindernisse weiter rum.
 
Taxxor schrieb:
Vielleicht hast dus überlesen, aber es ging nicht darum, CPUs "erneut" mit aktuellen Benchmarks zu testen.
Ist mir entgangen und dann möchte ich dir diese Aussage auch nicht weiter zuordnen.
Ändert aber an meiner Aussage nichts, dass ich mir meine CPUs nach meiner Workload aussuche.

Ich gestehe aber ein, nachdem ich ein paar Cinebench Benchmarks verglichen habe, dass der 14900K mit R15 überproportional 'Punkte' liegen läßt. Unfair? Interessant? Beides? Es als einzige Wahl zu nehmen hat wohl Bias.
 
Stramma schrieb:
Ändert aber an meiner Aussage nichts, dass ich mir meine CPUs nach meiner Workload aussuche.
Das ist ja sowieso klar, wenn man sich Benchmarks anschaut, dann achtet man primär auf jene, die am ehesten dem eigenen Workload entsprechen.

Auch der Computerbase Test ist da ja nicht wirklich stark diversifiziert, weil 3 von 4 Tests einfach unterschiedliche Cinebench Versionen sind. Immerhin hat man dann noch POV-Ray dabei.
Wenn da noch ein paar mehr Anwendungen enthalten wären, könnte man dann entsprechend diejenigen rausklicken, die nicht relevant für einen selbst sind.
Aber für eine möglichst allgemeine Aussage zur Leistungs- und IPC-Steigerung kann man dann schon mal mit dem Mittelwert aller getesteten Anwendungen anfangen.
Da ist es dann halt schwierig, wenn der komplette Test nur aus Cinebench R15 besteht
 
  • Gefällt mir
Reaktionen: Stramma
mir ist es egal weil auch mit alten workloads gibt es eine Steigerung. Würde mich wundern wenn es da keine mehr geben würde. Ob es nun 10 Jahre oder älter ist spielt keine Rolle. Ich selbst verwende ja auch nicht die neuesten Version sondern auch ältere.
Aber es gibt Ausnahmen. Sobald mal der Punkt kommt wo mit der alten Version die neuen CPUs langsamer als Vorgänger sind, dann ist was nicht richtig oder läuft falsch. Wenn dann die neuste Version wiederum Steigerung bringt dann scheint wohl die Software was zu bremsen. Genau sowas durfte ich schon mal feststellen. Ich hoffe sowas passiert bei mir nicht,weil das wäre ja echt doof wenn das passieren würde.

was sich ebenso nichts dran ändern wird sind SD TV Fernsehen mit 576i. Die sind schon sehr alt und bisher sieht es nicht danach aus das etwas sich jemals ändern wird. Vielleicht ja 30 Jahre später mal, wer weis. Auch Software wird sich mal verbessern weil es wird gewiss keine 20 Jahre stillstand bei Software geben. Bei games gibt es jedenfalls kein stillstand aber beim Rest bei einigen schon.

nur was sagt es aus das neue CPUs schlechter als die Vorgänger sind über die Software. Das ist ne gute frage. Es scheint auch mal limits zu geben.
 
Northstar2710 schrieb:
siehst du beim 7900x doch auch nicht. vor allem sind die 2ccd cpus leichter zu kühlen als die 1ccd cpus. Auch werden beim spielen beide cpus nicht voll ausgelastet.
Das ist korrekt: 2-CCD CPUs sind leichter zu kühlen, weil insgesamt weniger Wärme pro Kern abgeführt werden muss und die Wärme sich auf einer größeren Fläche verteilen kann. Aber genauso korrekt ist: Intel wird nicht viel wärmer als AMD.
Und ein 7900X der NICHT im "Eco Modus" betrieben wird, gönnt sich a.: ~180 Watt in Anwendungen (im worst case Szenario eben auch bis zu 230 Watt), und b.: wird sich erstmal Designtechnisch bis 95°C aufwärmen und dann den Takt nach unten korrigieren, wenn der maximale Takt nicht mit 95°C oder weniger gehalten werden kann.
Hängt halt von der Kühllösung ab...

Stramma schrieb:
Es als einzige Wahl zu nehmen hat wohl Bias.
*Ist wohl Bias - nur so als kleine Hilfe: "he is biased" = er ist voreingenommen, daher ist "ist" grammatikalisch korrekt 😉
 
Atma schrieb:
Die Auswirkung wäre tatsächlich verschwindend gering im Alltag und beim Gaming. Nur bei Volllastszenarien wären die Auswirkungen deutlicher sichtbar. Mein i9 läuft mit forciertem PL2 (253 Watt) und kein Spiel der Welt bringt die CPU in derartige Regionen außer in den ersten Sekunden/Minuten beim Shader kompilieren.
Das bezweifle ich zu keiner Sekunde.
Wirklich Dauervollgas sehen die Dinger nur beim Rendern, da wird sich das auch bemerkbar machen.
Bei den Ryzen 7x00 non X Modellen (65W TDP) hat sich das ja auch gezeigt, dass im Alltag der Unterschied quasi nicht existent ist und man daher bedenkenlos zur "kleinen" TDP greifen kann.

Mit "dem kürzeren Balken" meinte ich tatsächlich auch gezielt nur die - in der Regel - eher praxisfernen Benchmarkergebnisse. Bei den Prestigeträchtigen Topmodellen tut der kürzere Balken dann natürlich schon weh, auch oder gerade weil es am Ende vor allem Marketing ist.
 
AMD-Flo schrieb:
Mit DDR5-6000 CL30 ist der Ryzen 7 7700(X) im Schnitt schneller als der 5800X3D.
@Jan Wäre schön, wenn CB auch mit diesem üblichen Setup testet.

Siehe auch:
https://www.techspot.com/review/2592-ryzen-5800x3D-vs-ryzen-7600x/
Ich habe mir den "Test" auf techspot mittlerweile mal angeschaut und ich muss sagen: die Zahlen sind sowas von an den Haaren herbeigezogen, das ist nicht mehr feierlich - ich schaffe mit meinem 5600X in Verbindung mit meiner 3080 12G teilweise mehr frames.
Ich ziehe die Galubwürdigkeit des verlinkten Artikels also stark in Zweifel!
 
Stramma schrieb:
Ich gestehe aber ein, nachdem ich ein paar Cinebench Benchmarks verglichen habe, dass der 14900K mit R15 überproportional 'Punkte' liegen läßt. Unfair? Interessant? Beides? Es als einzige Wahl zu nehmen hat wohl Bias.
Na dann sind wir uns ja einig.
 

@Quidproquo77
Und wieder willst du die Randbedingungen diktieren? Nein, wir sind uns nicht einig.
Ergänzung ()

da!mon schrieb:
*Ist wohl Bias - nur so als kleine Hilfe: "he is biased" = er ist voreingenommen, daher ist "ist" grammatikalisch korrekt 😉
Bei richtig geiler Klugscheißerei hättest du auch schöneres Deutsch verwenden können und irgendwas mit 'zeigt Bias' angeführt.
 
Stramma schrieb:
Wieder ein Scheinargument, da ich das ebenfalls schon sagte.
Jedenfalls nicht mit mir diskutiert, sondern meinem Einwand zu Cinebench R15 stetig widersprochen.
Wenn du das sowieso ähnlich siehst, dann sind wir uns ja auch da einig.
Stramma schrieb:
Und ob mir älter Workloads wichtig sind oder nicht, könntest du schon mir überlassen.
Du kannst gerne auch 30 Jahre alte Software mit aktuellen Architekturen testen, nur werden dann die Befehlssätze wie beispielsweise AVX2 nicht genutzt und somit auch nicht die "IPC" angemessen bewertet.
Stramma schrieb:
Ich lese die 'Im Test vor 15 Jahren' Kolumne und finde das gut.
Ja, das kannst du ja machen, nur hat das keinerlei Relevanz.
Stramma schrieb:
OK, das ist wircklich witzig. Hier entscheidest du, was 'alt' ist
Ja, ist halt ein Unterschied ob Software 10 Jahre alt oder 1 Jahr alt ist.
Stramma schrieb:
Ändert aber an meiner Aussage nichts, dass ich mir meine CPUs nach meiner Workload aussuche.
Das ergibt Sinn, aber wenn ich allgemein über IPC Zuwächse spreche, dann bringt es halt wenig, Cinebench R15 von vor 11 Jahren zu testen, weil das veraltet und einen "Bias" hat, zugunsten der alten Prozessoren und im Bezug darauf sind wir uns halt offensichtlich doch einig.
 
Zuletzt bearbeitet:
da!mon schrieb:
In der Praxis relativiert sich das aber sehr stark.
das sind nur Hersteller limits, und keine realen Bedingungen, da brauch selbst der 14600k schon mehr watt wie der 7950x3d und ost auch noch 48% langsamer.
https://www.computerbase.de/2023-10...2/#abschnitt_leistungsaufnahme_in_anwendungen
da!mon schrieb:
Anders gesagt: ein 14600K liefert so ziemlich die gleichen fps pro Watt wie ein Ryzen 7900X ohne 3D.
Und ich sehe dabei NICHT die ganze zeit im Afterburner Overlay oder sonstwo 95°C!
aus welchem Universum kommst Du ? FPS pro watt kann der 14600k nicht mal den alten 3800 wirklich schlagen und der 7900 ist keine Gaming CPU da steht er gegen 7600x/7700x oder eben 7800x3d und keinen von denen kommt er auch nur annähernd nahe
 
Mit dem 5800X3D bin ich so zufrieden das ich News zu neuen Generationen erst gar nicht mehr verfolgt habe. Ich hoffe das bleibt noch bis zur nächsten Generation so. :D
 
  • Gefällt mir
Reaktionen: Quidproquo77
Zurück
Oben