Test RAM-OC-Benchmarks: Ryzen 7 5800X3D vs. Core i7-12700K und i9-12900K

owned139 schrieb:
Stimmt so halt auch nicht. ADL und RPL laufen beispielsweise auf einer Plattform.


Vom Serverbereich habe ich keine Ahnung, aber zu deinem letzten Satz: ZEN4s PPT liegt für den 16 Kerner bei 230W. AMD ist in der Hinsicht also nicht wirklich besser.


Wenn die Abwärme der limitierende Faktor ist, wie kommts, dass dich ~60W mehr bei der CPU stören, aber du eine Highend GPU mit ordentlich Abwärme einbaust?


Was den Preis und die gebotene Leistung angeht, haben sie im Mainstream längst aufgeschlossen und AMD sogar überholt. Nur bei der Effizienz kann man dem 5800X3D nicht das Wasser reichen, was Spiele anbelangt.
Zen 4 muss man mal abwarten, wann auch immer die faktisch erscheinen werden im Desktop segment.

Die RX 6800 non xt ist für mich der Sweetspot was Leistung/ W betrifft. Sie ist ein ganzes stück kühler als die 6800xt. Und spätestens nach dem UV ist sie unhörbar bei anliegenden 79-89°. Alles darüber hinaus könnte möglicherweise eng werden.

Es geht mir tatsächlich um die Effizienz, mein aufschließen war darauf bezogen :-D sry
 
immortuos schrieb:
Naja bereuen muss man da ja auch nichts, einen Vorteil hast du aber eben nur in Singlecoreanwendungen.
Wo AM4 deiner Ansicht nach "für den Popo" ist, hätte ich aber gerne mal erklärt.
Sehr gerne, die gesamte Plattform ist von Anfang an mit unsäglichen Bugs geplagt, die AMD bis heute nicht in den Griff bekommen hat.

irgendwann hat mans dann auch mal satt, ständig seine USB Geräte im Port zu switchen, nur weil die Plattform mal wieder meint abzukacken.

Ansonsten kommen meine VMs auch mit weniger Kernen klar. Also AMD, nie wieder, Danke sehr.
 
Hab mal gelesen das der 5800x3d im Idle vergleichsweise viel braucht/ineffizient ist, stimmt das?
Ab welchem Verhältnis Spielzeit/Idle, Desktop/Browsing/Video wird die bessere Spieleffizienz den unwirksam?
 
owned139 schrieb:
Vom Serverbereich habe ich keine Ahnung, aber zu deinem letzten Satz: ZEN4s PPT liegt für den 16 Kerner bei 230W. AMD ist in der Hinsicht also nicht wirklich besser.
Das sind dann 16 Big Cores die über 5Ghz laufen können dank 230W PPT.
Ob das die Effizienz arg schmälert ist fraglich.
Auf alle Fälle wird das effizienter sein als Alder Lake und vermutlich auch Raptor.
Ergänzung ()

vander schrieb:
Hab mal gelesen das der 5800x3d im Idle vergleichsweise viel braucht/ineffizient ist, stimmt das?

Schlicht nein!
https://www.computerbase.de/2022-04...itt_leistungsaufnahme_leerlauf_und_singlecore

https://www.computerbase.de/2022-04...itt_leistungsaufnahme_leerlauf_und_singlecore

Und das wird auf einem sparsamen B550 oder X470 Board besser aussehen als hier im Test.

Und in den Games ist er halt schon massiv sparsamer.
https://www.computerbase.de/2022-04...3/#abschnitt_die_leistungsaufnahme_in_spielen
 
Zuletzt bearbeitet:
Taxxor schrieb:
80°C in Spielen ist schon sehr heiß, dafür dass er fast nix verbraucht dabei, ich würde mal schätzen, je nach dem in welcher Auflösung du unterwegs bist, wirst du bei ~50W liegen.

Lass ihn mal in einem wirklichen Multicore Workload seine >100W verbrauchen und er wird dir innerhalb weniger Sekunden ins Temperaturlimit laufen
ich weiß nicht ob sich der 5800x3d anders verhält als z.b. beim 5950x. letzterer ist bei mir deutlich heißer bei teillast szenarien als bei vollast (also 142w). beim gaming habe ich über 80°c, peaks beim arbeiten liegen bei knapp 90°c. wenn ich in lightroom exportiere und (fast) alle kerne auslaste, bleibt er unter 80°c.
 
@Veitograf Dadurch dass du auf ein 8 Kern Chiplet nur ~60W geben kannst und beim 5800X und 5800X3D auf ein 8 Kern chiplet ~120W kommen, ist es klar, dass bei Vollast ber 5950X besser zu kühlen ist, während es bei Teillast ähnlich ist, sofern die Last sich auf ein Chiplet konzentriert.
Ergänzung ()

modena.ch schrieb:
Das sind dann 16 Big Cores die über 5Ghz laufen können dank 230W PPT.
Ob das die Effizienz arg schmälert ist fraglich.
Die Effizienz wird ggü einem PPT von 142W natürlich deutlich geschmälert, aber was soll AMD anderes tun, wenn es mit 142W nicht für den längsten Balken reicht?
Dann interessieren sich die wenigsten für die Effizienz, die wird meist erst als positiver Zusatzpunkt betrachtet, wenn man gleichzeitig auch den längsten Balken hat.

Sprich "Wir sind 10% langsamer, aber verbrauchen dafür 50% weniger", verkauft sich in einer Präsentation nicht so gut wie "Wir sind 5% schneller und verbrauchen dabei auch noch 20% weniger".
modena.ch schrieb:
Auf alle Fälle wird das effizienter sein als Alder Lake und vermutlich auch Raptor.
Der 7950X soll ja (mindestens)~35% im MT zulegen auf den 5950X. Damit landet man ~40% vor einem 12900K bei gleichem Verbrauch.

Raptor Lake wird durch die zusätzlichen ECores im MT ~30% schneller sein als Alder Lake bei gleichem Verbrauch, der Abstand wird also wieder verkürzt, Zen4 bleibt aber vorne.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Veitograf
@ultravoire
Eine 6800 ist weder High End noch erzeugt sie viel Wärme. Undervolting kann man machen, verliert in der Regel aber auch Boost Takt und damit auch Leistung. Kommt natürlich darauf an wie weit man es treibt. Lautstärke ist subjektiv, mir wäre nicht eine 6800 Karte mit Luftkühler bekannt die ich als "leise" betiteln würde. Man kann es ertragen.
Was das Board betrifft.... nein.... finde ich nicht bemerkenswert. Einfach weil man sich diverse Features entgehen lässt die nach gekommen sind. Wer vernünftig kauft, wird seine CPU so einkaufen, dass er mindestens 3-4 oder 5 Jahre Ruhe hat bevor er mehr Leistung benötigt. Das ist hier wesentlich einfacher zu realisieren, als bei Grafikkarten. Meist gibt es dann neue CPUs und neue Chipsätze die interessante Neuerungen bieten. Und wer nicht grade immer ein blinke blinke OC irgendwas Board mit fettem Brand benötigt, muss auch nicht sinnlos Geld zum Fenster rauswerfen.
 
McFly76 schrieb:
Spätestens mit den AMD Ryzen 7000 ist INTEL's "Vorsprung" komplett weg und ich verstehe es nicht warum sie jetzt noch die Preise für CPU's / Sockel 1700 Mainboards erhöhen. Tja, INTEL Adieu ! :D
Dir ist schon klar das zur gleichen Zeit auch Raptor lake kommt und Ryzen 7000 eben an Raptor Lake gemessen wird?
Ich vermute eher das die neuen Ryzens im singlecore zu Intel aufschließen, im multicore aber deutlich geschlagen werden vor allem im Bereich bis 300 Euro. Keine Ahnung wie hier ein 7600X gegen einen 13600k bestehen soll. Von "Adieu INTEL " kann da nicht die reden sein.
Da die meisten hier den Rechner hauptsächlich zum Spielen nutzen wird das denke ich ein spannendes Rennen zwischen AMD und INTEL was nur gut für uns ist. Ich hoffe das AMD mit guten Preisen daher kommt weil sie eben im Multicore nicht mithalten können.
 
Esenel schrieb:
Der 5800X3D war zu keiner Zeit im Power oder Temp Limit und dadurch auch nicht eingebremst.

Und höher als 4450MHz geht ja eh nicht.
Da BCLK OC negativen Einfluss auf andere Komponenten haben kann, ist dies mMn keine Option.

Deine Antwort kann ich nicht nach voll ziehen. Soweit mir bekannt, erreichte noch jeder 5800X3D mit negativen Offset per PBO2 Tuner (und einige mit -30 offset stabil) höher Punkte. Sowohl ST wie MT lasten und Games inkl den Mora WaKu Rechnern. Die Leistung steigt bei allen auch ohne die 79° oder die Stromlimits zu pushen. PBO2 regelt viel früher.

Und in Games, wo immer wieder keine saubere MT Lasten anliegen sollten dann doch die 4550 anliegen und nicht die 4450.

Betreffend BLCK kann ich deine Antwort in mehreren Punkten nicht einordnen und nachvollziehen:

1. RAM OC hat die gleichen Risiken -> Durch Testen stellt man ein Mindestmass an Stabilität sicher. Wieso nicht beim 5800X3D auch beim BLCK? Hast du ja sicher beim Ram und auch sicher beim Intel und dem OC der Multi gemacht.

2. Asus X470 Crosshair, hat nicht gerade dieses Board eigene Blockgenerator für BLCK OC? Und selbst wenn nicht, 5-8% sind doch bei einigen drin.

Ich bin mir ziemlich sicher, dass mit den ca. 8-10% des OC welche du nicht nutzt der 5800X3d den 12700k klar schlägt und am 12900k dran ist. (Offset und BLCK, bei mir mit 105 und -30 sind in SOTR 12% FPS AVG)

Aber am Ende einfach mein Hinweis. Der Test ist OC Intel CPU mit OC Ram gegen Default AMD CPU mit OC Ram. Und du weisst selbst, dass dies kein "sauberer" Vergleich ist. Auch wieder nicht zu Ende geführt. Ich schätze dein Engagement und danke dir für die Arbeit. Jedoch nicht zu Ende geführt. Und ehrlich, du weisst das doch alles auch ganz sicher.

Das du MaxOut beim Ram wegen 1 oder 2 % dann stoppts kann man verstehen (5800X3D Ram Optimierung). Das geht Richtung Messungenauigkeit, 8-10% ändern dein FAZIT.

"Und wie sieht es mit dem Intel Core i-9 12900K und DDR5 aus? In Spielen, in denen der i7-12700K gleichauf oder vor dem 5800X3D ist, kann sich Intels Speerspitze nochmal etwas absetzen"

Links:

OC DESIGN ASUS PRO CLOCK TECHNOLOGY​

..ROG Crosshair VII Hero features a dedicated onboard clock generator that supplies dynamic reference clocks to the CPU cores and major subdomains, giving you the freedom to coax every MHz of headroom from the system...

https://rog.asus.com/motherboards/rog-crosshair/rog-crosshair-vii-hero-wi-fi-model/

https://github.com/PrimeO7/How-to-u...X3D-Guide-with-PBO2-Tuner/blob/main/README.md

105BLCK, auf nem X370 Taichi ohne eigene Taktdomaine wie Asus Crosshair
 

Anhänge

  • 105.PNG
    105.PNG
    32,4 KB · Aufrufe: 177
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Eli0t
DJMadMax schrieb:
Es ist und bleibt praxisfern! Schlimmer noch, der geneigte Käufer denkt nun: "Uuuuuui, ich muss den 5800X3D mit ultraschnellem RAM kaufen, weil guck mal, wie schnell der da rendert"

Was ist in 1440p, wo der Käufer dann tatsächlich spielt - wohl auch mit hohen Grafikeinstellungen, wenn er die passende Grafikkarte hat? Ja so ein Pech aber auch, hat er dann plötzlich nur noch 85 FPS mit dem 5800X3D und dem Super-Ultra-Todes-OC-RAM, wo er doch genauso 85 FPS mit einem 12400F und konservativem DDR4-Speicher hätte.

Ich teste nichts fernab der Praxis und es ist und bleibt mir ein Rätsel, wieso man sich immer so selbst beweihräuchern muss, nur, damit man beim Test zweier Dinge auch tatsächlich einen Unterschied in den beiden Graphen hat.

Wieso eigentlich 720p? Was soll der Quatsch, macht's doch gleich richtig und stellt auf 320x200, wie in guten alten Zeiten.

Sorry, ich muss mich über diese Verschwendung an Ressourcen (Zeit und Arbeit, die hier - wie in so viele weitere 720p-Tests hineingesteckt wurde) einfach nur aufregen, es ist und bleibt ein Trauerspiel.
Ergänzung ()


Genau das!
Also da muss ich dir nahezu vollständig widersprechen. Lass mich mal etwas ausholen:

Ich persönlich baue mir ca. alle 6-7 Jahre einen neuen PC. Innerhalb dieser Zeit rüste ich 2-3 mal die GPU auf, verdopple meist den Ram und erweitere den Speicherplatz je nach Bedarf. Die CPU/Mainboard wechsle ich wirklich nur wenn ich mir ein komplett neues System gönne. Beim CPU kauf ist mir durchaus klar das die ganzen CPU Tests in 720p AKTUELL recht praxisfern sind (wenn man hauptsächlich spielt). In sagen wir 2 Jahren kommt aber wieder eine neue Grafikkarten Generation, in 4 Jahren dann wieder eine usw. Der GPU Flaschenhals wird also mit der Zeit immer geringer wenn man wie ich (und ich gehe mal davon aus das es die meisten so machen) nur alle 3-4 Generationen eine neue CPU samt BOARD kauft. Diese zunächst realitätsfremden Benchmarks in 720p werden also nach einiger Zeit gar nicht mehr so Realitätsfremd wenn man eine neue GPU kauft :)

Du hast natürlich recht das es einige Nutzer verwirren kann wenn sie Benchmarks in 720p sehen und dann die Leistungsunterschiede der einzelnen CPUS in allen Auflösungen erwarten. Um ganz ehrlich zu sein halte ich es aber für jeden Erwachsenen Menschen der einige 100 oder gar 1000 Euro in ein neuen PC steckt für durchaus zumutbar sich ein wenig zu belesen und sich über die Leistungstragenden Komponenten (CPU,GPU,Ram und teils Festplatten) und deren Relevanz in verschiedenen Auflösungen zu informieren. Es ist ja nicht so das es dazu kaum Infos gibt, allein auf Youtube werden einem hier bei entsprechender Suchanfrage in der Richtung 2000000 Videos zu dem Thema vorgeschlagen.

Im Umkehrschluss würde ich dich fragen was genau du dir von einem CPU - Test in "realen" Auflösungen versprichst? Nimm dir einen Zettel, mal 10 gleich lange Striche untereinander und schreibe an jeden Strich den Namen einer CPU der letzten 3 Jahre und zack hast du den 4k CPU test... In 1440p bekommst vll. minimale Unterschiede je nach Spiel aber das ist so gut wie immer nicht Spürbar sondern nur messbar.
 
Taxxor schrieb:
Die Effizienz wird ggü einem PPT von 142W natürlich deutlich geschmälert, aber was soll AMD anderes tun, wenn es mit 142W nicht für den längsten Balken reicht?

Der 7950X soll ja (mindestens)~35% im MT zulegen auf den 5950X. Damit landet man ~40% vor einem 12900K bei gleichem Verbrauch.

Raptor Lake wird durch die zusätzlichen ECores im MT ~30% schneller sein als Alder Lake bei gleichem Verbrauch, der Abstand wird also wieder verkürzt, Zen4 bleibt aber vorne.

Das kommt drauf an was Raphael am Ende bei 230W wirklich leistet.
IPC, welcher Takt gehalten werden kann etc.

Erste Raptor Lake Prototypen deuten darauf hin, dass er nochmals etwa mehr verbraucht als Alder Lake.
Das sieht etwa nach 20% höherem Verbauch aus.
 
vander schrieb:
Hab mal gelesen das der 5800x3d im Idle vergleichsweise viel braucht/ineffizient ist, stimmt das?
Ab welchem Verhältnis Spielzeit/Idle, Desktop/Browsing/Video wird die bessere Spieleffizienz den unwirksam?
das passiert, wenn man schnelleren RAM als 3200 einsetzt, weil dadurch der IMC übertaktet wird. daher 3200CL14 bessere Option mMn
 
  • Gefällt mir
Reaktionen: herculesgott und bad_sign
freestaler schrieb:
Deine Antwort kann ich nicht nach voll ziehen. Soweit mir bekannt, erreichte noch jeder 5800X3D mit negativen Offset per PBO2 Tuner (und einige mit -30 offset stabil) höher Punkte. Sowohl ST wie MT lasten und Games inkl den Mora WaKu Rechnern. Die Leistung steigt bei allen auch ohne die 79° oder die Stromlimits zu pushen. PBO2 regelt viel früher.

Und in Games, wo immer wieder keine saubere MT Lasten anliegen sollten dann doch die 4550 anliegen und nicht die 4450.
Als Besitzer eines 5800X3D der die CPU absolut Stock laufen lässt (kein PBO / Kein CO) nur RAM OC, kann ich dir versichern, dass es auf die einzelne CPU ankommt.

Meine sitzt unter Wasser und erreicht Stock die Werte, die andere mit -30 allcore CO brauchen.

Ändere ich nun bei mir die Werte mit dem PBO2 Tuner auf -30 allcore, sinkt höchstens der Verbrauch und die Voltage, mehr passiert da aber auch nicht.

Weder in habe ich mehr FPS in Games, noch habe ich mehr Punkte im CB23 oder CPUz.

Es ist absolut Sample, Board und Kühlungsabhängig.

Und wenn @Esenel in seinen Messungen gesehen hat, dass der maximal anliegende Multicore Takt (4450MHz) und in Singlethreaded Szenarien den Takt (4550MHz) erreicht, dann wäre auch eine Nutztung von -30 Allcore CO nur eine weitere Möglichkeit gewesen die Leistungsaufnahme und Temperaturen zu senken (und ich glaube ihm das).

Wo wir dann bei "Verbrauch zu FPS" wären, den man noch hätte senken, bzw erhöhen können.
Das wäre eventuell der einzige Kritikpunk.
 
Zuletzt bearbeitet:
Stanzlinger schrieb:
Bevor ich auf dem Konto dafür Minus-Zinsne zahlen,...
Falsche Bank oder falscher Finanzberater, falls dieses Risiko wirklich bestand.
Ansonsten ist es keine schlechte Idee die Förderung mitzunehmen und auf PV zu setzen. Wenn die Rechnung aufgeht, dann lohnt sich das.

Man sollte aber so fair sein zuzugeben, das man dafür entsprechend flüssig sein muss und ein eigenes Dach braucht. Alles nicht für Umme. Idealerweise sollte die Förderung, die wir letztlich alle bezahlen dürfen, auch noch oben drauf kommen, damit man die Kosten schneller wieder rein hat.
Wer diese Voraussetzungen nicht erfüllt, der braucht gar nicht erst anzutreten. Wenn man das ganze dann darstellt, als ob man sich nur bücken bräuchte um das Geld aufzuheben... das gibt negative Stimmung.
 
GokuSS4 schrieb:
das passiert, wenn man schnelleren RAM als 3200 einsetzt, weil dadurch der IMC übertaktet wird. daher 3200CL14 bessere Option mMn
Interessant, also wäre mein 3600er, der für den 3700x ideal war, beim 5800x3d ein Problem?
Kann das jemand beziffern, wie viel Watt extra im Idle, wenn Memclk 3600 vs 3200?
Meinen Ram könnte ich ja auch mit 3200 betreiben. Ist die Frage ob bzw ab wann sich das lohnt.
 
vander schrieb:
Interessant, also wäre mein 3600er, der für den 3700x ideal war, beim 5800x3d ein Problem?
Auch dein 3700X wird im idle weniger verbrauchen, wenn du ihn mit 3200er RAM betreibst.
Ich könnte mir sogar vorstellen, dass das Verbrauchsdelta beim 3700X etwas höher ausfällt als beim 5800X3D, da der IMC an sich ja effizienter geworden sein dürfte.
 
von ne 5800x auf den neuen 5800X3D umzusteigen ist nicht so ein großer unterschied oder?
 
  • Gefällt mir
Reaktionen: Olimos
@freestaler
hier ein Beispiel aus PUBG mit meinem x3d
1659106764220.png


FPS Limit auf 160 gesetzt (da 165Hz Monitor 1440p).
Taktlimit bei 4450 - CO läuft mit -20 - RAM war hier noch auf 3600C16 (mittlerweile gerade Stabilitätstests zu 3800C15). Kein BLCK OC oder sonstigen schnickschnack - gar nicht notwendig bei der CPU. Man sieht hier halt schön, dass der im Taktlimit klebt.
Ergänzung ()

Florianw0w schrieb:
von ne 5800x auf den neuen 5800X3D umzusteigen ist nicht so ein großer unterschied oder?
ich bin von einem normal x auf den x3d umgestiegen - eher gewzungenermaßen, da mein 5800x den Geist aufgab.

was man wirklich schön merkt sind einfach die glatten Frametimes mit dem x3d - das lief beim normal x nicht so schön. ob es sich lohnt, ist deine Entscheidung, ist halt wieder ordenltich Geld für ein wenig Unterschied.
 
  • Gefällt mir
Reaktionen: Eli0t
@Verangry,
Welche Punkte erreichst du den z.B. beim CPU-Z Bench ST und MT? Effektiv mit PBo2 0 und -30 die gleichen Zahlen? Zumindest @OCN gehen die 5800X3D besser auch unter Wasser mit POB2 Offset. Erstaunlich das bei Dir da nicht mehr geht für mich. Wie hoch sind deine Temps den z.B. bei nem durchlauf SOTR Benchmark? Bleibst du unter den 56°?

@cm87, ja der Ausschnitt sieht sauber aus für PUBG und Max Takt, ist das CPU Limit oder läuft der 5800x3d danke 160 limit "leer"? 4550mhz sieht man aber auch nie bei Dir?
 
Zuletzt bearbeitet:
Zurück
Oben