Test RAM-OC-Benchmarks: Ryzen 7 5800X3D vs. Core i7-12700K und i9-12900K

DonL_ schrieb:
Leider ist ja MF der einzige Laden der Verkaufzahlen angibt, aber bei denen kann man sehen, das der 12700F im Vergleich zum 12700KF und dem 12700K so ziemlich der letzte Ladenhüter ist
Völlig unabhängig davon, welche nun tatsächlich die preisgünstigste CPU ist, ist das ein schlechtes Argument.

Die breite Masse ist schlecht informiert und kauft blind den 12700K, weil K "schon immer die beste CPU war". Was auch immer vorher war... 2600K, 4770K, 7700K, 8700K, 9900K, da ändert man sein Verhalten nicht.

Einige versuchen noch den kritischen Blick, sehen 2,1 GHz zu 3,6 GHz (die nur 200 MHz Unterschied beim Turbotakt stehen erst unten im Kleingedruckten), und schließen messerscharf auf über 70% Mehrperformance beim K-Modell. Dass man die Power-Limits auch anheben kann, erfordert schon Fachwissen.

Wirklich übertakten wollen nur die wenigsten. Und nur dafür braucht man das K.
 
  • Gefällt mir
Reaktionen: Rios
Nixdorf schrieb:
Na ja,

wir sind schon d'accord, aber bei MF kaufen ja Retailkunden, also eher die Masse die selber baut oder Jemanden hat der baut, das sind schon eher die Informierten oder Informierteren, im Gegensatz zu den OEM Kisten Käufer.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: McFritte
Freiheraus schrieb:
Dieser Parcour ist ziemlich verzerrend.
Eigentich gehen meine Benchmarks auch in die Richtung von der Leistungsverteilung her. Ich kann ja mal spoilern, wobei spoilern? ^^ Werde das eh nicht veröffentlichen wahrscheinlich, zu viel anderen Kram zu tun.

Ich habe auch solche Knaller im Parcours und trotzdem gewinnt der 12900K am Ende recht deutlich.

1659012157173.png

Freiheraus schrieb:
Bei Cyberpunk 2077 ist der Zen 8-Kern SMT-Bug immer noch nicht vom Entwickler gefixt, selbst ein Zen 6-Kerner ist deutlich schneller, der 8 Kerner wird schlicht ausgebremst.
Das ist ein guter Punkt. Man sollte hier den SMT Hack verwenden.
Freiheraus schrieb:
Bei Shadow of the Tomb Raider hat bereits @Zer0Strat anhand von 3 verschiedenen Szenarien aufgezeigt, dass 2 davon Zen gegenüber Intel liegen und der interne Benchmark repräsentiv ist im Gegensatz zu selektiven Szenarien wie es hier ausgesucht wurde.
Ich habe das eigentlich alles getestet, um zu zeigen, was fordernde Szenen bewirken können. Es gibt derer viele in der Spielewelt verteilt. Was nützen mir 300 FPS in einer Höhle, wenn die FPS im Dorf auf unter 60 absacken? Man sollte immer die am meisten fordernden Szenen verwenden, nicht das, was das Spiel im Mittel repräsentiert. Wenn du eine Tour in die Berge machst, dann richtest du deine Kleidung auf die kälteste Stelle der Tour aus, nämlich die Bergspitze.
Freiheraus schrieb:
Das alte Forza Horizon 4 ergibt keinen Sinn in einem neuen Parcour, wenn es Forza Horizon 5 gibt. Außer man möchte ein weiteres Intel-liegendes Szenarion hinzufügen.
Man nimmt halt was man hat. Dir bezahlt das keiner letztlich. Es sind Privatleute, die das hier gestemmt haben.
Freiheraus schrieb:
Und die vom Treiber-Overhead zerfressene RTX 3090 ist mehr als suboptimal für einen CPU-Test.
Treiber-Overhead ist etwas, was alle CPUs gleichermaßen stemmen müssen.
Freiheraus schrieb:
Das ganze Ding erscheint durch die Wahl der Titel, Szenen und Hardware gezielt etwas hingebogen bis ein merklicher Vorsprung für Alder Lake herauskommt. Der Bias war auch schon mal geringer zu spüren.
Das ist eine haltlose Unterstellung am Ende, nicht nett.
 
  • Gefällt mir
Reaktionen: Volvo480, Sun-Berg und Esenel
Danke für den Test. Schön zu sehen, wie sich Tuning und RAM Takt / Timings auswirken.

Bitte nicht falsch verstehen, das ist "Meckern auf hohem Niveau":

Es wäre richtig gut gewesen, wenn man den 5800 X3D noch mit 3200 C16 RAM getestet hätte, also quasi out of the box ohne manuell groß was tweaken zu müssen. Einfach um zu sehen, wie wenig (oder viel) der X3D vom RAM-Tuning profitiert. Evtl. das gleiche beim 12700K.

Wie gesagt, dass ist Meckern auf hohem Niveau.

Für mich wäre die Entscheidung klar, der 5800X3D gewinnt jeden Test, da ich einfach Effizienz bevorzuge. Jedes Watt, was nicht gekühlt werden muss (und auch nicht bezahlt), ist ein gut gespartes Watt. Und da alle Games 1A auf dem 5800X3D performen, spricht da absolut nichts gegen.

Dann ist der 5800X3D bei mir wie auch vielen Millionen AM4 Usern die deutlich günstigere Alternative, da ein Drop In Upgrade möglich ist ohne Board und RAM (und ggf. CPU Kühlung) wechseln zu müssen.


Alderlake ist sicher ein sehr interessantes Stück Silizium und Intel ist damit definitv ein guter Wurf gelungen. Aber die müssen endlich kapieren, dass Effizienz immer wichtiger wird und wir Kunden (in der Regel, Ausnahmen gibt es immer ;) ) nicht sinnlos Hitze und Stromkosten haben wollen.


Und genau da habe ich meine Bedenken bei Ryzen 7000 aka Zen 4. Durch den sehr hohen Takt befürchte ich auch hier 100+ Watt Verbrauch. Aber da warte ich die Reviews ab, das sollte ja nicht mehr, so die aktuellen Gerüchte, so lange dauern.
 
  • Gefällt mir
Reaktionen: Volvo480
DonL_ schrieb:
die Informierten oder Informierteren, im Gegensatz zu den OEM Kisten Käufer.
Das glauben wir hier immer. Das ist aber oft nicht so. Filterblase! Die Menge an Anfragen von Neuzugängen hier im Forum erzählt eine ganz andere Geschichte. Die Eigenheiten von Non-K und F müssen ständig neu erklärt werden.
 
Esenel schrieb:
Danke. Skalierungstests hierzu haben die Kollegen der Ryzen RAM OC Community einige gemacht.
Vielleicht mag ja @Verangry mal ein paar Bilder posten :-)
Ist immer interessant. CB hat zwar auch ein paar Tests gemacht, aber nicht so sehr mit Fokus auf Games und die interessanten CPUs.
Esenel schrieb:
Stock Vergleich hat man ja durch die Artikel von Wolfgang und Volker schon :-)
Ja, das ist nicht interessant. Da gibt's genug.
Esenel schrieb:
Ganz abhängig vom Game.
Und wie weit man DDR4 und DDR5 jeweils bei seinem CPU Sample treiben kann.
Klar, ist immer individuell. Aber man sieht immer Einzelbenchmarks wo es dann immer anders aussieht. Aber so einen ganzen Parcours findet man kaum. Deswegen ist dieser Test ja so interessant.
Esenel schrieb:
Der 12900K mit dem RAM Setting steht halt so rum und DDR5 mit dem 12700K hätte auch zusätzlich ausgelotet werden müssen.
Ok. Das ist ein sehr gutes Argument. Hätte ich gar nicht bedacht.
Esenel schrieb:
Mit DDR5 wäre der 12700K dann aber auch wieder teurer als der 3D und von dem her dann schon gar nicht mehr zu empfehlen.
Schon, aber ich finde es immer gut Preis und Performance/Technik getrennt voneinander zu betrachten. Preise können sich flott ändern.

Klar, in diesem Fall ist man schon bei Raptor Lake wenn DDR5 billiger wird.
 
  • Gefällt mir
Reaktionen: Esenel
Krass. Dachte der 5800X3D wäre gleichauf mit Alder Lake, aber das ist ja eine recht vernichtende Niederlage hier, gerade bei den Perzentilen.
 
kachiri schrieb:
Kurz: Im CPU-Limit erkauft sich Intel durch viel Strom ein bisschen mehr Leistung.
Falsch. Intel gibt dir als Kunden die Möglichkeit mehr Leistung durch mehr Stromverbrauch zu erkaufen.
Du kannst einen 12900KS auch nur mit 5,0 statt 5,2Ghz All Core betreiben und dabei schön undervolten.
Du kannst einen 12700 statt 12700K kaufen oder einen 12600KF für 279€ als Alternative zu 5800X/5700X.

 
...bei aller Liebe für Intel, aber mein nächstes System im Herbst/Winter wird jetzt wohl definitv ein neuer Ryzen^^

Diesen Stromverbrauchs-Irrsin kann man nur stoppen, wenn man die sparsamere Option kauft!
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: LamaMitHut
Wie gut das es die Geizhals Wunschlisten zum rumspielen gibt. Da kann man immer aus Spaß was bauen was man theoretisch aktuell kaufen würde. Wobei ich ja sagen muss der DDR5 6400 für schlappe 400€ wäre da bei mir jetzt nicht unbedingt bei gewesen aber das wird ja hoffentlich in Zukunft auch günstiger. Das aktuelle erkaufen von Leistung egal von wem und auch im Grafikkartenbereich finde ich ehrlich gesagt erschreckend. Innovation sieht anders aus und ging früher doch auch?! Zumal ja auch die Leistungssprünge früher größer waren. Hoffe das sich da bald noch mal was in eine andere Richtung entwickelt. Der 5800X3D geht ja schon mal in die richtige Richtung aber als nur ein Produkt leider auch nicht für jeden interessant.
 
Mein Bedarfsprofil ist mit grossem Anstand: Silent-PC. Mein Sohn zockt bei uns im Wohnzimmer und dann will der Rest der Familie seine Ruhe.

Nun dachte ich, dass AMD das gut beherrscht...habe aber immer wieder Kommentare auf Geizhals.de gelesen, dass dem nicht so sei, dass AMD viel heisser wird und daher die Lüfter hochdrehen...und von 80 Grad wird ja auch beim X3D gesprochen... Und Leistung-Reduktion wg. Throttling braucht ja auch keiner...dann sind die Testergebnisse auch nix wert...

Hat da jemand praktische Erfahrungen und einen Vergleich gemacht ?
 
flappes schrieb:
Du hättest weniger Solar und weniger Akku gebraucht, wenn du AMD genutzt hättest.

Solar und Akku wächst nicht auf Bäumen, die müssen mit viel Ressourcen produziert werden. Aber klar, wer Leistung will, die Kohle hat und alle anderen einem egal sind, dann sch..t man auf die Ressourcen, man lebt nur einmal!
Also an Tagen wie heute erzeuge ich mehr Strom als ich verbrauchen kann - daher kann ich zurecht maximal so viel verbrauchen, wie ich möchte. Und da ich nichts einspeise, bekommst du meinen Öko Strom schon mal nicht. Aber dein AMD(?) bekommt Kohlestrom - egal wie wenig er verbraucht.
 
multiblitz schrieb:
Hat da jemand praktische Erfahrungen und einen Vergleich gemacht ?
Ja, der 5800X3D wird verdammt heiß und das Blöde ist, es gibt starke Unterschiede zwischen den einzelnen Samples. AMD hat das irgendwie versemmelt.
 
Zuletzt bearbeitet von einem Moderator:
DJMadMax schrieb:
Ich verstehe diesen Beweggrund der 720p einfach nicht. Kein Mensch spielt in dieser Auflösung.
NOCH nicht aber später gibt es statt RTX3090 doch eine RTX4090 und eine RTX5090.
Wie willst du heute in 1440p wissen, wie viel FPS die CPU in Zukunft schaffen könnte ?
Mit 1080p simuliert man quasi die Leistung einer RTX4090 und mit 720p einer RTX5090.
 
  • Gefällt mir
Reaktionen: CableGuy82
Ich würde den 5800X3D gerne kaufen, aber!

Schade, das nach wie vor keine Undervolting und negativ CoreOptimizer (CO) funktioniert!
Nur dass, genau dass, hält mich vom kauf ab, würde das AMD nachreichen,
hätte AMD sofort einen weiteren Kunden!

So warte ich jetzt auf AM5 und kaufe dann wohl einen gebrauchten 5950X!
Lasse den auf 16Kernen ohne SMT laufen, so der Plan....mit Ram OC natürlich,
Standard belassen gibt es bei mir nicht 😎
 
multiblitz schrieb:
habe aber immer wieder Kommentare auf Geizhals.de gelesen, dass dem nicht so sei, dass AMD viel heisser wird und daher die Lüfter hochdrehen...und von 80 Grad wird ja auch beim X3D gesprochen...
Es wird ein Hotspot sehr schnell sehr heiß. Einerseits durch die kompakte Fertigung, andererseits sei laut AMD die Boost-Zieltemperatur rund 90°C.

Siehe News:
https://www.pcgames.de/AMD-Firma-238123/News/cpu-zen-3-ryzen-heiss-1364870/

Das Forum ist berstend voll davon:
https://www.computerbase.de/forum/search/1842613/?q=5800x+heiß&t=post&c[newer_than]=2021-01-07&o=relevance

Nicht zu vergleichen ist das mit bspw. manchen Prozessoren von Intel, die unter Volllast jenseits der 200 oder 250 Watt ziehen können. In Spielen werden diese Werte nicht erreicht.
 
MehlstaubtheCat schrieb:
Ich würde den 5800X3D gerne kaufen, aber!

Schade, das nach wie vor keine Undervolting und negativ CoreOptimizer (CO) funktioniert!
Nur dass, genau dass, hält mich vom kauf ab, würde das AMD nachreichen,
hätte AMD sofort einen weiteren Kunden!
Geht doch beides.

Wenn man es nicht über ein MOD-Bios machen möchte, gibt es auch 3. Anbieter Tools wie z.B. das SMU DebugTool oder den PBO2 Tuner, diese kann man aus dem Windows heraus nutzen und es wird direkt übernommen.

Eine Startoption mit den Werten kann man sich auch erstellen, sodass man nicht bei dem Start des Rechners alles wieder neu eingeben muss.

Damit kann man CO, Takt und Powerlimits einstellen wie man möchte. (Nur eben nicht nach oben, da sind die Limits hard locked)
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: herculesgott und Esenel
0ssi schrieb:
NOCH nicht aber später gibt es statt RTX3090 doch eine RTX4090 und eine RTX5090.
Wie willst du heute in 1440p wissen, wie viel FPS die CPU in Zukunft schaffen könnte ?
Das ist immer das Argument. Aber es passt schlecht zur Realität:
  • Situation beim Kauf: Niemand kauft sich den 12900K und eine RTX 3090 und spielt dann damit in 720p. Die fette GPU wird meist mindestens für 1440p genutzt, oft auch für 4K. Damit sind die Unterschied in niedriger Auflösung derzeit vernachlässigbar.
  • Situation nach Erscheinen der RTX4090: Der Unterschied fällt nun etwas deutlicher auf, aber noch längst nicht so, dass man dafür die CPU tauschen müsste.
  • Situation nach Erscheinen der RTX5090: Diejenigen, die vorher am lautesten für die Messungen in 720p argumentiert haben, sind die ersten, die sofort nicht nur ihre GPU, sondern auch ihre CPU durch das dann aktuelle Topmodell ersetzen.
Es gibt einfach eine viel zu hohe Korrelation zwischen Grafikkarten-Topmodell-Käufern und Immer-von-allem-das-Neueste-haben-müssen-Nutzern.
 
  • Gefällt mir
Reaktionen: MehlstaubtheCat
Zer0Strat schrieb:
Ja, der 5800X3D wird verdammt heiß und das Blöde ist, es gibt starke Unterschhiede zwischen den einzelnen Samples. AMD hat das irgendwie versemmelt.

Naja, so ist das nicht korrekt.
a) Der 5800x3d wird wirklich sehr heiß, gerne zwischen 85 und fast 95°C
b) Die Ursache ist technikbedingt (V-Cache)
c) Es findet aber kein Throttling statt
d) Die hohe Temp wird meißt nur bei Multicore Workloads relevant, bei Gaming ist er meißt um die 60-75°C
e) AMD ist sich dessen sehr bewusst und hat deswegen Modifikationen und Taktrate limitiert
 
Fighter1993 schrieb:
Weil man ein "stressfreies System" möchte. Kein AGESA Wahnsinn, keine USB Bugs, deutlich schneller unter Windows (SingleCore) und gegen 5900X/5950X deutlich effizienter unter Niedriglast (kann AMD mit 2 Chiplets nicht)
 
Zurück
Oben