Test RAM-OC-Benchmarks: Ryzen 7 5800X3D vs. Core i7-12700K und i9-12900K

multiblitz schrieb:
habe aber immer wieder Kommentare auf Geizhals.de gelesen, dass ... die Lüfter hochdrehen...80 Grad
Dann geht man ins Bios und passt die Lüfterkurve so an, dass der Lüfter bei 80°C nicht auf 80% hochdreht.
 
Früher war es AMD mit der Stromverbrauch Brechstange...
Nun macht Intel so einen Unsinn...
Wie konnte sich das Blatt so stark wenden?
Hat intel sich da etwas zu gut ausgeruht? :D
 
  • Gefällt mir
Reaktionen: Eli0t
5800X3D mit DDR4-3200CL14 würde auch ausreichen :)
 
  • Gefällt mir
Reaktionen: Trent und Esenel
Zwirbelkatz schrieb:
andererseits sei laut AMD die Boost-Zieltemperatur rund 90°C.
Dies. Ich bin gerade perplex, dass das selbst in so einem Thema wie diesem schon wieder kommt.

Die hohe Temperatur ist von AMD so gewollt. Dreht man die Kühlung hoch, dreht der Boost den Takt rauf und die Maximaltemperatur bleibt gleich. Das Spiel geht so lange weiter, bis eines der anderen Boost-Limits (PPT/TDC/EDC) anschlägt oder F_max erreicht ist.
 
  • Gefällt mir
Reaktionen: Eli0t
derin schrieb:
Naja, so ist das nicht korrekt.
Doch, das ist korrekt.
derin schrieb:
a) Der 5800x3d wird wirklich sehr heiß, gerne zwischen 85 und fast 95°C
b) Die Ursache ist technikbedingt (V-Cache)
Die Ursache ist wahrscheinlich, dass AMD das Verlöten oder was anderes versemmelt hat.
derin schrieb:
c) Es findet aber kein Throttling statt
Doch, ich hatte zwei Samples, eines davon hat deutlich gethrottelt, siehe dazu auch der Twitch-Stream von Rawiioli. Außerdem kenne ich zig andere Beispiele von Usern auf Twitter. Ich sage das gleich, falls das hier geleugnet wird, bei Bedarf kann ich das alles raussuchen.
derin schrieb:
d) Die hohe Temp wird meißt nur bei Multicore Workloads relevant, bei Gaming ist er meißt um die 60-75°C
Das stimmt, aber MT kann man halt nicht einfach unter den Tisch kehren.
derin schrieb:
e) AMD ist sich dessen sehr bewusst und hat deswegen Modifikationen und Taktrate limitiert
Sie müssen die Produktion verbessern.
 
DJMadMax schrieb:
Es ist und bleibt praxisfern! Schlimmer noch, der geneigte Käufer denkt nun: "Uuuuuui, ich muss den 5800X3D mit ultraschnellem RAM kaufen, weil guck mal, wie schnell der da rendert"

Was ist in 1440p, wo der Käufer dann tatsächlich spielt - wohl auch mit hohen Grafikeinstellungen, wenn er die passende Grafikkarte hat?

Das verstehe ich nicht. In einem Online-Shooter wie Battlefield, wo man möglicherweise gar nicht mit hohen Grafikdetails spielen will, oder generell in E-Sports-Spielen, die durch alte Engines gerne mal ne gewisse Affinität für ST-Leistung haben, kann man auch in hohen Auflösungen rein CPU-Limitiert sein.

DJMadMax schrieb:
Ich teste nichts fernab der Praxis und es ist und bleibt mir ein Rätsel, wieso man sich immer so selbst beweihräuchern muss, nur, damit man beim Test zweier Dinge auch tatsächlich einen Unterschied in den beiden Graphen hat.

Je nach Spiel kann man das sehr real auch in 1440p und höher erleben...?

DJMadMax schrieb:
Wieso eigentlich 720p?

Vermutlich weil das die meisten Spiele direkt als Auflösung erlauben. Ich habe auch nichts dagegen, in noch niedrigeren Auflösungen zu testen.

DJMadMax schrieb:
Sorry, ich muss mich über diese Verschwendung an Ressourcen (Zeit und Arbeit, die hier - wie in so viele weitere 720p-Tests hineingesteckt wurde) einfach nur aufregen, es ist und bleibt ein Trauerspiel.

Warum ist es keine verschwendete Mühe, in höheren Auflösungen in einer Mischung aus allen möglichen anderen Limitierungen zu messen?

Aus guten CPU- und Grafikkartentests kann man sich unter der Annahme, dass die Testszene ein Worst-Case-Szenario ist, die relevanten Infos für Zielhardware zusammensuchen.

DJMadMax schrieb:

Vielleicht vorher den Beitrag lesen, als nur laut zu klatschen weil die Überschrift gefällt :D
 
  • Gefällt mir
Reaktionen: bensen, Zwirbelkatz und Esenel
chb@ schrieb:
@Stanzlinger Abwärme, unnötiger Sockel jede Generation, shady Business tactics in Bezug auf Benchmarks (bewusstes falsch darstellen von Daten) und in Bezug auf Verträge damit AMD nicht verbaut oder gepushed wird? Wir haben ja gesehen wohin das führt und zwar stillstand. Ohne AMD Ryzen hattest du keine CPU der 10 von 13 Test gewinnt, da wir wohl irgendwo Skylake performance immer noch wären.

Nur mal um ein paar Gründe zu nennen. Der Laden bleibt erstmal von der Einkaufsliste bis sich da bisschen was geändert hat.

Vergleich doch dann auch mal Skylake mit dem 8700K mit nem i5 2700K, Stillstand würde ich das nicht nennen, denn auch ein 10700K ist immer noch skylake…der 6C war ja eh lange geplant….und da hat sich die Spieleleistung teilweise verdoppelt….die IPC vom 2500K ist einfach mies … Intel hat einfach 10 nm versemmelt, mehr oder weniger das was wir jetzt mit ADL haben kam 2 Jahre zu spät, ice lake sollte 2019 im Desktop launchen und 20 hätte man dann den Refresh gesehen, ergo in etwa das was ADL jetzt an ipc leistet….AMD sei Dank hat Intel jetzt die Effizienz entdeckt und hat das Big Little Prinzip raus gehauen…ich behaupte einfach mal, dass AMD ziemlich alt ausgesehen hätte wenn Icelake 2019 gekommen wäre…immerhin ist es jetzt spannend weil Intel es um 3 Jahre vergeigt hat 10nm im Desktop zu bringen
 
Zuletzt bearbeitet:
Ich bin sehr zufrieden mit meinem X3D er wird mindestens bis zur 2ten Generation AM5 CPUs drinnen bleiben !
 
  • Gefällt mir
Reaktionen: Eli0t, daknoll, Sun-Berg und 2 andere
Stanzlinger schrieb:
Da der Strom dank Solar und Akku mir egal ist und Intel in 10 von 13 Tests gewinnt - was spricht dann für AMD? Entweder ich will Leistung oder muss sparen.
Was hat Solar und Akku mit Leistungsverschwendung zu tun?
Klimaschutz bedeutet ja nun mal nicht "ich hau alles raus, weil ich es selbst erzeuge", oder fährst du auch ein E-Auto und knallst mit >200 Sachen und somit abnormalem Verbrauch (wo sich ein Diesel schon wieder rechnet) über die Bahn?
...warum wohl fahren die meisten Elektroautos oder auch die Hybriden bis 140 km/h elektrisch, alles darüber ist nicht wirtschaftlich.

Bevor nun das Argument "Strom erzeuge ich selbst, kostet mich also nichts" wieder kommt, jede nicht verkaufte KWh bringt dir Verlust und damit kostet sie dich trotzdem etwas.

Eine Schande ist eher, dass unsere Anlagen gar nicht maximal ins Stromnetz einspeisen können und dürfen.

@Topic
Wer ein System im jetzt und hier sucht, der landet beim AMD 5800X3D, ausgereifte Plattform mit aktuellen Anschlüssen und Möglichkeiten.
Wer jetzt kein System braucht wartet gefälligst auf die Nachfolger von AMD. :daumen:
 
  • Gefällt mir
Reaktionen: Veitograf und NoNameNoHonor
Nixdorf schrieb:
Situation nach Erscheinen der RTX4090: Der Unterschied fällt nun etwas deutlicher auf, aber noch längst nicht so, dass man dafür die CPU tauschen müsste.
Bereits an diesem Punkt sehe ich ein Problem denn gäbe es nur 1440p oder sogar 4K Tests
dann wäre doch ein 12400F laut gegenwärtigem Benchmark fast so schnell wie ein 12900KS
aber mit neuer Grafikkarte hat man auf einmal ein CPU Limit !? Das wäre doch auch sinnlos !

Warum schaut sich Jemand der vor hat in 1440p zu zocken denn überhaupt 720p Benchmarks an ?
Selbst wenn man sich 1440p Benchmarks anschaut dann fehlt bei den Balken die wichtigste Angabe
und zwar die eigentliche CPU Auslastung denn die sagt auch Etwas über die Zukunftssicherheit aus.

RTX3090 1440p 100FPS 12400F 80% CPU Auslastung
RTX3090 1440p 100FPS 12600K 60% CPU Auslastung
RTX3090 1440p 100FPS 12700K 50% CPU Auslastung
RTX3090 1440p 100FPS 12900K 40% CPU Auslastung
 
gunmarine schrieb:
Vergleich doch dann auch mal Skylake mit dem 8700K mit nem i5 2700K, Stillstand würde ich das nicht nennen,
Wenn der i7-8700K nicht diese alberne Begrenzung auf 4.3GHz allcore in Spielen hätte, dann wäre Coffee Lake fast 30% schneller als ein 7700K. Das ist vielen gar nicht bewusst, was Intel da für einen Sprung hingelegt hatte.
 
Der Emthusiast PC Selbstbau Bias zugunsten von AMD ist hier auf Computerbase wieder sehr interessant. Macht halt jede Repräsentativität zunichte, außer man legt die Grundgesamtheit auf Nerds :D
 
Stanzlinger schrieb:
Und mit Solar ist der Stromverbrauch eben kein Argument mehr gegen Intel, da der Strom ja da ist.
Selten so einen Unsinn gelesen. Genau wie das Argument mancher Miner, man würde Überschüsse aus Atom- oder Wasserwerken nutzen. Als ob man aus dieser Energie nichts Sinnvolleres machen könnte :rolleyes:

Solarenergie könnte ja auch eingespeist werden, also kostet der Strom eben auch Geld - Opportunitätskosten.

"Mein Onkel hat eine Tankstelle, daher ist es egal, ob die Kiste 10 oder 20 Liter braucht" - lol
 
  • Gefällt mir
Reaktionen: Veitograf und McFritte
cm87 schrieb:
auch in höheren Auflösungen befindet man sich immer noch oft im CPU-Limit - damit hat man die selbe bzw. sehr ähnliche Situation wie bei 720p - da macht OC und RAM OC einiges aus. Der Test selbst in 720p sollte einfach nur zeigen, was eben im absoluten CPU-Limit passiert und wie gesagt, kommt auch in 1440p oft genug vor - auch bei 4k kann das hin und wieder passieren. Schnelle Online Shooter sind da ein super Beispiel.

Anno 1800 oder CIV VI kann man mit den gleichen Settings auch in 4k so laufen lassen und kommt auf das selbe Ergebnis.

Linmoum schrieb:
Curve Optimizer hätte man hier in dem Zusammenhang beim 5800X3D auch noch anführen können. Fehlt irgendwie.

Erhöht noch mal den Takt, bringt dadurch mehr Performance und senkt gleichzeitig Temperaturen und Verbrauch noch mal deutlich.

Der Takt des 3D ist auf 4450MHz limitiert.
Da kein Power oder Temp Limit vorlag, konnte sich die CPU jederzeit die maximal notwendige Leistung holen ohne eingebremst zu werden.

CO hätte nur dabei geholfen die CPU kühler und noch sparsamer zu machen.

chithanh schrieb:
Was viele 720p-Verfechter übrigens gerne vergessen, ist dass bei teils mehreren hundert fps die dabei herauskommen können auch gerne mal Treiber- oder Betriebssystemlimits reinhauen. So hat die Aktivierung oder Deaktivierung von Hardwarevirtualisierung mitunter einen deutlichen Effekt. Man hat also zwar kein GPU-Limit mehr, aber dafür ein anderes Limit, und misst dann doch wieder Mist.

Bin ich voll bei dir.
Darum wurde versucht vorwiegend Spiele zu nehmen die noch in einem verhältnismäßigen Rahmen fallen.
Ist halt bei diesen schnellen CPUs nicht immer einfach nur Spiele mit max. 150 FPS zu finden ;-)

Hätte auch ein Doom mit 700 FPS oder ein Valorant mit über 1000 FPS dazu nehmen können, aber dann wären wir genau bei deinem Punkt.

Gortha schrieb:
Waren die 1,55 Volt VDimm für die Settings bei 3800Mt/s wirklich notwendig für dein (AMD) Kit? Die Timings sind jetzt nicht wirklich auf Kante genäht für DDR3800 B-Dies, da ging noch etwas mehr, auch stabil.

Nein die Spannung ist dafür nicht nötig.
Das ist nur eine Bench Spannung mit der dieses Kit alles bis 4600 MHz mitmacht ;-)

Bei den Timings wäre mit viel Aufwand auch noch ein wenig mehr bei allen CPUs gegangen.
Aber die 1-2% hätten auch nichts mehr geändert.


dr_lupus_ schrieb:
Und wieviel Watt ziehen die imTest verwendeten Grafikkarten?

Zwischen 51-360W je nach Game und Stelle.
Anno 1800 vs Division 2 z.B.
Zwirbelkatz schrieb:
Was mich übrigens etwas irritiert ist, dass hier scheinbar bis zu 3 Personen auf Fragen antworten, jedoch nur 1 Person als Verfasser genannt wird.

Da Inhalte und Ergebnisse mit anderen Systemen dieser User auf Plausibilität gegentestet wurden.

Freiheraus schrieb:
Das ganze Ding erscheint durch die Wahl der Titel, Szenen und Hardware gezielt etwas hingebogen bis ein merklicher Vorsprung für Alder Lake herauskommt. Der Bias war auch schon mal geringer zu spüren.

Du darfst mir gerne die Hardware und Spiele kaufen, die du getestet haben willst.
Sag ich nicht nein ;-)

frkazid schrieb:
Danke @Esenel für den Test. Hast du zufälligerweise auch nen Bench mit 3800CL14 beim 5800X3D (wenn vlt. auch nicht stable)?

@Verangry Hat hierzu einige Messungen gemacht :-)
 
  • Gefällt mir
Reaktionen: Volvo480, Gortha und cm87
@Esenel

3800CL14 nicht, da hab ich ein Boothole, 4000CL15 / 4200CL16 kann ich noch zeigen, aber hatte das ja auf Seite 4 schon angerissen.

Man könnte sicher komplett Stock Werte nachreichen, leider fehlt mir die im Test genutzte 3090, was die Werte dann wieder komplett unterschiedlich machen würde, bemessen an FPS, den gain nur durch den RAM kann ich damit allerdings darstellen.
 
Verangry schrieb:
3800CL14 nicht, da hab ich ein Boothole, 4000CL15 / 4200CL16 kann ich noch zeigen, aber hatte das ja auf Seite 4 schon angerissen.
Du hast doch auch noch die Werte vom 12700K. Kannste einen schönen Skalierungsvergleich mit machen.
 
Ich verstehe das "modernere Plattform" Argument nicht. Der Ryzen 5800X3D ist eine Gaming CPU. Bis das Ding nicht mehr zum daddeln langt, ist die 13000er Serie (und damit auch der Sockel) für den Zweck garantiert auch obsolet. Was soll das also bringen?
 
SVΞN schrieb:
1a @Esenel. Danke für den Test. Tolle Arbeit!

Ich würde immer zu 5800X3D greifen.

Liebe Grüße
Sven
Den hab ich mir die Tage auch geholt. Man muss sagen, der ist echt Hammer schnell!
 
Zurück
Oben