Test RAM-OC-Benchmarks: Ryzen 7 5800X3D vs. Core i7-12700K und i9-12900K

Zer0Strat schrieb:
Sind deaktiviert, weil ich noch Windows 10 nutze.
Du solltest dir echt mal den Spaß machen den Alder Lake mit 4,0Ghz und 1,0V zu testen.
Dann steigt die CPU Auslastung zwar um 10% aber der Stromverbrauch geht weit runter.
 
Woody17 schrieb:
Warum wurden die Alder Lake Prozessoren nicht undervolted?
Weil sie so nicht verkauft werden und es sehr viel Kenntnisse verlangt. Schätzung: 97Prozent passen nichts an, 2,5 Prozent übertakten, 0,5 Prozent undervolten.

Die furchtbar eingestellten AMDs vergangener Zeiten (Fury oder die Polaris) waren eigentlich gute und effiziente Karten - nur wurden sie so nicht ausgeliefert und daher erst von der Presse vernichtet und dann vom Kunden ignoriert.

Man kann aus super ineffizienten Intels nur weniger katastrophal ineffiziente machen, hier ging es aber um den Speicher. Wobei Speichertuning kaum Strom braucht und hier in diesem Szenario etwas bringt im Test und daher die Intels effizienter macht als sie sonst sind - 6800er Speicher ist sicher nicht die erste Wahl für die meisten Käufer, bei den Preisen.
 
@Verangry Lasst uns das mal mit Elmor Labs PMD testen. Wäre vielleicht interessant für die Leute, mal andere Verbrauchstest zu sehen, also in realistischen Szenarien.
 
  • Gefällt mir
Reaktionen: Veitograf und Esenel
Stanzlinger schrieb:
Da der Strom dank Solar und Akku mir egal ist und Intel in 10 von 13 Tests gewinnt - was spricht dann für AMD? Entweder ich will Leistung oder muss sparen. Und mit Solar ist der Stromverbrauch eben kein Argument mehr gegen Intel, da der Strom ja da ist.
Was für ein Argument...
Und wenn einem der Strompreis egal ist, aber die Hitze im Sommer, ergo auch die Abwärme, nicht?

@T
Danke für den sehr interessanten Test. Hätte gerne Cl14 gesehen und den 12700k vs 58003D bei gleichem RAM-Takt oder aber unterscheidliche RAM-Takts bei gleichem gedeckelten Stromverbrauch, aber wünsche kann man viele haben. Ist so auch sicherlich viel arbeit gewesen! :)
 
Verangry schrieb:
Keine Ahnung ob das mit dem RMT klappt, nach dem Debakel das damals durch das Tool ausgelöst wurde habe ich es nicht mehr installiert.

OK, danke. Wenn das Ding ebenfalls Pfusch ist, will ich es nicht.

Es spricht für mich immer mehr für den 5700X - 65 Watt TDP und harmlose Temperaturen ohne Bastellotterie, und das für momentan 260€.
 
v_ossi schrieb:
Wie mehrfach betont; ich spreche diesem und vergleichbaren Tests (hier und auch von anderen serösen Quellen) nicht ab, dass sie faktisch korrekt sind, wie @DJMadMax finde ich nur zweifelhaft, was daraus von Hardware Enthusiasten gerne abgeleitet wird.

Natürlich ist deine Argumentation bzgl. einer 4090 richtig, aber genau so wird eben jene Person sehr wahrscheinlich nicht bei 1080p anhalten.
Und wenn ich beim 1% Perzentil teilweise weit jenseits von 120 lande, sehe ich den Unterschied höchstwahrscheinlich allenfalls im direkten Vergleich.
Dann haue ich mir einen Frametime Limiter bei 60/120/144 fps (je nach Genre) rein und freue mich, dass die Bude leiser und kühler bleibt.

Der Witz ist eben genau der. Ich hab mir zufälligerweise gestern einen 5800X3D bestellt, der auf einem X470er Brett einen 2600X ersetzen wird. Sobald er kommt wird er eingebaut und bei den 4x8GB Riegeln Patriot 3733er Ram XMP geladen und das wirds dann wohl bei mir sein mit Optimierung.
Wenn ich nochmals viel Muse habe versuche ich diesen Hynix CJR Ram auf 3800 CL16 und scharfen Subtimings zu optimieren oder ich verwende die 2x16GB Gskill 3600er CL16er Ripjaws die hier noch rumfliegen, das muss sich zeigen. Aber viel Energie wird hier nicht reingesteckt, ich werde ihn fürs Gamen verwenden und sonst nicht viel.

Ansonsten kommt da wohl im Herbst oder Winter noch ne Navi 32 oder sowas dazu und das wars dann lange wieder. Und auch der Protz wird wie der Letze sicher wieder 4-5 Jahre im System bleiben und bis dahin wird der 3D seine Vorteile im Vergleich zu normalen 5800X auf jeden Fall ausspielen.
Und bei mir wird es bei FHD oder WQHD bleiben.

Der Witz ist eben, dass der 3D schon mit Grottenram im System 90-95% der Max Leistung zeigt.
Und man ihn benutzen kann wie er ist. Da muss man eben nicht zu Tode optimieren und er ist trotzdem sparsam und sehr schnell.
 
  • Gefällt mir
Reaktionen: Drakrochma
Vigilant schrieb:
...eine autarke, regenerative Stromversorgung zu besitzen, dürfte aber ebenso deutlich limitiert sein.
Zumal im Herbst und Frühling zum teil sowie im Winter fast garnicht Strom gewandelt wird.
Von daher spielt es sogar für mich - auch PV Anlagen besitzer 10,27 KWPeak und fettem Akku - sehr wohl eine Rolle.
 
  • Gefällt mir
Reaktionen: Volvo480 und Vigilant
modena.ch schrieb:
Ich mein das neue Spielzeug steht ja schon vor der Tür und scheint deutlich schneller zu werden als das Aktuelle. Mit einer RTX 4090 wird wohl das was man jetzt in 720P mit der 3090 bekommt, wohl schon in 1080P gehen.
Und da ist dann eben der 5800X3D deutlich schneller als ein 5800X! Und genau darum geht es in CPU Tests.
Das ist jetzt schon so mit 3080Ti/3090, auch in QHD in diversen Shootern, vorallem bei den min FPS.
 
multiblitz schrieb:
Nun dachte ich, dass AMD das gut beherrscht...habe aber immer wieder Kommentare auf Geizhals.de gelesen, dass dem nicht so sei, dass AMD viel heisser wird und daher die Lüfter hochdrehen...und von 80 Grad wird ja auch beim X3D gesprochen... Und Leistung-Reduktion wg. Throttling braucht ja auch keiner

Der 3D ist wegen dem Cache noch heisser als der normale 5800X, Aber 80 Grad sind da kein grosses Problem
und kein Grund die Lüfter voll aufzureissen, in der Gegend wirst mit jeder Kühlung landen. Sparsam ist er aber trotzdem.
Sprich das was der Noob auf Geizhals behauptet ist noch lange nicht Fakt.
 
derin schrieb:
Naja, so ist das nicht korrekt.
a) Der 5800x3d wird wirklich sehr heiß, gerne zwischen 85 und fast 95°C
b) Die Ursache ist technikbedingt (V-Cache)
c) Es findet aber kein Throttling statt
d) Die hohe Temp wird meißt nur bei Multicore Workloads relevant, bei Gaming ist er meißt um die 60-75°C
e) AMD ist sich dessen sehr bewusst und hat deswegen Modifikationen und Taktrate limitiert
Meiner Erfahrung nach mit einem 5950X ist Multicore das gar nicht relevant, da er alle Kerne nicht so hoch boostet wie 1-2 Kerne.
Mein 5950X -> 1-2 Kerne=80-95°C bei ~85W | 16 Kerne=65°C bei 142W(PPT Limit) mit einer 280mm AIO.

Beim 5800X3D kommt dazu, das man einen Filler genutzt hat AUF den CPU Kernen um diese auf die selben Höhe wie den aufgesetzten Cache zu bringen. Dieser Filler erzeugt eine schlechtere Wärmeübergabe von Kern zum IHS. Da der CPU DIE auch eher am Rand des IHS sitzt, gibt es auch zum Kühler hin eine schlechtere Wärmeübergabe.
@modena.ch Es ist nicht der Cache selbst der heiß wird. ^^
Desweiteren hat AMD die CPU nicht wegen der Wärme limitiert, sondern wegen der Spannung des Caches.

Im Gegensatz zu Intel, welcher die P-Kerne in der Mitte des IHS sitzen hat. Deswegen wird eine Intel CPU mit 200W 90°C und ein 5800X3D mit 60W auch 90°C warm.

BEIDE boosten auch bis die CPU eine gewisse Temperatur erreicht hat, das spielt natürlich die größte Rolle. Aber AMD erreicht die Temperatur schneller, weil die DIEs bzw Kerne nicht in der Mitte sitzen.

Wobei man auch sagen muss, das mein 5950X Stock vermutlich eh nicht höher boosten würde, auch wenn der kühler wäre. Damit kühle ich die CPU mit der 280mm AIO gut genug, das er Stock alles liefert was er kann.
Aber wie wird es hier z.b. beim Ryzen 7000 aussehen?
Und ich denke ein 12900k würde bestimmt höher boosten, wäre der kühler.

Zurück zum Test:
Vergleichswerte von den 3 CPUs mit "normalen" RAM wäre günstig gewesen. Man sieht aktuell nicht wieviel ein RAM-OC bringen würde da man keine Baseline im Artikel sieht.
 
Syrato schrieb:
Es ist ja deine Entscheidung und Svens auch, aber dass DU jemals einen AMD für dich nutzen wirst.... ich glaube eher friert die Hölle zu.
Hat er seit ich ihn kenne schon mehrmals gehabt, lief aber eben nie so rund wie gewünscht^^
 
m4c1990 schrieb:
Wie konnte sich das Blatt so stark wenden?
Hat intel sich da etwas zu gut ausgeruht? :D
Ausgeruht nicht, aber bei den Fertigungsprozesse hat Intel sich übernommen. Sie hinken aktuell hinterher. Die 10nm-Technik sollte mindestens zwei Jahre früher fertig werden, und wegen Problemen hat sich das alles verzögert.

Am Ende kam dann mit der 11000er-Generation (Rocket Lake) sogar eine Zurück-Portierung einer 10nm-Architektur auf 14nm, weil 10nm die nötigen Takte nicht schaffte. Die Kerne waren dann riesig, und Intel musste beim Topmodell gegenüber dem Vorgänger sogar von 10 auf 8 Kerne reduzieren, damit es in die avisierte Die-Größe passt.

Raptor Lake wird im Herbst erneut auf dem gleichen "10nm Enhanced SuperFin"-Prozess (Intel 7) kommen, auf dem auch Alder Lake schon produziert wird, wohingegen AMD von TSMC N7 auf N5 wechselt. Aktuell scheint vielen hier nicht klar zu sein, dass der Effizienzvorteil von AMD nicht so bleibt wie er ist, sondern dass er sehr wahrscheinlich noch weiter wachsen wird.
 
  • Gefällt mir
Reaktionen: Gortha, Draco Nobilis und m4c1990
Taxxor schrieb:
Hat er seit ich ihn kenne schon mehrmals gehabt, lief aber eben nie so rund wie gewünscht^^
Das Problem sitzt meistens vorm PC, hatte noch nie Probleme mit Hardware, also keine gravierende.
 
Syrato schrieb:
Das Problem sitzt meistens vorm PC, hatte noch nie Probleme mit Hardware, also keine gravierende.
Wenn durch einen CPU Wechsel Probleme verschwinden, dann lag das Problem eher im PC^^
Ich hatte mit meinem 1600X und 3700X auch immer wieder mal Probleme, Visual Studio mochte die einfach nicht. Erst seit dem 5800X läuft es besser.
 
Syrato schrieb:
Das Problem sitzt meistens vorm PC, hatte noch nie Probleme mit Hardware, also keine gravierende.
Wenn man WHEA Errors hat, die von AMD als Rückgabegrund akzeptiert wurden übrigens, dann sitzt der Grund mit Sicherheit nicht vorm PC.

Ich sage das ganz offen, für mich sind AMD CPUs nett zum Testen und gut für den Wettbewerb, aber für mein Produktivsystem kommen die nicht in Frage, auch wenn das Internet voller glücklicher Ryzenbesitzer ist, die noch nieeee irgendwelche Probleme hatten. Das ist ganz klar nicht meine Realität und ich kenne einige, die das genau so erlebt haben.
 
  • Gefällt mir
Reaktionen: hahaqp, ShiftC und UNDERESTIMATED
AMD hat mit diesem Produkt bewiesen, dass man Fanservice richtig gut erfüllen kann.
Intel erstarkt indes wieder. Und das ist gut so.
 
Zer0Strat schrieb:
Wenn man WHEA Errors hat, die von AMD als Rückgabegrund akzeptiert wurden übrigens, dann sitzt der Grund mit Sicherheit nicht vorm PC.

Ich sage das ganz offen, für mich sind AMD CPUs nett zum Testen und gut für den Wettbewerb, aber für mein Produktivsystem kommen die nicht in Frage, auch wenn das Internet voller glücklicher Ryzenbesitzer ist, die noch nieeee irgendwelche Probleme hatten. Das ist ganz klar nicht meine Realität und ich kenne einige, die das genau so erlebt haben.
Erzählen kann man viel, wenn der Tag lang ist!
Es gibt tausende von Firmen, wo AMD Server, oder AMD Ryzen Rechner als Produktiv Systeme laufen, die armen Firmen, was die sich so für ihr Geld ans Bein binden, mit diesen problembehafteten AMD Schrott und es sogar wieder machen, wenn ein neues System ansteht!
Schon merkwürdig.......
 
  • Gefällt mir
Reaktionen: Phobsen, sven_011, Eli0t und 7 andere
JMP $FCE2 schrieb:
Funktioniert die einfache Methode über den Ryzen Master Eco Mode denn beim X3D nicht ?

Ich tendiere momentan immer mehr zum 5700X...
Der 5800x3d hat In den cb Spiele Tests die 65 Watt quasi nie überschritten, was sollte da ein Eco Mode bewirken^^
Der CO hingegen bringt mehr Takt und weniger Wärme.
 
Zurück
Oben