Test Gaming-Benchmarks: Ryzen 7 5800X3D vs. 5800X, Core i9-12900K und 12900KS

MiniM3 schrieb:
Ein Traum, 700 MHz weniger, 100 Watt weniger, 200 € weniger aber die Leistung auf Augenhöhe.

Weniger scheint hier tatsächlich mehr zu sein.

Aufpassen muss man allerdings bei den Ausreißern.

Leute die ihre Freizeit in ein einziges Spiel stecken, sollten sich vorher informieren (benchmraks für das jeweilige Spiel abwarten), da es auch rückwärts gehen kann mit der Performance.
 
W0dan schrieb:
Da werden die 15% mehr aber auch nix spürbares bringen.

Klar ist ne nette CPU und wer ne ältere hat und gewartet hat kann jetzt umso mehr Leistung mitnehmen.

Aber mit nem 5800x juckt das doch nicht?!
15% ist quasi nichts. Das zahl ich ja praktisch 1:1 als Aufpreis wenn ich die neue CPU hole, tendenziell sogar deutlich mehr.
Ich bin grundsätzlich einverstanden, aber man darf manchmal auch ein bisschen unvernünftig sein, gerade bei einem Hobby und einfach Spass an etwas haben.
 
t3chn0 schrieb:
Jetzt könnte man dem Alder Lake aber auch mal DDR5-6000, oder 6400 CL32 geben, den man ganz regulär kaufen kann (wenn auch teuer). Dann kann man gerne auch nochmal testen.
bitte schön
 

Anhänge

  • Average.png
    Average.png
    58,7 KB · Aufrufe: 381
  • Gefällt mir
Reaktionen: Onkel Föhn, Kommando, Joker (AC) und eine weitere Person
eRacoon schrieb:
Sprich wer aktuell einen 5800x mit flottem RAM hat kann schon auf ähnliche Werte kommen?
Da bin ich mal auf Vergleiche gespannt die genau das testen. :)
Der Test wäre tatsächlich sehr interessant. Ich bin einer davon, der sauteuren Ram gekauft hat und Timings etc. angepasst hat. Vermutlich kommt es dann wirklich fast aufs selbe raus. RAM OC mache ich in Zukunft aber nie mehr. Zu aufwendig...
 
der der vom 5800x aufrüstet guck nicht auf den unterschied der balken sondern nur das der balken über dem anderen ist und der zweite blick geht ins portmonaie ob da noch ein lilaner rauguckt :D
 
  • Gefällt mir
Reaktionen: Brrr
t3chn0 schrieb:
Jetzt könnte man dem Alder Lake aber auch mal DDR5-6000, oder 6400 CL32 geben, den man ganz regulär kaufen kann (wenn auch teuer). Dann kann man gerne auch nochmal testen.

https://geizhals.de/g-skill-trident...5-6400j3239g16gx2-tz5rs-a2669241.html?hloc=de

Hardware Unboxed:
hub.JPG


Der Intel skaliert auch über die 6400 hinaus noch munter weiter, das muss man natürlich selber machen mit Subs usw, das ist dann kein Plug & Play. Die Skalierung beim AMD hat im Vergleich zu den Zen 3 ohne 3D Cache schon deutlich nachgelassen, da bewegt sich fast nichts mehr.
 
  • Gefällt mir
Reaktionen: NMA, Innocience, t3chn0 und eine weitere Person
rentex schrieb:
Könnte in zwei Jahren meinen 5950X beerben und für eine Verlängerung der Nutzungszeit des MBs sorgen.
wetten nicht?! ^^
 
  • Gefällt mir
Reaktionen: Wanderwisser
KlaasKersting schrieb:
Der Intel skaliert auch über die 6400 hinaus noch munter weiter.

Da kostet dann halt der RAM schon so viel, wie bei AMD die CPU + Board.
 
  • Gefällt mir
Reaktionen: Lamaan, CableGuy82, Onkel Föhn und 8 andere
StefanArbe schrieb:
500€ für ne CPU ist einfach viel zu viel
Ja finde es auch kurios wie 8 Kerne für 500€ bejubelt werden. Ein 12600K(F) kostet knapp die Hälfte
und ist wie viel % Langsamer ? AMD lässt dich den AM4 Abschluss also nochmal richtig "vergolden".
 
  • Gefällt mir
Reaktionen: NMA, Teeschlürfer, ben12345 und 3 andere
Bilze_bub schrieb:
ist nicht böse gemeint aber dieses unwissen (sorry für den ausdruck) geistert seit jahren durch die foren und niemand informiert sich da selbst.
Ja nur ist das kein Grund dann einen rund zu machen deswegen.
 
  • Gefällt mir
Reaktionen: Lamaan und Vigilant
halte 500€ nicht für unrealistisch bzw unfair wenn intel für den 12900k nochmal ne ecke mehr aufruft.
 
  • Gefällt mir
Reaktionen: Lamaan, CableGuy82 und Onkel Föhn
aldaric schrieb:
Da kostet dann halt der RAM schon so viel, wie bei AMD die CPU + Board.
Wer High Bin Kits kauft, war schon immer selbst schuld.

Einfach das billigste DDR5 Hynix Kit für 250-300€ kaufen, das macht das genau so mit. Gilt auch für DDR4, einfach 3200 c14 B-Dies kaufen und keine 4000c14 für den doppelten Preis. Die Binning Unterschiede sind ziemlich minimal.
 
  • Gefällt mir
Reaktionen: Esenel
da bekannt ist das es nur 3 Samples für D gibt haben diese cpu pcgh computerbase und gamestar eine erhalten dafür mal Respekt
International gab es test von GN und hardware unboxed
In pcgh ist ein gemischtes Ergebnis auf cb die schlechtesten Ergebnisse und auf gamestar die besten
Die Spielauswahl ist hier entscheidend.
Hw unboxed hat schon ein 30 spiel parcour angekündigt.
GN ist offen obs ein weiterführenden test gibt ich vermute das die cpu weitergegeben werden muss.
Bliebe noch cb als erstes Eure fc6 werte ja ich weiß das settings in dem spiel deutliche unterschiede machen können.
Aber eurer wett 130fps vs hwu 171fps ist doch was sehr unterschiedlich.

GN rtx3080 1080p
pcgh eine rx6900xt 720p
cb rtx 3090ti 720p
hwu rx6900xt 1080p
gamestar rtx3080 720p

Wie betont ist die Spielauswahl hier maßgebend
Die unterschiede schwanken zwischen 22% vs amd rx5800x und +15%
Und gegen intel 12900k -3% bis +6%

Überrascht hat mich das Cb r23 gar nicht vom cache profitiert
Da ich aber eher r15 und r20 bevorzuge wären Single werte davon interessant.
Die render benches sind grundlegend anders designet
Wo r15 klar mehr cache ist besser als nur Takt. ist es beim r23 eher auf mehr kerne optimiert also auch mehr Takt als cache.
Das liegt vornehmlich an der art wie cinema4d arbeitet

Nehme ich aber factorio als bsp sieht man deutlich das mehr cache deutliche vorteile bringt (bsp aus pcgh +53% vs r7 5800x)
Und genau hier zeigt sich wie sehr es abhängt wie viele drawcalls gebraucht werden in nen cpu limit.
Den genau das ist schwer in den gewählten spielen zu erreichen.
Manche games nutzen propitäre cpu features die amd nicht hat. oder der fallback läuft auf ss3 statt avx
Anders kann ich mir die fps Vorsprünge des 12900k nicht erklären.
Den der Takt spielt zwar mit rein sollte aber aufgefressen werden wenn der Ram abfrage Wartezyklen entstehen. Was zwangsläufig passiert in nen cpu limit.
Sofern muss man auch Titel nehmen die beide Hersteller nicht bevorzugt und auf ein aktuelles OS sprich win 11
Davon ab guter Test schade das nur so wenig Titel drin sind.

Später zu rtx40 launch und noch stärker auftretendes cpu limit auf 1080p wäre ein nachtest interessant
Derzeit ist man noch gut dabei die rtx3090ti bis auf 70% auszulasten auf 1080p mitn 5800x3d bzw ci7 12900ks
Die rtx4090 vermutlich +75%-+98% wird man sehen.
ich zweifle aber daran das der ad102 genutzt wird.
Es spricht alles dagegen dieses Jahr damit zu kommen.
Daher wird wohl eher rtx3080 mitn ad103 und 84sm +33% vs rtx3090ti
Die Gerüchte sprechen zwar von ad102 aber den traue ich nicht da amd n31 und n32 dieses Jahr nicht kommen werden.
man wird sehen
ei test mitn 5800x3d vs 12900ks mit diesen GPu wäre sogar in 1080p Sinnvoll.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Lamaan, Onkel Föhn und Baal Netbeck
aldaric schrieb:
Da kostet dann halt der RAM schon so viel, wie bei AMD die CPU + Board.

Tja gleiches Spiel geht auch mit nem 12700+ DDR4 Board = 5800X3D.
Und RAM brauchst eh bei beiden.
 
  • Gefällt mir
Reaktionen: Quidproquo77, CableGuy82, Laphonso und eine weitere Person
@Ossi
In einem Jahr ist er immer noch schnell und bis dahin wird der Preis schon nachlassen.
Wer unbedingt sofort das schnellste haben muss, zahlt sogar die 590€ für einen 12900K.
 
Bilze_bub schrieb:
wenn du ein amd unterbau hast sieht vermutlich auch der raptor kein land. denn dann musst du nochn board kaufen.

nur für alle neukäufer stellt sich jetzt die frage imho
ich würde mir ein board für so 120€ kaufen und nen 12400F, bzw. was es dann bis 200€ von raptor lake gibt. schön mit 2 schnellen PCIe 4 SSDs.
 
Diese MAXPerformance MAXEfficiency Geschichte 8+8 von Intel macht doch erst so richtig Sinn in Notebooks und Tablets?? AM PC ist sowas doch recht unwichtig?
 
syfsyn schrieb:
da bekannt itd as es nur 3 Sampels für D gibt haben diese cpu pcgh computerbase udn gamestar eine erhalten dafür mal Respekt
Respekt wäre nicht der erste Begriff der mir dazu einfallen würde. Korruption allerdings auch nicht. Etwas dazwischen.
 
Jein. Alleine schon, weil Intel mit den 10nm und dem monolithischen Design kaum anders auf 16 Kerne kommen könnte ist big.LITTLE wohl vorerst das Mittel der Wahl. Da hat AMD einfach das "praktischere" Prinzip mit den Chiplets aktuell. Und Intel hat halt gepennt. Die waren zu lange zu begeistert vom damals bahnbrechenden 7700K :D
DoS007 schrieb:
Diese MAXPerformance MAXEfficiency Geschichte 8+8 von Intel macht doch erst so richtig Sinn in Notebooks und Tablets?? AM PC ist sowas doch recht unwichtig?
 
  • Gefällt mir
Reaktionen: Onkel Föhn und DoS007
Zurück
Oben