Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
TestGaming-Benchmarks: Ryzen 7 5800X3D vs. 5800X, Core i9-12900K und 12900KS
Leute die ihre Freizeit in ein einziges Spiel stecken, sollten sich vorher informieren (benchmraks für das jeweilige Spiel abwarten), da es auch rückwärts gehen kann mit der Performance.
Da werden die 15% mehr aber auch nix spürbares bringen.
Klar ist ne nette CPU und wer ne ältere hat und gewartet hat kann jetzt umso mehr Leistung mitnehmen.
Aber mit nem 5800x juckt das doch nicht?!
15% ist quasi nichts. Das zahl ich ja praktisch 1:1 als Aufpreis wenn ich die neue CPU hole, tendenziell sogar deutlich mehr.
Ich bin grundsätzlich einverstanden, aber man darf manchmal auch ein bisschen unvernünftig sein, gerade bei einem Hobby und einfach Spass an etwas haben.
Jetzt könnte man dem Alder Lake aber auch mal DDR5-6000, oder 6400 CL32 geben, den man ganz regulär kaufen kann (wenn auch teuer). Dann kann man gerne auch nochmal testen.
Der Test wäre tatsächlich sehr interessant. Ich bin einer davon, der sauteuren Ram gekauft hat und Timings etc. angepasst hat. Vermutlich kommt es dann wirklich fast aufs selbe raus. RAM OC mache ich in Zukunft aber nie mehr. Zu aufwendig...
der der vom 5800x aufrüstet guck nicht auf den unterschied der balken sondern nur das der balken über dem anderen ist und der zweite blick geht ins portmonaie ob da noch ein lilaner rauguckt
Jetzt könnte man dem Alder Lake aber auch mal DDR5-6000, oder 6400 CL32 geben, den man ganz regulär kaufen kann (wenn auch teuer). Dann kann man gerne auch nochmal testen.
Der Intel skaliert auch über die 6400 hinaus noch munter weiter, das muss man natürlich selber machen mit Subs usw, das ist dann kein Plug & Play. Die Skalierung beim AMD hat im Vergleich zu den Zen 3 ohne 3D Cache schon deutlich nachgelassen, da bewegt sich fast nichts mehr.
Ja finde es auch kurios wie 8 Kerne für 500€ bejubelt werden. Ein 12600K(F) kostet knapp die Hälfte
und ist wie viel % Langsamer ? AMD lässt dich den AM4 Abschluss also nochmal richtig "vergolden".
Wer High Bin Kits kauft, war schon immer selbst schuld.
Einfach das billigste DDR5 Hynix Kit für 250-300€ kaufen, das macht das genau so mit. Gilt auch für DDR4, einfach 3200 c14 B-Dies kaufen und keine 4000c14 für den doppelten Preis. Die Binning Unterschiede sind ziemlich minimal.
da bekannt ist das es nur 3 Samples für D gibt haben diese cpu pcgh computerbase und gamestar eine erhalten dafür mal Respekt
International gab es test von GN und hardware unboxed
In pcgh ist ein gemischtes Ergebnis auf cb die schlechtesten Ergebnisse und auf gamestar die besten
Die Spielauswahl ist hier entscheidend.
Hw unboxed hat schon ein 30 spiel parcour angekündigt.
GN ist offen obs ein weiterführenden test gibt ich vermute das die cpu weitergegeben werden muss.
Bliebe noch cb als erstes Eure fc6 werte ja ich weiß das settings in dem spiel deutliche unterschiede machen können.
Aber eurer wett 130fps vs hwu 171fps ist doch was sehr unterschiedlich.
GN rtx3080 1080p
pcgh eine rx6900xt 720p
cb rtx 3090ti 720p
hwu rx6900xt 1080p
gamestar rtx3080 720p
Wie betont ist die Spielauswahl hier maßgebend
Die unterschiede schwanken zwischen 22% vs amd rx5800x und +15%
Und gegen intel 12900k -3% bis +6%
Überrascht hat mich das Cb r23 gar nicht vom cache profitiert
Da ich aber eher r15 und r20 bevorzuge wären Single werte davon interessant.
Die render benches sind grundlegend anders designet
Wo r15 klar mehr cache ist besser als nur Takt. ist es beim r23 eher auf mehr kerne optimiert also auch mehr Takt als cache.
Das liegt vornehmlich an der art wie cinema4d arbeitet
Nehme ich aber factorio als bsp sieht man deutlich das mehr cache deutliche vorteile bringt (bsp aus pcgh +53% vs r7 5800x)
Und genau hier zeigt sich wie sehr es abhängt wie viele drawcalls gebraucht werden in nen cpu limit.
Den genau das ist schwer in den gewählten spielen zu erreichen.
Manche games nutzen propitäre cpu features die amd nicht hat. oder der fallback läuft auf ss3 statt avx
Anders kann ich mir die fps Vorsprünge des 12900k nicht erklären.
Den der Takt spielt zwar mit rein sollte aber aufgefressen werden wenn der Ram abfrage Wartezyklen entstehen. Was zwangsläufig passiert in nen cpu limit.
Sofern muss man auch Titel nehmen die beide Hersteller nicht bevorzugt und auf ein aktuelles OS sprich win 11
Davon ab guter Test schade das nur so wenig Titel drin sind.
Später zu rtx40 launch und noch stärker auftretendes cpu limit auf 1080p wäre ein nachtest interessant
Derzeit ist man noch gut dabei die rtx3090ti bis auf 70% auszulasten auf 1080p mitn 5800x3d bzw ci7 12900ks
Die rtx4090 vermutlich +75%-+98% wird man sehen.
ich zweifle aber daran das der ad102 genutzt wird.
Es spricht alles dagegen dieses Jahr damit zu kommen.
Daher wird wohl eher rtx3080 mitn ad103 und 84sm +33% vs rtx3090ti
Die Gerüchte sprechen zwar von ad102 aber den traue ich nicht da amd n31 und n32 dieses Jahr nicht kommen werden.
man wird sehen
ei test mitn 5800x3d vs 12900ks mit diesen GPu wäre sogar in 1080p Sinnvoll.
@Ossi
In einem Jahr ist er immer noch schnell und bis dahin wird der Preis schon nachlassen.
Wer unbedingt sofort das schnellste haben muss, zahlt sogar die 590€ für einen 12900K.
Diese MAXPerformance MAXEfficiency Geschichte 8+8 von Intel macht doch erst so richtig Sinn in Notebooks und Tablets?? AM PC ist sowas doch recht unwichtig?
Jein. Alleine schon, weil Intel mit den 10nm und dem monolithischen Design kaum anders auf 16 Kerne kommen könnte ist big.LITTLE wohl vorerst das Mittel der Wahl. Da hat AMD einfach das "praktischere" Prinzip mit den Chiplets aktuell. Und Intel hat halt gepennt. Die waren zu lange zu begeistert vom damals bahnbrechenden 7700K
DoS007 schrieb:
Diese MAXPerformance MAXEfficiency Geschichte 8+8 von Intel macht doch erst so richtig Sinn in Notebooks und Tablets?? AM PC ist sowas doch recht unwichtig?