Test Gaming-Benchmarks: 12900K, 12700K & 12600K vs. 11900K und Ryzen 9 5950X

Mich würden mal die Beweggründe seitens CB interessieren, warum man sich für die CPU Tests in 720p gegen eine 6900XT entschieden hat und für eine RTX3090??

Es ist doch offensichtlich, dass die RTX30 in niedrigen Auflösungen durch den Driver Overhead stark ausgebremst wird und eine 6900XT hier wesentlich schneller in den Games ist.

Auch hier bei Igor sehr gut erklärt und auch dargestellt:

Charts.png



Wäre also eine AMD GPU nicht besser gewesen, CB?
 
  • Gefällt mir
Reaktionen: Hardwarious, iron-man, Gortha und eine weitere Person
danyundsahne schrieb:
Wäre also eine AMD GPU nicht besser gewesen, CB?
Ich denke, man hat sich für die 3090 entschieden , weil diese mehr FPS in RT schafft und man eben auch bei 3 Games RT mitreinnehmen wollte um die Auswirkung der CPU mit RT zu testen, ansonsten wüsste ich nicht warum.

CB ist zwar meine Hauptseite auf der ich mich bewege, bei CPU, GPU Tests lese ich aber meist sowiso quer ,daher stört es mich nicht wirklich.

estros schrieb:
Abgefahren, dass DDR4 so viel schneller sein kann. Hätte ich nie für möglich gehalten. Damit ist für mich klar, ein Upgrade jetzt mit bestehendem DDR4 oder später mit DDR5 6400-7200.
Also bei den Test die ich gelesen habe, ist jetzt DDR4 nicht so extrem überlegen. Und bitte zu bedenken, das CL14 nunmal extrem teurer Samsung -B die Speicher ist, der auch mit 1,45V+ betrieben werden will und das maximum darstellt, was DDR4 schafft. Viel schnellere Kits als 3600 cl14 bzw. 4000 cl15 werden nicht mehr kommen und die kosten auch 300€+ .

DDR5 steht quasi noch am Anfang und preislich sind ja nur ein paar Kits auf dem Markt derzeit.
DDR4 hatte bei erscheinen glaube von 1833 - maximal 2666 und das wars . Nach ca. 1 Jahr kahmen dann schon die ersten 3000 cl15 g.skill, wenn ich mich nicht irre.

Ich rechne damit, dass wenn AM4 mit DDR5 kommt, das ganze ordentlich nach oben gehen wird bei der Leistung und die Preise sich nach unten einpendeln.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Rockstar85, xexex und Conqi
Laphonso schrieb:
GPUs begrenzen hier.
Heute begrenzen sie. Kauft man sich einen 12900k, läuft der gut und gerne 5 Jahre. Bis dahin, oder besser gesagt in diesem Zeitraum, gibts völlig andere Kaliber an Grafikkarten. Selbst nächstes Jahr wird es da mutmaßlich eine beträchtliche Steigerung geben.
 
  • Gefällt mir
Reaktionen: Celinna und Der Paule
Die Leistung war eigentlich zu erwarten. Ich hatte aber eigentlich mit ein klein bisschen mehr gerechnet.

Ich finds nur lustig wie jetzt wieder einige Schnappatmung bekommen und sofort Intel kaufen weil die jetzt wieder total krasse 10% vor AMD liegen.

Jeder soll kaufen was er mag, aber mir wäre es ganz recht wenn AMD noch paar % Punkte Marktanteil von Intel klauen könnte. Ein ausgeglichener Anteil für beide Firmen wäre für uns nur gut. Verhindert, dass Spiele und Programme primär auf den Marktführer optimiert werden und spornt AMD und Intel an sich immer wieder zu übertrumpfen.

Ich bin mit meinem 5900X nach nicht ganz einem Jahr immer noch mehr als zufrieden und werd wohl auch in den nächsten 2-3 Jahren nicht aufrüsten.
 
  • Gefällt mir
Reaktionen: Celinna, Rockstar85, Anon-525334 und 4 andere
Vitec schrieb:
Ich rechne damit, dass wenn AM4 mit DDR5 kommt, das ganze ordentlich nach oben gehen wird bei der Leistung und die Preise sich nach unten einpendeln.
Da bin ich eher skeptisch. Sinkende Preise gab es wohl bei DVD- und BR-Laufwerken dauerhaft. Bei sonstigen Produkten im Rahmen von Schweinezyklen (Ram).
 
Kleiner Tipp an alle mit sehr hohen Leistungsaufnahmewerten:
Mal das BIOS abchecken, was der jeweilige Hersteller außerhalb der Specs noch so alles gesetzt hat, um die längsten Balken zu bekommen (Load Line, AUX_LoadLine und diverse Teilspannungen). CapFrameX misst richtig (nur die Intervalle sind etwas anders, das ändert in der Summe aber nichts).

Wenn ich bei meinem MSI MEG Z690 Unify das Profile "Air Tower Cooler" einstelle, steigen PL1 und PL2 auf 288 Watt. Setze ich das manuell zurück auf jeweils 241 Watt und benchmarke dann, hab ich auch 10 bis 20 Watt mehr auf dem Zähler als mit dem Profile "Air Boxed Cooler" . Nur bin ich leider nicht wirklich viel schneller. Nur deutlich heißer. Im Blender steigen die Temperturen fürs Package um satte 5 Grad, aber die Performance ist in etwa gleich. Das Current-Limit steigt übrigens auch auf irre 512 A. :D

Ich vermute mal, die Boardhersteller haben bei den Presets kräftig gecheatet, um ja den Längsten zu haben. Man könnte zum Gegentest den 12900K(F) ja mal auf einem 200-Euro-Brett testen.

Nachtrag:
Unbedingt mal die AC/DC Loadline und V/F auf dem jeweiligen Brett checken. Hier mal die Unterschiede an einem günstigeren MSI Carbon:
1636100611635.png


Es ist eigentlich genau das eingetreten, was ich im Vorfeld kritisiert habe. Durch die Freigabe der Specs versuchen sich die MoBo-Hersteller ganz offensichtlich alle gegenseitig zu übertreffen. :(
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: Celinna, Rockstar85, chaopanda und 21 andere
@Wolfgang
Es wäre sehr hilfreich wenn du bzw. ihr die RAM Timings mit in die Tabellen schreiben würdet.

Am Anfang steht:
DDR4-Timings liegen bei 14-14-14-32-1T
dann auf einmal:
DDR4-3200 bei Timings von 12-12-32-1T
Wirklich einfach nachvollziehbar sind die Diagramme nicht.

Ebenso wäre es schön zu wissen welches JEDEC Standardprofil die verwendeten Module haben (DDR5-4800 CL40 ?) und eine base line auf diesen Einstellungen.
Ja, ich weiß dass das ein bzw. zwei zusätzliche Testparcours sind, aber es würde doch bei DDR5-4800 gut die Auswirkung von schärferen Timings zeigen.
 
  • Gefällt mir
Reaktionen: bensen
Zwirbelkatz schrieb:
Heute begrenzen sie. Kauft man sich einen 12900k, läuft der gut und gerne 5 Jahre. Bis dahin, oder besser gesagt in diesem Zeitraum, gibts völlig andere Kaliber an Grafikkarten. Selbst nächstes Jahr wird es da mutmaßlich eine beträchtliche Steigerung geben.
Ich denke, dass gerade in Games mit max Settings inkl. Raytracing in UWQHD und 4K Auflösungen auch künftigen GPUs bei Schwergewichten wir RDR2 und Cyberpunk (sowie Games, die auf diesem Niveau Grafik anbieten) die Luft ausgehen wird. und außerhalb von Messwerten egal ist, welche der Top Intel oder AMD CPUs man verbaut hat bzw, man "sieht" den Unterschied nicht.
Zen 4 wird das auch nicht ändern.

Cyberpunk mit Psychosettings in 4K schreddert bereits jetzt eine 6900K und die 3090.
Die nächste GPU Generation von 2022 bis 2024 haut da netto und best case ggf. 30 bis 35 (wenn überhaupt) mehr fps drauf, das wars.

In diesen Szenarien ist es für mich der genannte Münzwurf.

Spannender ist für mich echtes Multikernskalieren mit Auswirkungen in Battlefield. Leider stehen wir da erst am Anfang. ^^
 
  • Gefällt mir
Reaktionen: Vitec und Gortha
Hucken schrieb:
aber es ist eben unbrauchbar für eine Kaufentscheidung.
Ohne 720p Tests würde es bei mir nichtmal ne Kaufentscheidung geben, denn nur mit so einem Test sehe ich wirklich was der Prozessor kann.
 
  • Gefällt mir
Reaktionen: Celinna, iron-man, ShiftC und 3 andere
das was intel richtig gut gemacht hat mit alder lake, ist das timing. hier kann man jetzt über Weihnachten schön abschöpfen. amd wird mit v-cache locker wieder rankommen oder vorbeiziehen, denn 10% sind wenig, gerade wenn man einberechnet, dass die kosten für die plattform bei intel viel höher sind und der Konkurrent mit 1 jahr alten produkten antritt.
 
  • Gefällt mir
Reaktionen: Anon-525334 und DagdaMor
bigdaniel schrieb:
Braucht es wirklich diese 720p Test nur um zu zeigen welche CPU ohne GPU Limit schneller ist obwohl dies in der Realität egal ist?
Der einzig korrekte CPU Bechmark ist in 720p..
 
  • Gefällt mir
Reaktionen: Col. Jessep, iron-man, hurcos und 2 andere
till69 schrieb:
Pünktlich wie immer :)

Jetzt kommt auf, ob ich 12700k oder 12900k zurückschicke ... oder gar meinen 5900X behalte?
Oh, welch Luxusproblem :freak:.
 
  • Gefällt mir
Reaktionen: Col. Jessep, iron-man, Javeran und 2 andere
Verstehe nicht, warum der meist schnellere 5900X hier für den Test nicht genommen wurde.
-> Hab nochmal geguckt, dem ist doch nicht so... sry

Sonst, toller Test. Der 5800X wird dem 12600K aber durchschnittliche ebenbürtig sein, wenn man mehr Spiele ins Visier nimmt. 5900X und 5950X sollten immer ein Stückchen nochmal schneller sein.

Mein Endausbau wird demnächst ein 58003D/XT/6800X(Zen3D) oder wenn es nur den 12 Kerner und größer mit V-Cache gibt, eben dieser 12 Kerner 5900XT/3D/6900X sein.
Dazu kommen zu meinen beiden 8 GB Riegeln Samsung BDie Single Rank nochmal zwei Stück auf 32 GB Ram und dann habe ich das schnellste was man aus AM4 rausholen konnte. Das sollte dann erstmal ein paar Jahre mit öfterem Graka-Wechsel ausreichen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Javeran und danyundsahne
Pisaro schrieb:
Der einzig korrekte CPU Bechmark ist in 720p..

Der derzeit methodisch sinnvollste, vollkommen richtig.

Du wirst damit allerdings keinen Erfolg haben, denn für jeden den Du nach langer Diskussion Verständnis dafür eingebläut hast, stehen schon die nächsten 10 in der hinteren Reihe und faseln wieder etwas von "realitätsfern". Im Zweifel gibt es dann zukünftig keine gescheiten CPU Tests mehr und die Leute kaufen eben das für sich falsche. Das ist wie beim Wählen, geliefert wie bestellt....
 
  • Gefällt mir
Reaktionen: Dome87, Schinken42, Col. Jessep und 3 andere
Der i5 12600 scheint ja echt ein sehr gutes Preis/Leistungsverhältnis zu haben.
Dann wird der haben-will Faktor ja doch wieder größer :D verdammt...
 
AppZ schrieb:
Der i5 12600 scheint ja echt ein sehr gutes Preis/Leistungsverhältnis zu haben.
Dann wird der haben-will Faktor ja doch wieder größer :D verdammt...
Also in dem Preisbereich wird ein echter 8Kerner wie der 5800X auf jeden Fall in Zukunft langlebiger/schneller sein.
 
Mir gefällt es sehr, dass sich in einer Generation etwas getan hat. Wenn AMD mit den 6000ern ebenfalls gut nachlegt, schließlich sind die 5000er ja auch schon ein Jahr alt, dann haben wir alle etwas davon:D
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: iron-man
Sieht gut aus, AMDs Freifahrtschein ausgestellt durch Intels langjährige Inkompetenz ist abgelaufen.

Mal sehen was die 3080 super kosten werden
 
KillerPlauze090 schrieb:
die kosten für die plattform bei intel viel höher
Wenn man DDR4 nimmt, gibt es Mainboards ab rund 200€. Die Kosten liegen dann rund 50-80€ höher, als sonst. Das ist halbwegs im Rahmen. Ungünstig ist, dass es derzeit noch keine H und B Mainboards gibt.

Gortha schrieb:
Also in dem Preisbereich wird ein echter 8Kerner wie der 5800X auf jeden Fall in Zukunft langlebiger/schneller sein.
Der 5800x kostet 380€. Der 12600kf kostet 300€. Wenn AMD ebenfalls BIG-Little fährt, wird sich Microsoft etwas überlegen müssen. Dann geht an einer Kompatibilität eigentlich wenig vorbei - auf lange Sicht betrachtet.

Als Zehnkerner darf man den i5 wohl nicht einstufen. Es bleibt spannend, wie sich das entwickelt.

Laphonso schrieb:
Die nächste GPU Generation von 2022 bis 2024 haut da netto und best case ggf. 30 bis 35 (wenn überhaupt) mehr fps drauf, das wars.
Das sollte doch zu begrüßen sein, für Nutzer mit 120 oder 144Hz Monitoren.
 
Zurück
Oben