Test Gaming-Benchmarks: 12900K, 12700K & 12600K vs. 11900K und Ryzen 9 5950X

Chillaholic schrieb:
Da kannste gleich B-Die kaufen und auf vernünftigen DDR5 zu Normalpreis warten.
Im Moment funktionieren die "unvernünftigen" DDR5 Speichermodule genauso gut wie die "vernüftigen" DDR4 Module, die es übrigens auch nicht umsonst gibt. Mit dem bereits genannten Vorteil, sie auch noch Jahre später weiter benutzen zu können oder das bereits gekaufte Board später mit schnelleren DDR5 Modulen nachrüsten zu können.

Wer den Speicher bereits hat, da stellt sich die Frage nicht, wer neu kauft, sollte sich zwei mal überlegen ob die Sackgasse das richtige für ihn ist.

Der entscheidende Faktor sind aktuell nur die Kosten und nicht die Leistung. Die Behauptung einiger, DDR5 würde aufgrund der angeblich so hohen Latenzen viel schlechter abschneiden, hat sich nicht bestätigt. Die Kosten aus Beschaffungspreis, Nutzungsdauer, möglichen Verkauf, muss sich jeder selbst für seinen Anwendungsfall ausrechnen. Nur auf den Kaufpreis zu achten, ist da viel zu kurzsichtig.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: LukS und OPUS-AMP
Vielen Dank für den Test. Also ist es aktuell bei Spielen ratsamer den i7-12700K zu empfehlen als den i9-12900K.
 
Danke für den ausführlichen Test.

@BrollyLSSJ Da die E-Cores zum Spielen nichts bringen, kann man das so sagen. Kannst dafür besseren Ram und oder Board nehmen.
 
Ich lese den Artikel und finde:

"Liebe(r) Eee-PC,
dir diese umfangreichen Alder-Lake-Testberichte bieten zu können, hat drei Redakteure weit über eine Woche komplett ausgelastet. Das kostet Zeit und Geld."


Und dann lautet der erste Satz:

"Intel Alder Lake gegen AMD Zen 3 in Spielen"​




und sofort stellt sich die Frage, wie man -genau wie beim letzten Test- bei fast jedem erdenklichen Male die Präposition "in" benutzen kann.
Professionelle Redakteure, die nicht wissen, wie oft "in" falsch ist.

"In 2021" ...



Zu oben: "Intel Alder Lake [...] in Spielen?"
Also ist die CPU da drin, oder wie meint ihr das?
Ich lass es jetzt mal noch mit all den anderen Beispielen aus den Artikeln zu kommen.

Wie wäre es mit "bei" ?
Man sagte als Kind immer: Ich spiele "auf" 800x600 als Auflösung.
Heute steht bei euch überall in, sogar bei der Jahreszahl.

Ich sehe nur noch die Präposition "in" hier bei Computerbase.

Dass der erste Satz, oben im Zitat nicht mal ein Subjekt hat, ist mir völlig egal.
Aber ich kann hier "in Computerbase" ;););) wirklich nicht mehr lesen. Manchmal wäre mir lieber, das Schreiben hätte euch keine 2h gekostet.

Von einem NICHT-Lehrer, der nichts mit Sprache am Hut hat ...
 
  • Gefällt mir
Reaktionen: mazO!, Anon-525334 und peru3232
Beteigeuze. schrieb:
und genau das zeigt wie unbedeutend die CPU fürs gaming mittlerweile ist
Richtig. Interessant ist lediglich die Effizienz. Und da ist Intel einfach Jahre weg.

Aber in 720p gibt es dann 10% mehr Performance. Wuhu.
 
  • Gefällt mir
Reaktionen: Zenx_ und Anon-525334
Ziemlich enttäuschend die Leistung, hätte doch um einiges mehr erwartet, also doch auf Zen3+ bzw Zen4 warten
 
  • Gefällt mir
Reaktionen: CableGuy82 und iron-man
Laphonso schrieb:
Also ich habe ehrlich gesagt nicht im Ansatz erwartet, dass Intel nur 1 Jahr und nicht 2 oder 3 Jahre braucht, um die AMD CPUs einzukassieren, so heftig wie Zen 3 letzten Herbst die gesamte (!) Intel CPU Flotte quasi obsolet gestellt hat.

"Einkassieren"? Sie haben AMD nun "leicht" überholt. Wobei die Preis/Leistung aktuell mehr als Grottenschlecht ist für diese Mehrleistung. AMD hat sich diese Führung Stück für Stück über Generationen erarbeitet wobei die erste schon Multicore ihnen Paroli bot , die Zweite sie Multicore deutlich überflügelt hat während sie Single Core fast gleichzog und die dritte das dann auch Single Core und nicht nur Multicore tat. Keine Ahnung (Entschuldigung für die Formulierung) unter welchem Stein du CPU Technisch die letzten Jahre gelebt hast wenn Zen 3 erst für dich das OHOOO von AMD war aber da war nichts "heftiges" an AMD dran wie sie Intel überholt haben sondern abzusehen ohne eine Glaskugel dafür haben zu müssen wenn man das ganze etwas verfolgt hat.

Intel Arbeitet immer noch mit einem veralteten Prozess und ist Froh nun eine 10nm CPU zu bauen wo sie sie eigentlich schon seit 2018 10nm bauen wollten und eigentlich schon lange 7 nm auf dem Markt sein sollte und die nächste in 5nm! Das ist auch der Grund warum Intel nun die Namensänderung der Fertigungsgeneration vorgenommen hat für ihre Prozesse. Anstatt 10nm heißt die Fertigungsgeneration nur noch Intel 7 und die nächste dann Intel 4 damit von der reinen Zahl wenn der DAU Kunde 0815 die Technischen Daten vergleicht nicht AMD 7nm bzw. demnächst 5nm liest während bei Intel bisher 14nm++++++(keine Ahnung beim wievielten Plus sie mittlerweile waren...weshalb die Fachwelt sie schon ausgelacht hat...) steht und nun erst 10nm gestanden hätte!

Dai6oro schrieb:
Meine Frage dazu: Warum hast du deutlich mehr erwartet? Es war wie immer: Der Hype völlig übertrieben mit leaks von nichtssagenden Benches. Diesmal hat es Intel erwischt. Normalerweise hypt man AMD in den Himmel und wird dann entäuscht.

Weil sie nun hätten klotzen und nicht nur Kleckern hätten müssen. Ihnen muss doch klar sein das AMD sie damit sofort wieder überflügeln wird und wie oben geschrieben reicht dafür ein Zen 3 Refresh , da muss AMD nicht mal Zen 4 bringen.
 
Taxxor schrieb:
12900K 109W Schnitt, 5950X 100W Schnitt, wie kommst du auf 60% mehr Verbrauch?
Das ganze bei 11% Differenz, wie kommst du auf 20%?
Du sprichst wohl von TDP, er spricht vom tatsächlichen Verbrauch.

Schaut mir eher nach 100 % mehr unter Vollauslastung aus. :D
 

Anhänge

  • power-consumption.jpg
    power-consumption.jpg
    102,6 KB · Aufrufe: 395
  • Gefällt mir
Reaktionen: fox40phil und Chromzor
Fred_VIE schrieb:
Stimmt, schaut mir eher nach 100 % mehr aus. :D
Schau dir noch mal den Titel dieses Artikes an.
Ergänzung ()

Eee-PC schrieb:
Zu oben: "Intel Alder Lake [...] in Spielen?"
Also ist die CPU da drin, oder wie meint ihr das?


Wie wäre es mit "bei" ?

"bei"? Also ist die CPU bei den Spielen zu Besuch oder wie meinst du das?
 
  • Gefällt mir
Reaktionen: osf81, ShiftC, Perdakles und eine weitere Person
Gamefaq schrieb:
Intel Arbeitet immer noch mit einem veralteten Prozess und ist Froh nun eine 10nm CPU zu bauen wo sie sie eigentlich schon seit 2018 10nm bauen wollten und eigentlich schon lange 7 nm auf dem Markt sein sollte und die nächste in 5nm
Alder Lake wird in 10nm ESF hergestellt, der Prozess hat mit dem ursprünglichen 10nm Prozess wenig gemeinsam und der "alte" N7 Prozess von TSMC was von AMD aktuell verwendet wird, ist da kein Stück besser. Es hat schon seinen Grund wieso Intel den Prozess nun Intel 7 genannt hat.
 
  • Gefällt mir
Reaktionen: bensen
xexex schrieb:
Im Moment funktionieren die "unvernünftigen" DDR5 Speichermodule genauso gut wie die "vernüftigen" DDR4 Module, die es übrigens auch nicht umsonst gibt. Mit dem bereits genannten Vorteil, sie auch noch Jahre später weiter benutzen zu können oder das bereits gekaufte Board später mit schnelleren DDR5 Modulen nachrüsten zu können.

Wer den Speicher bereits hat, da stellt sich die Frage nicht, wer neu kauft, sollte sich zwei mal überlegen ob die Sackgasse das richtige für ihn ist.

Der entscheidende Faktor sind aktuell nur die Kosten und nicht die Leistung. Die Behauptung einiger, DDR5 würde aufgrund der angeblich so hohen Latenzen viel schlechter abschneiden, hat sich nicht bestätigt. Die Kosten aus Beschaffungspreis, Nutzungsdauer, möglichen Verkauf, muss sich jeder selbst für seinen Anwendungsfall ausrechnen. Nur auf den Kaufpreis zu achten, ist da viel zu kurzsichtig.

Wenn man in 2 Jahren eventuell 8000er DDR5 Speicher kaufen möchte, braucht man auch wieder ein neues Mainboard. Im Grunde ist es daher egal ob man später ein DDR4-System oder DDR5-System abgeben möchte. Für das DDR5-System bekommst du sicherlich etwas mehr, allerdings bezahlt man da auch jetzt einiges mehr. Was anderes wäre es, wenn die Mainboards auch schon mit sehr schnellem DDR5-Speicher umgehen könnten.

Realistisch betrachten wird aber der Speicher und das System bei den meisten einfach 5 Jahre+ halten. Also kein Upgrade anstehen. Entsprechend einfach mit DDR4 Geld sparen. Ein Upgrade auf DDR5 für Gaming wird wohl auch in 2-3 Jahren nur minimal Performance bringen.
 
  • Gefällt mir
Reaktionen: bensen und ErbarmeHesse
Danke an Computerbase für das Review! :)
Umfang bzw. Auswahl der Tests hat mich leider doch etwas enttäuscht. Keine Esports-Titel wie CS:GO, Valorant oder PUBG, kaum Multicore-lastige Spiele sind dabei, kein MSFS, und alles nur in 720p. Auch leider kein Vergleich zu 10th und 11th Gen Intel und AMD 3000 und 5000 Serie bis auf 11900K und 5950x. Der 12600K sieht so viel zu gut von P/L her aus.
Hier kann ich zwar verstehen, dass dies mit dem neuen Parcour nicht möglich war, aber da muss man einfach sagen, dass dieser hätte früher umgestellt werden müssen oder dann eben beim Alten bleibt, wenn kaum CPU's vorhanden sind.
RBAR und die Tests zwischen E- und P-Core hätte man auch später machen können, dafür dann 1080p und Esports-Titel rein.

Edit: Wurde alles hier getestet https://www.computerbase.de/artikel/prozessoren/intel-core-i9-12900k-i7-12700k-i5-12600k-test.78382/ , die Spiele-Benchmarks mit dem alten Parcour und höheren Auflösungen könnte man hier noch naträglich einfügen, würde den Test stimmiger aussehen lassen.
Taxxor schrieb:
Ich empfehle dir diesen Kommentar:
https://www.pcgameshardware.de/CPU-CPU-154106/News/Prozessor-Benchmarks-Aufloesung-1295967/


Wenn argumentiert wird, dass z.B. 1440p ja viel besser wäre, so kann man hier sagen, dass jeder, der nicht eine RTX 3090 besitzt, hier verarscht wird, weil er diese FPS nie sehen wird, da seine eigene GPU zu schwach ist, um bei den CPUs diese Unterschiede hervorzurufen.
Solltest du mit einer 3070 in 1440p spielen, würden dir die Zahlen hier mit einer 3090 auch nichts bringen, wenn man in 1440p getestet hätte.

Würde man das wirklich durchziehen wollen, müsste man jede CPU mit jeder GPU testen, was schlicht nicht möglich ist.
Also lässt man diese vermeintliche "Praxisnähe" weg und konzentriert sich auf das, was über alle Auflösungen immer gleich bleibt, nämlich die FPS, die die CPU rausdrücken kann.

Für Erörterungen über die Performance in höheren Auflösungen solltest du auf Tests solcher Hardware schauen, die mit der Auflösung was am Hut hat, nämlich die GPUs.
Dann kannst du die Performance deiner persönlichen GPU mit den FPS vergleichen, die die CPUs hier im Test erreichen und weißt sofort, was du mit deiner Karte in deiner Auflösung und der jeweiligen CPU erwarten kannst, ohne dass die Redaktion tausende Kombinationen manuell testen müsste.
Ja, und in dem Test wird damit argumentiert, dass man eine 4x so schnelle GPU braucht, damit man in WQHD in das gleiche Limit läuft wie bei 720p. Und wie lange soll man dann warten um endlich den Performanceunterschied zu sehen, der in den 720p Tests gezeigt wird?
Eine 1080ti ist fast 5 Jahre alt und eine 3090 ist gerade einmal doppelt so schnell. Das heißt, die Unterschiede die in 720p dargestellt werden, sieht man erst beim Kauf einer neuen Grafikkarte in 8-10 Jahren! Toll! Wer behält denn so lange seine CPU und rüstet dann nur die Grafikkarte auf? :lol:

Nur um zu verdeutlichen wie absolut realitätsfern diese Tests überhaupt sind. 1080p und WQHD zeigen viel besser auf, was dem Käufer diese CPU jemals bringen wird.

Hier werden Unterschiede suggeriert, die niemand beim Spielen so sehen wird.
Da denkt sich so mancher eher uninformierte Leser: Wenn ich mir diese CPU hole hab ich 20% mehr FPS in Spielen, was so einfach nicht der Fall sein wird. Um das klarzustellen sind Benchmarks in 1080p eben so wichtig. 720p zeigt dann wo es mal theoretisch hingehen kann.
Nicht, dass ich gegen Benchmarks in 720p bin, aber alleine sollten sie nicht dastehen. :)
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Czk666, MadMaxx87, bigdaniel und 2 andere
Oktaederfeld schrieb:
Ja, und in dem Test wird damit argumentiert, dass man eine 4x so schnelle GPU braucht, damit man in WQHD in das gleiche Limit läuft wie bei 720p. Und wie lange soll man dann warten um endlich den Performanceunterschied zu sehen, der in den 720p Tests gezeigt wird?
Es reicht z.B. schon aus, wenn jemand seine Settings reduziert, weil er z.B. 200 FPS in einem Spiel haben möchte, dann kommt man auch in 1440p schnell auf deutlich mehr FPS

Womit kann er nun mehr anfangen? Mit einem 1440p Test, wo die oberen 5 CPUs alle zwischen 170 und 175 FPS liegen, oder mit einem 720p Test, wo drei der 5 CPUs auf über 200 kommen und die anderen zwei nur auf 180-185?

Oktaederfeld schrieb:
Da denkt sich so mancher eher uninformierte Leser: Wenn ich mir diese CPU hole hab ich 20% mehr FPS in Spielen, was so einfach nicht der Fall sein wird. Um das klarzustellen sind Benchmarks in 1080p eben so wichtig. 720p zeigt dann wo es mal theoretisch hingehen kann.

Derjenige, der sich die CPU Tests anschaut, sollte zuerst auch wissen, welche GPU er hat. Ist es keine 3090, bringen ihm die Werte alleine so oder so nichts, egal in welcher Auflösung.
Er muss in jedem Fall zuerst schauen, was seine GPU in 1440p so schafft und kann dann anhand der CPU Zahlen beurteilen, ob er 20% mehr FPS bekommt oder nicht.

Das ist nun keine Raketenwissenschaft, die man den Leuten hier abverlangt.
 
  • Gefällt mir
Reaktionen: Tzk, Benji21, Pro_Bro und eine weitere Person
Oktaederfeld schrieb:
Nicht, dass ich gegen Benchmarks in 720p bin, aber alleine sollten sie nicht dastehen. :)

Ist ein sehr guter Punkt. Ich denke speziell an Valorant. Da wird häufig mit CPU-Limit auf FullHD gespielt. Mein 5800x limitiert, meine GTX1070 nicht!
 
Muss schon sagen, das intel verdächtig schnell nachgelegt hat. Mit der Brechstange allerdings… 240 Watt… hola die Waldfee.

Aber der brandneue Intel-Chip wird mit einem über ein Jahr altem AMD-Chip verglichen.
 
Taxxor schrieb:
Es reicht z.B. schon aus, wenn jemand seine Settings reduziert, weil er z.B. 200 FPS in einem Spiel haben möchte, dann kommt man auch in 1440p schnell auf deutlich mehr FPS

Womit kann er nun mehr anfangen? Mit einem 1440p Test, wo die oberen 5 CPUs alle zwischen 170 und 175 FPS liegen, oder mit einem 720p Test, wo drei der 5 CPUs auf über 200 kommen und die anderen zwei nur auf 180-185?
Gutes Argument, hatte ich tatsächlich so nicht bedacht.
Frage ist nur, ob 1440p low = 720p ist, hat das mal jemand ausführlich getestet? Vermutlich ja, aber man weiß ja nie ;)
 
Salamimander schrieb:
Und was bringt dir dieses Wissen? Erwartest du etwa, das in absehbarer Zeit Karten erscheinen die in 4K NICHT limitieren?
Gibt es schon heute. Im Lategame bei Spielen wie Anno 1800 oder Cities selbst Karten wie eine 3060.
 
  • Gefällt mir
Reaktionen: bensen
xexex schrieb:
Wo siehst du die 240W?
Ich glaube die Tatsache, dass es zwei Tests gleichzeitig gibt, lässt viele in den falschen Threads posten^^
 
  • Gefällt mir
Reaktionen: Benji21
Okay, 15-30W mehr Verbrauch für maximal +15% mehr an Leistung im 720p Spielebenchmark.

Haut mich jetzt nicht vom Hocker. Wenn ich meinen 5900X auf 80% Leistung drossel, habe ich nahezu keine Verluste an fps ingame. (COD/WZ / BF5). Habe ich längere Zeit mal testweise so laufen gehabt, seit es wieder auf 100% steht, kommt auch nicht mehr bei rum, außer das er höher taktet - da fragt man sich nur, wofür :)

Mal sehen, wie AMD mit AM5 dann ausschaut. Da werde ich eh frühestens wieder wechseln. 5900X & 6900XT sollten erstmal 2-3 Jährchen halten.
 
Zurück
Oben