Test i9-14900K, i7-14700K & i5-14600K im Test: Die letzten Core-CPUs ihrer Art gegen AMD Ryzen 7000

@.Sentinel.
Da gibt es meines erachtens keinen Reim. Intel ist da so wie stehen sollten.
Sie haben eben im gegensatz zu AMD noch eine ältere Architektur am Start. Die lässt sich kaum mehr optimieren.

Was Intel wirklich kann sehen wir in der nächsten Generation. Die wird dann auch voll durch DDR5 unterstützt sein (vielleicht mehr Bandbreite ziehen).
Zwischen 12000 und 14000er Serie ist der Unterschied marginal. Ich würde sie sogar noch mit der 10000er und 11000er Serie gleichsetzen. Da wundert es wirklich nicht.

Neue Architektur wird neue Cachestruktur haben, mehr Recheneinheiten in der Breite, neue Befehlssätze und weniger verbrauchen für die gleiche Leistung.
Und wenn Intel dann noch die eigene Fertigung zieht (stärker optimiert wie bisher) kann das ein rundes Produkt werden. Alles unter 20 bis 30 % Mehrleistung wäre fast eine Enttäuschung.
 
Hätten die Generation auslassen und die Zeit und Ressourcen für Weiterentwicklung nutzen können
 
Duran schrieb:
Was Intel wirklich kann sehen wir in der nächsten Generation. Die wird dann auch voll durch DDR5 unterstützt sein (vielleicht mehr Bandbreite ziehen).
Solange Intel nicht wieder einen Conroe aus dem Ärmel zieht, wird das nicht ein "jetzt mit der einen neuen Gen. ist im Desktop Bereich alles wieder gut". Dafür stimmen weder die Performance noch der Energiebedarf.
Und selbst wenn Intel ein "neuer" Conroe gelingen sollte, wird es nicht so ein Selbstläufer, da AMD damals Probleme mit der neuen Fertigung hatte und zusätzlich mit was komplett neuen kommen musste und damit voll auf die Füße fiel, während sie derzeit bei der Fertigung dank TSMC eher (weit) vorne sind und vor allem auch wissen, was sie bzgl. der Architektur wie machen müssen, um Zen weiterhin gut dastehen zu lassen und mit dem Chiplet Design ein Konzept zur kostengünstigen Fertigung haben.
 
  • Gefällt mir
Reaktionen: Rockstar85, Wilfriede und M11E
IBISXI schrieb:
So niedrig hängt die Latte bei Intel nicht
Von Null bis 2% Zuwachs kommend tut sie das ;) nur darauf bezog sich das.

Und intel hat in dem Sinne auch kein Fertigungsproblem. Sie haben ein Kosten und Prioritätsproblem. Server, mobile und Desktop decken alles rund ab. Und doch treibt man Desktop und high end mobile wieder besseren Wissens in die ineffizienz und am Server war es tatsächlich ein Design Problem mit endlosen Verzögerungen und Problemen die alles hat über den Jordan gehen lassen. Auch hier kann man gut zurück kommen wenn man endlich die Produkte rechtzeitig rausbringt. .

In der Zwischenzeit hat intels Fertigung aufgrund von TSMCs Problemen bei 3nm und darunter 3-5 Jahre aufgeholt

Und das ist was ich seit jeher immer wieder sage: jeder Fertigungsprozess wird unabhängig entwickelt, es kann sich jederzeit drehen oder die Firmen ruinieren. Bei diesem Maß an Perfektion sind wir inzwischen angekommen
 
  • Gefällt mir
Reaktionen: .Sentinel.
Lese erst jetzt gerade den Test und die Kommentare...

Spitze, vom ersten an wird gleich ge-bolzt und raus gehauen 🤣 🤜😮‍💨
keep it coming, guys ✌️👌

Bei mir wirds jetzt definitiv ein 13600K - Intel ist halt besser in Sachen Preis/Leistung und
AMD verkackt immer noch beim in Cyberpunk bekannten Problem, welches nur durch manuelles modding
gelöst werden kann -> NO GO
 
Jetzt sag bitte nicht "SMT Fix"😂
 
Der einzig sinnvolle Test :D
 
Lan_Party94 schrieb:
IMG_0553.jpeg
 
  • Gefällt mir
Reaktionen: boypac007, Rockstar85, Veitograf und 9 andere
Ich frage mich, wer nicht messen kann, HWLuxx sagt mehr Idle-Verbrauch, Tweaktown sagt weniger :confused_alt:
Und eingentlich sollte der gleich sein.

Werde wohl aus Langeweile mal einen bestellen...
 
Vigilant schrieb:
siehe der Artikel hier bei Computerbase.

TLDR: mehr als 8 cores von ausschließlich AMD CPUs werden vom Spiel in irgendeiner Weise nicht verarbeitet. Weder AMD noch Entwickler CDPR hat bis heute einen offiziellen Fix für das Problem gebracht. Es gibt wohl einen workaround, wo man verschiedene Edits in Spieldateien machen muss.
Joa, ich will vor allem spielen mit ease-of-use, auf sowas hab ich keinen Bock - auch wenn ich es vielleicht hinkriegen würde.

Da fährt AMD leider ähnlich wie bei Ihren GPUs - von der Rohleistung irgendwie super - aber bei bestimmten Punkten liegen sie dann doch klar hinter NV und haben mehr Spiele bei denen es irgendwelche "Einzelprobleme" gibt.
 
Hm, das muss ich im letzten Test zu Phantom Liberty überlesen haben. Mit der SMT-Optimierung aus 2.0 sollte das eigentlich Geschichte sein.

Ich würde aus den Gegebenheiten in einem Game jetzt aber kein Urteil für die gesamte CPU-Generation ZEN2/3/4 ableiten.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Verak Drezzt
Flossen_Gaming schrieb:
"Die drei neuen CPUs Core i9-14900K, i7-14700K und i5-14600K bringen keine neuen Kerne, keine neue Fertigung, ja nicht einmal ein neues Stepping mit sich. Alle drei bieten leicht höhere Single- und Multi-Core-Turbotaktraten"

Wahnsinn...
Und nicht vergessen , neuer Stromverbrauch.
 
Intel ist bei Nvidia eingestiegen neue Generation und Refresh mit 0% mehr Leistung im Gegenteil fast immer weniger Leistung das ist ein echter Sarkasmus denn wenn die CPU 10000 Watt benötigt kommen bis zu 10% oder mehr weniger Leistung heraus,am besten neuen PC für 50000 Euro kaufen um noch weniger Leistung wie ein C64 oder Amiga 500 zu haben.Alles was die PC Hardware angeht wird seid Jahren kaputt gewirtschaftet mit Teilen die überhaupt nicht funktionieren wie ein 4K Monitorr mit 1 HZ lol ich lach mit tod ... HD READY lol
 
engineer123 schrieb:
TLDR: mehr als 8 cores von ausschließlich AMD CPUs werden vom Spiel in irgendeiner Weise nicht verarbeitet. Weder AMD noch Entwickler CDPR hat bis heute einen offiziellen Fix für das Problem gebracht. Es gibt wohl einen workaround, wo man verschiedene Edits in Spieldateien machen muss.
Du hast es keine Minute vernünftig gespielt oder?
Du kannst Cyberpunk mit jeder großen CPU gut zocken.
Ich hatte keine Problem mit 5900X, 13700K und 7800X3D, egal ob vor oder nach dem 2.0 Patch.
Über 100 Std. mit dem 5900X vor dem Patch gespielt, ohne jegliche Modifikationen, keine Probleme.

Da müssen auch keine workarounds gemacht werden, installieren und fertig.
Je nach CPU wird durch Patch 2.0 dann automatisch SMT eingestellt.

Und wer bleibt bei Cyberpunk Platz 1? AMD mit sehr viel weniger Verbrauch.
Wer hat selbst mit neuer Generation und nahe der Kernschmelze keinen Vorsprung geschafft?
Richtig Intel mit den 14000ern, bei 2-3 fachen Stromverbrauch.

In ein paar wenigen Szenarien für Gamer sind die Gen. 14 CPUs gut und für Anwendungen sind die vielen Kerne toll. Nur muss man es dann noch schaffen den ganzen Bums bei 300 Watt zu kühlen.

@till69
WTF, Tweaktown hat ja mal sowas von ne Rosarote Intel Brille auf. Das ist ja peinlich.
Screenshot 2023-10-18 213236.png
 
  • Gefällt mir
Reaktionen: danyundsahne, Rockstar85, Veitograf und 4 andere
Youju schrieb:
In 4K werden sehr wahrscheinlich bei jeder CPU alle FPS gleich sein. Wenn du die Werte willst, schau dir einfach die GPU Benchmarks an.
Wenn das so wäre oder ist, umso interessanter. Dann wüsste man ja wenigstens, ob es überhaupt Sinn macht eine High End CPU zu kaufen oder ob nicht doch die für 300€ vollkommen ausreichend ist. Was interessieren denn in der Praxis theoretische Werte bzw. Vorteile, die man nur erreicht, wenn man die Auflösung runterstellt?
 
Nobbenator schrieb:
Was interessieren denn in der Praxis theoretische Werte bzw. Vorteile
und was interessieren mich GPU Limit Ergebnisse in WQHD oder 4K in nem CPU Test ? ich möchte wissen was die CPU an Rohleistung liefert und nicht wann eine Grafikkarte bei wie viel FPS ins GPU Limit rennt, was dann übrigens auch nicht wirklich Aussagekräftig wäre wenn dort mit einer 4090 getestet wird, da kaum einer ne 4090 im System hat, merksde was ?
 
  • Gefällt mir
Reaktionen: Coeckchen, iron_monkey und Youju
Verak Drezzt schrieb:
und was interessieren mich GPU Limit Ergebnisse in WQHD oder 4K in nem CPU Test ? ich möchte wissen was die CPU an Rohleistung liefert und nicht wann eine Grafikkarte bei wie viel FPS ins GPU Limit rennt, was dann übrigens auch nicht wirklich Aussagekräftig wäre wenn dort mit einer 4090 getestet wird, da kaum einer ne 4090 im System hat, merksde was ?
Was interessiert mich die Rohleistung fürs Gaming? Dafür gibt es Anwendungstests. Natürlich macht es sinn eine 4090 im CPU Test du nutzen, wenn man einfach sehen will, mit welche CPU-GPU Kombination man die bestmöglichen Ergebnisse erzielt. Wenn mam mit einer 4090 in WQHD und einem 5800X beispielsweise schon die maximalen FPS in Spielen erreicht, weiß man es macht keinen Sinn, sich aktuell eine teurere CPU zu kaufen. Ganz egal, ob die Rohleistung besser wäre. Denn man hat einfach nichts davon. Merkste?
 
  • Gefällt mir
Reaktionen: Chris007
Zurück
Oben