Test i9-14900K, i7-14700K & i5-14600K im Test: Die letzten Core-CPUs ihrer Art gegen AMD Ryzen 7000

Tornavida schrieb:
Sorry kannst du uns mal die grosse und zugleich relevante Leistungslücke zeigen ? Wenn Intel zeitnah mit der neuen Gen an GPUs wieder auffährt langt das zeitlich dicke m.E. zudem . Bei den Frametimes sieht es abseits von x3d eher mau für AMD aus.
Leistungsluecke.jpg

Hier kann man durchaus von einer großen Leistungslücke sprechen :rolleyes:
 
  • Gefällt mir
Reaktionen: danyundsahne, Wichelmanni und eXe777
Maldiel schrieb:
Kollege hat geerbt und will Geld ausgeben. Für Gaming. Er hat einen 12700K und will auf einen 14700K aufrüsten, lohnt das? Basteldrang und Geld ist vorhanden (ich muss es einbauen).
Lohnt schon von der theoretischen Leistung her... aber ob das 288W Limit gut für den Stromverbrauch ist, muß er selbst entscheiden...
 
_b1nd schrieb:
9900K würde ich gerne sehen.
Was erwartest du dir davon?

Im Single Core Bench ist der 9900X drin. Der ist langsamer als ein Ryzen 3600.
Und lächerliche 2% schneller als ein Ryzen 3 3100.
 
  • Gefällt mir
Reaktionen: dergraf1
t3chn0 schrieb:
Für mich noch immer ein großer Lacher, dass ausgerechnet der AMD-Titel "Starfield" auf den AMD Systemen deutlich schlechter läuft, als auf den Intel Pendants.
AMD hat die Grafik optimiert, denn daß eine 7900XTX gleich schnell wie eine 4090 ist, zeigt, daß nvidia NICHTS gemacht hat beim "Game ready Treiber".
Ergänzung ()

SKu schrieb:
Mich würde mal interessieren, warum der 5800X3D hier im Gegensatz zu seinen Brüdern und Schwestern im Leerlauf und Teillastbetrieb deutlich sparsamer untewegs ist - auch im Vergleich zu Intel. Ist dort ein ECO-Mode aktiv?
Weil er nur PCIe 4.0 und DDR4 hat, was beides sparsamer ist als PCIe 5.0 und DDR5.
 
  • Gefällt mir
Reaktionen: Rockstar85
Ich kann mir nicht helfen. Bei derartig mauen Leistungszugewinnen bei gleichzeitig nicht gesteigerter Energieeffizienz hätte ich es sinnvoller gefunden, einfach den i7 neu aufzulegen, und irgendwie als Sondermodell zu vermarkten. Andererseits vielleicht ist genau das effektiv passiert, und man hat bei den anderen nur die Defaults geändert und den Aufdruck erneuert ohne wirklich was zu verändern...(nicht ganz ernst gemeint). Was weiß ich... Sei es, wie es sei, mir erschließt sich dieses Release nicht, außer rein um des Releases Willen. Vermutlich irgendwelchen Verbindlichkeiten geschuldet.
 
  • Gefällt mir
Reaktionen: M11E
Tornavida schrieb:
Sorry kannst du uns mal die grosse und zugleich relevante Leistungslücke zeigen ?
Bezieht sich auf die Release Lücke am Desktop von jetzt bis ende 2024 wo Zen 5 lange Zeit ungestraft walten darf. Und das ist etwas was Intel so nicht wollen kann wenn sie nicht reingerutscht wären
 
  • Gefällt mir
Reaktionen: Rockstar85
Moin.

Vielen Dank für den tollen Test. Ich bin am überlegen ob Ich dann evtl meinen 12700K mit dem neuen 14700K tausche werde. Dazu nochmals schnelleren DDR4 4000 RAM. Aber das überlege Ich mir noch und schaue mir mal eine paar weitere Spiele Test an. Denn der 12700 ist meine Gaming CPU. Und nur der 14700K hat ja die neuen mehr E-Cores. Das könnte sich evtl lohnen? Aber das ist eh zukunfts- Musik.

Mfg
 
ArrakisSand schrieb:
Was sagt einem das am Ende. Aus einem abgehalfterten Gaul macht man eben kein effizientes Rennpferd, egal wie viel Geld dass man in Steroide (Ram OC) oder vitaminreiche Kraftnahrung (UV) reinsteckt.
Absolut sinnbefreit. Gebt dem Teil seinen verdienten Gnadenschuss und holt euch eine geile Rennstute wie den 7800X3D oder 7950X3D, oder wartet halt noch ein wenig und holt euch den 8800X3D / 8950X3D stattdessen.
Ich stelle mir des Öfteren die Frage, warum AMD den Effizienzvorsprung in Sachen Chipdesign &co. nicht auf die Grafikkartensparte übertragen bekommt.
Wenn man ein AMD Only- System haben will widersprechen sich leider die Verbräuche im Vergleich zur Konkurrenz und egalisieren dort jeweils sämtliche Vorteile/Nachteile.
Kann zwei Dinge bedeuten. NVIDIA ist diesbezüglich im Design AMD ein gutes Stück überlegen. / Intel ist analog dazu immernoch deutlich unterlegen. Wobei dabei noch die Nichtvergleichbarkeit der Fertigungsnodes einen Unsicherheitsfaktor bedeutet.
Ansonsten sehe ich in Sachen Prozessordesign gerade die X3D Chips von AMD generell als technisch überlegen an bzw. das Design von Intel zwar leistungsfähig aber (unnötig) ineffizient.

Ich bin mal gespannt, was uns die Big Player als den nächsten großen Sprung bzw. Innovation verkaufen wollen.
In Sachen Fertigung sieht es ja trotz vollmundiger Namensgebungen phyikalisch immer schlechter aus.
Auch in Sachen Multicore ist für viele Anwendungen ein Sättigungsgrad erreicht, wenns nicht grade um massiv parallelisierbare Software geht.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Laphonso, Quidproquo77, ALPHA-S und eine weitere Person
.Sentinel. schrieb:
Ich stelle mir des Öfteren die Frage, warum AMD den Effizienzvorsprung in Sachen Chipdesign &co. nicht auf die Grafikkartensparte übertragen bekommt.
Vermutlich weil CPUs und GPUs sehr unterschiedliche Chipdesigns sind, so dass sich das nicht einfach so übertragen lässt.
 
  • Gefällt mir
Reaktionen: Wichelmanni und Rockstar85
Coeckchen schrieb:
Jedes Mal kommt einer um die Ecke und will cpu'S im GPU Limit testen.....warum???? Mit den Daten die man hier im auf CB erhält kann man sich ALLES herleiten wenn man das Ding zwischen den Ohren benutzt.

Im GPU Forum sagt doch auch keiner dass man bitte Mal mit Ner schwächeren CPU testen soll damit die Grafikkarte ja nicht ausgelastet wird :D

Das ist ein lauf mehr und nein man kann das nicht herleiten und der Vergleich ist Unsinn.
Gibt ja Igor oder Gamersnexus die das vernünftig machen. Es ist schlicht unerheblich in der Praxis was die CPU bei 720p anstellt.
Man kann daraus sicherlich ne tendenz ablesen.
Im einstelligen Prozentbereich ist je nach Auflösung mal die eine, mal die andere schneller.
5800k z.B. bei Gamersnexus.
Warum man hier pro Spiel nicht einfach noch einen Praxisdurchlauf macht bleibt mir Schleierhaft.
Ergänzung ()

Schinken42 schrieb:
Fehlen weil unwichtig. Interessiert ein GPU Test, bei dem nebenbei Blender auf der CPU läuft?

Wie schon? Alle performen entweder im selben Abstand wie hier oder absolut gleich, weil das GPU Limit anliegt. Frage beantwortet.

Du verlangst quasi Tests der Höchstgeschwindigkeit in einer 30er Zone. Rat mal: Alle schaffen 30.
Das stimmt so nicht. Es gibt keine Riesenunterschiede aber dennoch.
 
  • Gefällt mir
Reaktionen: Wichelmanni, Veitograf und Rockstar85
@NEO83
Da steckst du aber ganz schön in deiner Bubble ;).
Selbst in den Nerd-Foren ist Standardtakt inzwischen fast, höho, Standard. Weil Ünertakten mit all den Boost Mechanismen kaum was bringt.

UV ist dafür beliebt geworden, das schon. Aber an die Spannungen trauen sich doch weniger Leute als an den Takt. Anyway, die breite Masse macht nichts davon. Er schwimmt also schon mit dem Strom, du bist viel eher die Ausnahme.
 
.Sentinel. schrieb:
Ich stelle mir des Öfteren die Frage, warum AMD den Effizienzvorsprung in Sachen Chipdesign &co. nicht auf die Grafikkartensparte übertragen bekommt.
Weil Nvidia kein Intel ist und seine Hausaufgaben gemacht hat.
Intel hat sich auf seinem Erfolg ausgeruht und dann kam AMD mit Ryzen. Zen 1 war noch nicht gefährlich, aber zeigte, wo die Reise hinging. Mit Zen 2 hat man gleichgezogen und Zen 3(X3D) hat Intel vernichtet.
Die RDNA3 GPUs sind ja auch kein Schrott, aber eben nicht so gut wie die Konkurrenz.
 
Lowman schrieb:
Gibt ja Igor oder Gamersnexus die das vernünftig machen. Es ist schlicht unerheblich in der Praxis was die CPU bei 720p anstellt.
Stimmt- Dort könnte genausgut 320P stehen oder 640x480 oder auch 1.

Die CPU schickt auflösungsunabhängig immer die gleiche Anzahl und Art an Befehlen an die API (Vulkan/DX), die diese dann wiederum an den Treiber weitersenden, der dann wiederum die Grafikkarte in die Spur setzt.

So ein Befehl kann z.B. sein:
Zeichne vektorbasiert Dreieck XY in Koordinatensystem YZ.
Die Grafikkarte rastert (daher der Ausdruck) den erhaltenen Befehl dann erst in die entsprechende Pixelmatrix des Bildschirms bzw. Auflösung, die ihr vom Grafiktreiber mitgegeben wurde.
Steigt die Auflösung, dann erfährt das die Grafikkarte durch den Treiber und wird mehr Pixel für das Dreieck zeichnen, also feiner rastern, was dann eben mehr GPU- Leistung fordert. Die CPU erhält dann Rückmeldung, dass das Dreieck gezeichnet wurde und ab geht es zum nächsten Zeichenelement.

Was also nach Absetzen des Zeichenbefehls hinten dran passiert (z.B. in welcher Auflösung das die Grafikkarte darstellt), kriegt die CPU letztendlich überhaupt nicht mit. Die wird erst wieder wach, wenn die nächsten Zeicheninstruktionen (aka Drawcalls) angefragt werden.

Dass die Arbeit für die Katz´ ist, wenn man höher testet, kann man auch sehr schön auf den Seiten sehen, die das tun (z.B. Tech Powerup 14900K).

Nehmen wir dort mal die Ergebnisse bei CS GO:
720P = 767 FPS
1080p = 752 FPS

oder Battlefield V
720P = 322 FPS
1080P = 322 FPS

oder Doom Eternal
720P = 544 FPS
1080P = 518 FPS

oder Elden Ring
720P = 172 FPS
1080P = 173 FPS

oder Forza Horizon 5
720P = 195 FPS
1080P = 183 FPS

oder God of War
720P = 277 FPS
1080P = 251 FPS

In den Auflösungen darüber kicken vermehrt dann die Beschränkungen der Grafikkarte rein und senken entsprechende Werte.

Die marginalen Änderungen, die man diesbezüglich feststellen kann sind Engine- Basiert, weil man selbst auf niedrigen Auflösungen Einflüsse in der Allokation der Streaming- Engines hat (RAM, SSD Geschwindigkeit).

Was kann man aus diesen Informationen lernen?
Bei CS Go kann die CPU generell um die 750 FPS liefern. Kommt eine entsprechend leistungsfähige Grafikkarte raus, liefert Dir die CPU die 750 FPS in höherer Auflösung und mit der Grafikkarteneneration drauf die 750FPS in noch höherer Auflösung.

Warum testet man die CPU also nicht in höheren Auflösungen?
->Du bekommst dann nur Performancedaten für genau die EINE Hardwarekombination des Tests. Also dem einen Prozessor mit der einen zugehörigen GPU bei einer Auflösung.

Wohingegen Du beim CPU Test in niedrigen Auflösungen den Wert, den die CPU mit ALLEN möglichen und auch zukünftigen Konfigurationen maximal erreichen kann, recht zuverlässig ermitteln kannst.

Hatte das vor einiger Zeit auch schonmal anhand von eigenen Benchmarks belegt:
https://www.computerbase.de/forum/t...t-eine-frage-des-limits.1946885/post-24153414
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Creidiki, ALPHA-S, Fresh-D und 20 andere
Der 14700K ist die wahre Gewinner-CPU bei diesem Setup.
Die 20 Kerne bekommst du sonst nicht so leicht am Markt. Der konkurriert schon stark mit dem 12900KS und die war erheblich teurer bis auf den Endsale.

Wenn man es schafft da noch ein paar MHz rauszukitzeln hat man erstmal lange ausgesorgt.
Besonders gut auf jeden Fall für alle Besitzer der älteren Plattformen, nun bekommt man Takt und Kerne gleichzeitig geliefert und muss nicht immer entscheiden.
DDR4 Mainboards sind dazu noch günstiger im Handel. Aufrüsten lohnt sich dann erst bei der nächsten Generation so richtig, bis dahin kann man wohl gute 5,6 bis 6,1 GHz erwarten. ;)

Da muss man sich dann auch erstmal keine Sorgen machen um neue Releases, bis 20 Kerne am Anschlag laufen dauert es ein bisschen. So weit sind die Konsolenreleases leider nicht. ;)
 
  • Gefällt mir
Reaktionen: cyberpirate
PS828 schrieb:
Spannende Zeiten kommen auf uns zu. Wenngleich die Latte nach dem Release hier niedrig hängt

So niedrig hängt die Latte bei Intel nicht.

Die haben "nur" ein Fertigungsproblem.
Am Design liegt es nicht.

Wenn die in Tempo weitermachen, müssen die zwangsläufig irgendwann bei den halbwegs teuren Produkten auf Fremdfertigung gehen.
(... was mit dem Chiplet Ansatz auch schon teilweise gemacht wird)

Dann wären sie sofort wieder dabei.
 
  • Gefällt mir
Reaktionen: Wichelmanni und iron_monkey
MrHeisenberg schrieb:
Weil Nvidia kein Intel ist und seine Hausaufgaben gemacht hat.
Ich frage mich deshalb, weil ja auch bei der Entwicklungsabteilungen von Intel meines Wissens nach mehrere Nodes gleichzeitig von weitestgehend unabhängigen Teams erforscht werden. Selbst wenn der 10nm Prozess in die Hose gegangen ist, hätten die anderen Abteilungen ja trotzdem "nachlegen" müssen.

Und auch Intel hatte ja mit Broadwell bereits deutlich vor AMD ihren AHA- Moment mit zusätzlichem Cache. Die haben da mit einem 3,3GHz getakteten 4 Kerner den damaligen Desktop- Platzhirsch 4790K mit 4,4GHz gestellt.
Und das bei entspannten 50%-75% geringerer Leistungsaufnahme. Ich kann mir langsam keinen Reim mehr drauf machen, was Intel da macht. Zumindest steht fest, dass sie längere Zeit schon nicht mehr das liefern, was sie liefern könnten.
AMD bleibt hingegen in seiner Entwicklung konsistent.
 
  • Gefällt mir
Reaktionen: Laphonso, TieTie, MrHeisenberg und 3 andere
@.Sentinel.
Wunderschön ausführlich und einfach (leicht verständlich) erklärt. Gäbe es für solche Postings hier einen Award, abgesehen vom Beifall Umherstehender in Form des "Gefällt mir", wärst du in meinen Augen mit diesem Beitrag für dieses Jahr ein ganz heißer Kandidat, auch wenn die Wahrscheinlichkeit leider sehr hoch ist, dass du sinnbildlich, für einige die immer wieder nach höheren Auflösungen bei CPU Benches fragen, leider Perlen (der Weisheit) vor die Sä... sigh
 
  • Gefällt mir
Reaktionen: Laphonso, TobiD79, CueSystem und 2 andere
Zurück
Oben