Test Intel Raptor Lake im Test: Core i9-13900K, i7-13700K & i5-13600K jagen Ryzen 7000

Die Launch-Analyse des 3DCenters ist da.

Beobachtungen zum Thema Gaming:
  • Der reduzierte Gaming-Parcours mit den 10 Titeln hier bei ComputerBase weicht diesmal sehr stark vom aggregierten Index ab. Beim Zen4-Launch waren es noch maximal 3,2% Abweichung, mit einem Ausreißer bis 4,5%. Diesmal sind es vielfach fast 10% Abweichung, mit Ausreißern bis fast 14%. Damit bildet ComputerBase die relative Gaming-Leistung der CPUs nicht mehr gut ab. Da muss nun eigentlich mit mehr Titeln nachgebessert werden.
  • Die Spannweite zwischen den Tests ist riesig. Gegenüber dem auf 100% Gaming-Leistung normierten 13900K meldet Tom's Hardware für den 7600X nur 74,2%, und der Comptoir du Hardware 103,2%. Das sind +39% zwischen beiden Einträgen!!! Das zeigt einmal mehr, wie wichtig 3DCenter ist, um die Effekte solcher Ausreißer durch Aggregation zu reduzieren.
  • Die Aussage von AMD, dass der 7600X in Spielen am 12900K vorbei zieht, wird bei 18 Publikationen, die beide getestet haben, von immerhin 5 bestätigt. Beim 7700X sind es 13 von 18, das ist dann schon deutlicher.
  • Unter dem Strich legt sich Ryzen 7000 am Ende in Spielen nur mit dem 13600K an. Wer das Geld für 13700K oder gar 13900K ausgeben will, kann sich im Schnitt um gut 10% absetzen.
  • Der 5800X3D bleibt AMDs derzeit beste Budget-Option für High-End-Gamer.
Die Frage ist natürlich wie immer, ob man die maximale Performance überhaupt braucht. Wer in 1440p mit Mittelklasse-GPU unterwegs ist, dem reicht auch ein 5800X oder 12400F, um auf etwa 90% an einen 13900K heran zu kommen.
Ergänzung ()

mcsteph schrieb:
Der 7950 und der 13900 sind in der Anwendungsperformance total gleich.
Bei derart teuren Prozessoren sollte man sowieso genau hin sehen, welche Anwendungen genutzt werden, und welcher da konkret Vorteile bietet. Das kann mal der AVX-512-Support von Zen 4 sein, mal der qualitativ etwas bessere Hardware-Video-Encoder im 13900K. Oder man will halt einfach den einen oder anderen Prozessor haben, dann ändert da eh keiner was dran.

Für mehr Käufer interessant wird es bei den Modellen weiter unten. Das größte Problem hat bei AMD der 7700X für derzeit 463€, der vom 13600K für 380€ geschlagen wird. Da bekommt man bei Intel fast 30% mehr Performance pro Euro. Das ist die Baustelle.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Rockstar85, The Azazil, Zwirbelkatz und eine weitere Person
Nixdorf schrieb:
Bei derart teuren Prozessoren sollte man sowieso genau hin sehen, welche Anwendungen genutzt werden, und welcher da konkret Vorteile bietet. Das kann mal der AVX-512-Support von Zen 4 sein, mal der qualitativ etwas bessere Hardware-Video-Encoder im 13900K. Oder man will halt einfach den einen oder anderen Prozessor haben, dann ändert da eh keiner was dran.
100% Zustimmung
Ergänzung ()

Nixdorf schrieb:
Der reduzierte Gaming-Parcours mit den 10 Titeln hier bei ComputerBase weicht diesmal sehr stark vom aggregierten Index ab. Beim Zen4-Launch waren es noch maximal 3,2% Abweichung, mit einem Ausreißer bis 4,5%. Diesmal sind es vielfach fast 10% Abweichung, mit Ausreißern bis fast 14%. Damit bildet ComputerBase die relative Gaming-Leistung der CPUs nicht mehr gut ab. Da muss nun eigentlich mit mehr Titeln nachgebessert werden.
Traurig aber wahr!
 
  • Gefällt mir
Reaktionen: The Azazil
Nixdorf schrieb:
Sehr interessant

Nixdorf schrieb:
t. Wer in 1440p mit Mittelklasse-GPU unterwegs ist, dem reicht auch ein 5800X oder 12400F, um auf etwa 90% an einen 13900K heran zu kommen.
Ergänzung ()
Wieso ist denn der 13700 eigentlich nicht in der Liste? Oder bin ich blind?
Interessant mal wieder zu sehen wie die Balken bei 4K fast gleich waren.


Nixdorf schrieb:
Für mehr Käufer interessant wird es bei den Modellen weiter unten. Das größte Problem hat bei AMD der 7700X für derzeit 463€, der vom 13600K für 380€ geschlagen wird. Da bekommt man bei Intel fast 30% mehr Performance pro Euro. Das ist die Baustelle.
Da ich gerade zwischen 7700 und 13700 schwanke ist der AMD für sich alleine schon echt etwas ins Hintertreffen gekommen. Einzig die Option auf längere Updatebarkeit gibt ihm da einige Pluspunkte. Wobei man sich da auch fragen muss, wann will man updaten. Wenn erst in 5 Jahren, dann kann man fast schon getrost das ganze vergessen und die AM5 überspringen und auf AM6 warten.
 
Anne Linsner schrieb:
Wieso ist denn der 13700 eigentlich nicht in der Liste? Oder bin ich blind?
TechPowerUp hat den 13700K bisher nicht gestellt bekommen.
Ergänzung ()

Anne Linsner schrieb:
Da ich gerade zwischen 7700 und 13700 schwanke ist der AMD für sich alleine schon echt etwas ins Hintertreffen gekommen.
Der 7700X konkurriert bestenfalls mit dem 13600K, und auch da eigentlich erst, wenn man beide auf 125W begrenzt. Darunter könnte der 7700X sogar leicht vorne liegen. ComputerBase will ja für den 13600K noch Werte für niedrigere Power Limits liefern, das wird spannend.

Von der Performance ist der 13700K noch eine Stufe oberhalb dieses Duells, und muss eher mit dem 7900X verglichen werden. Da ist dann das Modell von AMD wieder klar zu teuer, wohingegen der 13700K der schnellere Nachfolger des 12900K für 80€ weniger ist.
 
Zuletzt bearbeitet:
Nixdorf schrieb:
Sorry, diese Details sind teilweise... Korintenkackerei in meinen Augen. Beide neue CPU Generationen sind gut, und man muß doch heute nicht mehr so einen Wettbewerb daraus machen. Es ist doch gut, daß heute - im Gegensatz zu manch früheren Zeiten - der Kunde die Wahl hat, was ihm sympathischer ist oder mehr in sein Konzept und Geldbeutel paßt.

Und was Leonidas bist heute da macht, ist reine (oftmals unnötige) Pseudometaanalyse, er hat bis heute kaum selbst mal die Hardware in der Hand gehabt und selbst mal entsprechend getestet. Wie man ja sehen ja, unterscheidet jeder Tester anders und wichtet entsprechend unterschiedlich, von unterschiedlicher Hardware und Softwareinstallationen mal ganz zu schweigen.

Ob da nun ein AMD Ryzen 7 7950 oder ein i9-13900k drinsteckt, werden die meisten praktisch in ihren täglichen Anwendungen und Spielen kaum merken. Ebenso bei den Mittelklasse CPUs wie den 7600 oder i7-12600. Sie können aktuell ziemlich ähnliches mit ähnlichen Zeiten, drastische Ausreißer gibt es hier nicht, wenn man es mal mit Nvidia, AMD und Blender Benchmarks vergleicht. Sprich, beide CPU Gruppen sind gleich gut, und jeder wird damit gute Erfahrungen machen können, die herbeizitierten Unterschiede sind in meinen Augen marginal.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: The Azazil und xexex
Naja bis auf das einer 200 Watt und der andere 320 Watt Verballert,was in meinen Auge dennoch nicht als maginal zu sehen ist.Sonst wenn man das ausblemdet ,dann sähe es wirklich so aus ,wie du halt geschrieben hattest.Ansonsten ja eben nicht so.
 
so mal ein paar Eindrücke von mir. System läuft, soweit so gut. 13900K + MSI Tomahawk Z690 DDR4 (gabs für 209€).

Spürbarer Unterschied zum i9 7980XE OC ist natürlich kaum gegeben (erster Eindruck), dennoch fallen ein paar Sachen auf:

  • Musste erstmal via USB das Z690 flashen damit der Rechner überhaupt anging (flashback)
  • Ram läuft aktuell bei mir auf 3733Mhz CL 14-15-15-28 (32GB, 4x8 Module). Da muss ich mich erstmal reinarbeiten.
  • Der 13900K ist beim 100% Last X265 von FFMPEG selbst mit unlimited nur wenig schneller als der i9 OC (32Threads vs 38 Threads)
  • gerade wenn man mehrere Dinge parallel macht (real Case) scheint der SLX erstaunlich stark gewesen zu sein, selbst auf "nur" 200W
  • Interessant ist das Verhalten im Multithread. Der SLX hat eher homogen agiert, also wenn ich zb 2 Filme parallel gewandelt habe dann hatten beide zB 5 FPS Speed. Ebenwürdig halt. Nun ist das Verhalten ein ganz anderes. Er scheint alles was an Leistung da ist auf eins der beiden Prozesse zu ballern, also wandelt den einen mit exemplarisch 9FPS, den anderen mit 1 FPS. Das ist sicher dem Big Little Aufbau geschuldet bzw wäre auch bei NUMA Prozessoren so
  • auf 100 oder gar ~50W eingebremst liefert er noch gute Leistung, gerade mit etwas UV (wohl eher das Mittel der Wahl wenn man lange umwandelt)
  • Ich hab mein AVR nun statt mit SPDIF (wegen 5.1 Audio das nur mit dem Realtek Hack ging)ab sofort mit HDMI an den AVR. Dabei ist mir aufgefallen dass Nvidia HDMI Audio den GPU Idle Verbrauch von 20 auf 65W erhöht - konstant (!). => hier zahlt sich schon die iGPU aus. Einfach dann an den HDMI vom Board und schon fluppen 5.1 in Game Sound über die iGPU bei quasi 0 Mehrverbrauch
    Das spart über die Zeit mehr als die CPU selbst lol oder wird oft komplett ignoriert.
  • insgesamt bleibt der 13900K Spielzeug, mal sehen was die neuen TR können.
1666909524299.png
 
Zuletzt bearbeitet:
Ah interessant also scheinen h265 die CPU besser auszulasten als h264.
Da verhielt sich der 13900k wohl anderst.
Habe da auch 2 paralell umwandeln lassen. Ohne powerlimit war dieser auf 320 Watt gestiegen. Temps waren weil richtig last gewesen war so bei 80 Grad warm weil diese Person alle Updates und so gemacht hatte mit Kühler Ring der auch bessere Temps liefert mit den fetten 420 wasserkühlung. Ich selbst will dennoch keine wasserkühlung haben weil wartung mal gemacht werden muss und das zusammen bauen Aufwendiger.
Da die person im moment noch keine zeit mehr hat wieder später noch in 125 Watt limit und mal auch ohne ht getestet.

Windows 11 ist Murks bei Energiesparmodus weil 165 Watt mit 4,3 GHz merkwürdig ist. Auch das Programm scheint Windows 11 nicht zu mögen.
Lief es unter weniger als normal bei priotäten normal und schneller war es bei schneller als normal priotäten ne Leistung Einbruch zu verzeichnen. Asyncrone Ergebnisse waren die folge.
Ob das Programm oder Windows 11 schuld ist kann ich nicht sagen. Ich selbst habe nur Windows 10 und da ist mir so ein Verhalten noch nie aufgefallen.
Ich habe davon auch Bilder gemacht,wen es also interessiert ist alles aufgezeigt.

Nun interesant wie sich Auflösung und Codec das ganze beenflussen.
Bei gpu umwandeln ist es auch so. Hier wird h265 auch bei gpu verwendet. Die schnellste gpu schafft da nur 50 Sekunden. Ich bei h264 schaffe sogar 43 Sekunden mit nem 1650. Zuvor ne Gtx 750 ti gehabt wo bei 1:30 schnell war. Also halbiert die Zeit.
Ich habe aber irgendwie mehr erwartet gehabt weil ich dachte gpus seien so schnell.

Naja bei meinen Fall haben also die cpus bald aufgeholt. Wenn also bei h264 nicht noch ein richtiger Hammer bei gpu kommt wo es richtig steigert, wird bald die CPU so schnell wie gpu sein.
Aus Neugier habe ich da einfach mal die Gtx 1650 mit 2x h264 gleichzeitig umwandeln lassen.
Auch bei gpu brach also die Leistung leicht ein.

Nun ja ich bin also gespannt was man da aus dem 13900k noch so rausholen kann. Und ja 5,6 GHz ist fast das Ende beim 13900k.
Eines ist aber als Fazit zu sehen, Blendet man den hohen stromverbrauch aus der ja viel höher als die threadripper sind, so wird ganz klar geschlagen vom 13900k.

Aber eines ist klar, finden konnte ich eben halt keinen der nen threadripper 5 gen als pro hat. Dennoch wirklich schneller wird dieser nicht sein. Höchstens der Zen 4 threadripper ziehen wieder davon.

Ich frage mich auch ob die cpus mal schneller als die gpus sein werden weil ne richtige steigerung kann es ja nicht mehr geben. Kann aber es dennoch testen weil mein bester kumpel hat nen rtx 3050 und damit wieder etwas schnellere gpu. Bin also gespannt ob man da noch unter 30 Sekunden kommen kann. So lange bis nix mehr nach unten geht. Das ist mein Ziel und das wird eines Tages wohl auch ein 8 Kerner schaffen, da bin ich mir ganz sicher.
 
Krautmaster schrieb:
Dabei ist mir aufgefallen dass Nvidia HDMI Audio den GPU Idle Verbrauch von 20 auf 65W erhöht - konstant (!).
Boardpower mit GPU Z gemessen?

Intel hat den ganzen Spaß mit E-Kernen doch nur gemacht um bei Multi Core Test nicht komplett abgehängt zu werden. Mit nur und mehr P-Kernen würde das Teil wahrscheinlich verglühen oder müsste mit 1GHz weniger laufen.
Die Idee ist toll, aber so richtig gut scheint es nicht zu laufen.

Ansonsten finde ich die 13000er schon fein von der Leistung her.
Nur für einen kompletten Wechsel zu Intel wenig attraktiv. Die nächste Generation wird sehr interessant und die Mainboards sind bereits am Ende, da kann nix neues drauf.
 
Pizza! schrieb:
Intel hat den ganzen Spaß mit E-Kernen doch nur gemacht um bei Multi Core Test nicht komplett abgehängt zu werden.
man bekommt halt 4 Kerne auf den Platz eines P Kerns hin, deswegen macht man das in erster Linie. Der Effizienz wegen, Macht AMD auch noch.

HWinfo zeigt das ja für die GPU gut an. Läuft als GPU Energieverbrauch, ka ob Chip allein oder Board Power.

@latiose88
ich wandle nur über CPU. Wenn ich X265 NVENC nutze dann sieht die X265 Quali etwa aus wie x264 über CPU. CPU liefert einfach deutlich besseres Bild bezogen auf benötigte Bandbreite.
 
Ja ist mir schon klar, meinte ja nur von der Geschwindigkeit. Da wird wohl sich bei gpu nichts mehr wirklich tuen, bei CPU wird sich in Zukunft noch einiges tuen. Dann ist irgendwann der Vorteil den die gpu noch hat die Geschwindigkeit dahin. Ich sehe also vorerst nur das als Vorteil und sonst nix. Da sind wir uns beide einig. Hat ja auch niemand behauptet es gäbe ne unendliche Steigerung. Die ist halt mal erschöpft selbst bei gpus.
Und ja du wirst auch in Zukunft h265 verwenden und ich h264 auch in Zukunft.
Ich bin einfach gespannt wann bei der Geschwindigkeit das Ende erreicht ist. Ich weiß nur das sich bei der niedrigsten Einstellung die Zen 4 sogar wieder schlechter laufen als bei Zen 3. Der 5950x lief bei den niedrigen settings bei 30 Sekunden und der 7950x bei 35 Sekunden. Dafür holte bei den sehr hohen Einstellung der 7950x den Vorsprung bei 20 %.

Also wie man sieht unten rum ist es also das Ende schon erreicht. Oben hin da geht noch einiges. Bin echt gespannt wann sich niedrige und hohe settings so weit angeglichen haben das man keinen unterschied mehr bei der Geschwindigkeit mehr sieht.

Aber gut bei Intel habe ich das auch noch garnicht ausprobiert wie die sich bei niedrigsten settings so verhalten. Also sprich die schlechtesten settings die man so fahren kann. Wie crf 30 oder niedgier mit den anderen settings auf niedrig. Zum archivieren zwar Mist aber um herauszufinden wie gut eine CPU damit umgeht sehr wohl.

Es wird also auch in Zukunft spannend werden wie es weiter gehen wird.
 
Kommt eigentlich nochmal ein Overclocking bzw. eher optimierungs Artikel zum 13900K ? @Jan
Was verschiede Powerlimits bringen, Undervolting, Einstellungen der E- und P-Cores. Wie sehr sich RAM Taktfrequenzen und Timings auswirken.

Hier im Unterforum sehe ich auch noch nichts.

Der8auer hat das Thema in seinem Test kurz angerissen und viel Optimierungspotential gesehen.
 
^^Als 25W CPU vielleicht?

13700KF@25W_CB23_Test01.jpg
 
Ich finde erstaunlich wie stark die Unterschiede bei den verschiedenen Tests insgesamt ausfallen.
Die Übersicht bei 3dcenter https://www.3dcenter.org/artikel/la...lake/launch-analyse-intel-raptor-lake-seite-3 gibt nen guten Überblick.

Ein Beispiel beim Gaming, Spiderman mit RT:
Hier bei CB ist der 13600k selbst mit DDR4 (der schnelleren Variante) vor allen Zen4:
https://www.computerbase.de/2022-10...ore-i5-13600k-mit-ddr5-und-ddr4-im-vergleich/
CB_Spiderman_13600k_7600x.png
Bei Techspot ist sind alle Zen4 vor dem 13600k:
https://www.techspot.com/review/2555-intel-core-i5-13600k/
Techspot_Spiderman_13600k_7600x.png


Getestet wurde hier bei CB in 720p mit ner 3090Ti, und bei Techspot in 1080p mit ner 4090.
Bei beiden Tests sieht es zumindest im Bereich vom 13600k und 7600x nicht nach GPU Limitierung aus.

Außerdem wurde mit unterschiedlichem Ram getestet, aber zumindest bei DDR5 hat in beiden Tests Raptorlake schnelleren Ram als Zen4.
Kann das aber solche Unterschiede erklären?
 
Zuletzt bearbeitet:
Die bei Techspot testen aus mir nicht ersichtlichen Gründen auf Medium oder High Details, während CB immer mit Maximum testet.
 
  • Gefällt mir
Reaktionen: Jan
@Wolfgang hat die Tage 13900K vs 7950X mit RTX 4090 in 720p, 1080p und 2160p (wenn möglich mit DLSS/FSR quality) getestet. Der Parcours war nicht identisch zum Test. Trotzdem ist das Ergebnis quasi identisch. Wir haben einfach viel stärker im CPU-Limit getestet als andere.

Die neuen Ergebnisse gibt es nächste Woche.
 
  • Gefällt mir
Reaktionen: Zwirbelkatz und PietVanOwl
Oneplusfan schrieb:
Die bei Techspot testen aus mir nicht ersichtlichen Gründen auf Medium oder High Details, während CB immer mit Maximum testet.
Beim Spiderman Beispiel hier bei CB:
Sehr-hoch-Preset, kein AF, Schatten + Detail auf „Sehr hoch“, IGTI auf „Performance“
RT-Auflösung auf „Hoch“, RT-Geometrie auf „Sehr hoch“, RT-Sichtweite auf „10“

Techspot gibt nur an:
High, Raytraycing High

Aber ob das so einen Unterschied macht.
 
Jan schrieb:
Wir haben einfach viel stärker im CPU-Limit getestet als andere.
Das kann aber eigentlich auch nicht der alleinige Grund sein, denn wenn bei anderen ein nicht so starkes CPU Limit anlag, müsste das nur den Abstand der stärksten CPUs im oberen Bereich zu den schwächeren CPUs verringern.

Es sollte aber nicht dazu führen, dass eine schwächere CPU wie der 13600K, der bei anderen ja immer noch einen recht guten Abstand zum 13900K hatte, also immer noch stärker CPU limitiert war als dieser, plötzlich die Plätze mit einer anderen schwächeren CPU wie dem 7700X tauscht.

Mal als Extrembeispiel:

Komplettes CPU Limit
13900K 100%
13700K 90%
13600K 80%
7700X 75%
7600X 70%

Hat man im Test nun ab und an mal ein leichtes GPU Limit drin, sollte das hier passieren:
13900K 100%
13700K 94%
13600K 85%
7700X 80%
7600X 75%

Die oberen CPUs rücken zusammen, woduch der Abstand der schwächeren zur stärksten CUP schrumpft, aber am Abstand der Schwächeren untereinander sollte sich nicht viel verändern und ein 13600K würde ca gleich weit vor dem 7700X bleiben.

Der 7700X würde hier normalerweise nicht plötzlich auf 85% steigen, während der 13600K auf 80% fällt.
Das wäre nur dann möglich, wenn man bei 10 Spielen ausgerechnet bei 2 Spielen GPU limitiert ist, wo der 13600K im CPU Limit sehr deutlich vor dem 7700X liegen, bei Betrachtung der anderen 8 Spiele aber zurück liegen würde.

Daher sehe ich in diesem Generationenvergleich auch eher die Spieleauswahl als hauptsächlichen Grund für die Differenzen.
 
also 6Ghz sind gar kein Problem, auch UV.
1666971139086.png


Sind dann etwa 50W im CB Single Thread wobei die ganzen Monitoring Tools auch etwas Last verursachen. Kühl bleibt die CPU deswegen trotzdem.
 
Taxxor schrieb:
Das kann aber eigentlich auch nicht der alleinige Grund sein, denn wenn bei anderen ein nicht so starkes CPU Limit anlag, müsste das nur den Abstand der stärksten CPUs im oberen Bereich zu den schwächeren CPUs verringern.

Ich habe mich auch gefragt, wieso beispielsweise bei Cyberpunk die Ergebnisse so unterschiedlich ausfallen und neben den ausgewählten Testszenen fallen mir da nur die Settings ein 🤷‍♂️

Manch einer testest in 720p low/medium (HUB zum Beispiel) und andere eben in 720p high und das scheint schon einen teilweise größeren Unterschied zu machen, höhere Sichtweit, mehr Passanten, höhere Geometrie, alles Dinge, die die CPU belasten.

Kann ja fast nur an sowas liegen. Oder die Testszenen sind einfach generell unterschiedlich anspruchsvoll.

Vielleicht geht dem 5800x3d dann aus welchen Gründen auch immer etwas die Puste aus und der Cache hilft dann nicht mehr und speziell diese Settings skalieren dann wieder besser mit Takt.


In Iracing ist es sogar so, dass auf manchen Strecken (z.B. SPA) die Intels deutlich flotter sind, während der 5800x3d auf Long Beach kaum abgeschlagen ist. Also selbst innerhalb eines Titels gibt es solche großen Unterschiede.

In Assetto Corsa Competizione ist der 5800x3d eigentlich bärenstark, stärker als der 13900k.

Aber ich zocke in VR und nach langem Suchen habe ich immerhin zwei einigermaßen vergleichbare Videos gefunden.

Letztlich hat der 5800x3d in VR mit vielen KI Fahrzeugen dann doch relativ viele Frametimespikes gehabt, während der 12900ks absolut smooth lief und sogar etwas geringere Frametimes aufbieten konnte.
 
Zurück
Oben