Test Intel Raptor Lake im Test: Core i9-13900K, i7-13700K & i5-13600K jagen Ryzen 7000

Erst freut man sich wie gut die mittelklasse jeweils abschneidet und dann stellt man fest das die mittelklasse jetzt 400 € kostet.

7700x
13600k

Nett aber aktuell zu teuer.
Würde definitiv zu AMD greifen in der Hoffnung das der AM5 Plattform genauso lange hält wie der AM4

Danke für den test
 
  • Gefällt mir
Reaktionen: khadgar, Tom081580 und eSportWarrior
GreatEvil schrieb:
In nahezu allen Tests schlägt der 5800X3D den 13600k um einen 2-stelligen Prozentbereich (selbst bei IGOR) und bei euch ist er auf einmal langsamer?
igors testsetup läuft mit einer MSI Radeon RX 6950XT Gaming X Trio OC, vieleicht liegt das daran.
 
  • Gefällt mir
Reaktionen: Jan
Potentiell ganz klar das Zepter in der Hand hat Raptor Lake gegenüber Ryzen 7000 bei den Plattformkosten.
Mitunter ein Positiver Punkt, zumindest in meinen Augen.

Und wenn man schon bei Intel ist:smokin:

PHuV schrieb:
Sie wird aber mit einer 4090 das CPU Limit nicht erreichen.
Habe das mal fuer dich Korrigiert! ;-)

Wurstfach schrieb:
Schickes Stück Silizium der 13900K. Säuft aber einmal mehr zu viel.
Ich finde diesen auch Interessant (zum Spielen), jedoch Interessiert mich der Verbrauch eher weniger. Ich finde es weniger Problematisch, da der Rechenknecht ja nicht 24/7 am Anschlag laeuft.

Das betrifft auch die "RTX 4090", die unter Last "Saufen" kann. Hier habe Ich im nachhinein selbige Meinung.

Zu Zeiten von "Multi-GPU's" hat mich jener Verbrauch auch weniger Interessiert da ebenfalls der Rechenknecht nicht durchgehend am Anschlag lief.

Aktuelle Stromkosten hin und oder her, die Hersteller koennen sich ja nicht von heute auf morgen der derzeitigen Situation versuchen anzupassen und oder irre Ich mich?

Gruss Fred.
 
Geringverdiener schrieb:
igors testsetup läuft mit einer MSI Radeon RX 6950XT Gaming X Trio OC, vieleicht liegt das daran.
Bei PCGH ist der 13600K mit der Radeon 2% schneller als der 5800X3D und mit der Nvidia 3%.

Bei Igor sinds übrigens auch nur 4.7% zugunsten des 5800X3D, also weit weg von zweistellig
 
  • Gefällt mir
Reaktionen: hurcos, MeisterOek, Aduasen und 2 andere
Was mir definitiv fehlt ist ein test mit DDR4 Ram für alle die noch kein DDR5 kaufen wollen und lieber
ein DDR4 MB und das gute oder schlechte DDR4 noch 1-2 Jahre weiter nutzen
schön wäre ein test mit DDR4-3000schlechte CL vs DDR4 max mit scharfen CL und jeweils die schnellste Einstellung für intel vs AMD x3d

Aber Top geliefert Intel hätte ich nicht erwartet das der Unterschied so krass ist definitiv interessant
 
  • Gefällt mir
Reaktionen: MeisterOek und amico81
Ich finde den I5 definitiv spannend. Ich würde auch ein bisschen in die 1% Perzentil Analyse einsteigen, denn hier liegt das wirklich wichtige meiner Meinung nach (verglichen mit dem 5800x3d):

In Cyberpunk liefert der 16% mehr ab, oder 90,5 statt 77,7 fps. Das ist signifikant und spürbar.
In Far Cry sind es 12% mehr oder 119 statt 105,8 fps. Auch hier wäre der 144 Hz Monitor erheblich besser ausgelastet mit dem Intel Teil.
In Ghostwire sind es 23% mehr oder 95,2 statt 77,5 fps.
In Spiderman RT sind es 39% mehr oder 82,2 statt 59 fps. Das würde man sofort auf dem Bildschirm bemerken.

Diesem Test zufolge kann der i5 also gut mehr Frames in den wichtigen Szenarien unter 144 Hz liefern.
Die Leistungsaufnahme in Spielen ist zwar etwas schlechter, mmn. sind die 20-30W (je nach dem mit wem man vergleichen will) Unterschied nicht sehr ausschlaggebend.

Preislich sieht es aktuell so aus:
- i5KF liegt bei 366€
-X3d liegt bei 418€

Die Mainboards im Bereich Mini ITX nehmen sich nicht viel, allerdings mit leichten Ausstattungsvorteilen zugunsten Intel.

Für mich stellt sich daher die Frage: Den I5 nehmen oder warten bis AMD mit den 3dx Varianten nachlegt?
Persönlich ist AMD, wie im Test auch angemerkt, im unteren Segment aktuell wenig attraktiv und ich bin mir nicht sicher, ob so ein reiner 6-Kerner das jemals sein wird.

Ardadamarda schrieb:
Bei Igor sieht das aber anders aus:
Hast du den Test von Igor auch gelesen oder ist das wieder nur der drölfzigste Repost von diesem Bild?

"Kommen wir nun zum Core i5-13600K, der in diesem Spiel ein recht eigenartiges Verhalten zeigt. Vor allem Spiele mit weniger als 10 Threads, dafür aber sehr wechselnden CPU-Lasten im GPU-Limit, lassen die Frame Times arg hoppeln, was sich auch bis auf die GPU-Leistungsaufnahme durchschlägt. Es ist zu vermuten, dass der Thread Director mit dieser speziellen CPU so seine Probleme hatte oder aber die Grafikkarte nicht so wollte, wie sie sollte. Denn der Core i9-13900K zeigt dieses Verhalten ja auch nicht."

Das hier was nicht stimmt, müsste spätestens einleuchten, wenn man die Frametimes vom i5 Alder Lake damit vergleicht.....

Booth schrieb:
Aber der 13600k landet so in normalen Bürokisten. Jedes Jahr werden locker 100 Mio Büro-PCs verkauft. Dann noch dutzende Mio Performance-Fertig-PC für Nichtbastler. Die folgen allen diesem Irrsinn.

Es geht hier um Faktor drei, vier, fünf, sechs (!!!!) im Stromverbrauch und hier werden 15% unmerkbare Performance-Verbesserung auf Kosten von Stromverbrauch gefeiert.
Das sind synthetische Volllasttests!!

Ein 13600k wird in einer Bürokiste niemals auch nur annähernd so viel verbrauchen wie hier dargestellt.
Selbst im Gaming bist du damit unter 100W. Bitte lies und verstehe den Test.
Das gilt für alle CPUs und GPUs, Herstellerunabhängig.
 
  • Gefällt mir
Reaktionen: MeisterOek, Paradox.13te und Enyo79
C.J. schrieb:
Der Verbrauch aller CPUs ist gestiegen, da ein neuer Parcour verwendet wird und der anscheinend fordernder für die CPUs ist.
Ich habe auf den beiden Screenshots aufgezeigt, dass der Verbrauch auch bei den selben spielen gestiegen ist wie z.b Resident evil Village.
 
  • Gefällt mir
Reaktionen: DefconDev
Rockstar85 schrieb:
Was wir derzeit aus der Industrie hören, geht man nicht vor 2024 mit Meteor aus.
Hast du da einen Link zu?
 
Oneplusfan schrieb:
Hast du den Test von Igor auch gelesen oder ist das wieder nur der drölfzigste Repost von diesem Bild?

"Kommen wir nun zum Core i5-13600K, der in diesem Spiel ein recht eigenartiges Verhalten zeigt. Vor allem Spiele mit weniger als 10 Threads, dafür aber sehr wechselnden CPU-Lasten im GPU-Limit, lassen die Frame Times arg hoppeln, was sich auch bis auf die GPU-Leistungsaufnahme durchschlägt. Es ist zu vermuten, dass der Thread Director mit dieser speziellen CPU so seine Probleme hatte oder aber die Grafikkarte nicht so wollte, wie sie sollte. Denn der Core i9-13900K zeigt dieses Verhalten ja auch nicht."

Das hier was nicht stimmt, müsste spätestens einleuchten, wenn man die Frametimes vom i5 Alder Lake damit vergleicht.....
Der Unterschied zwischen 13900K und 13600K beträgt aber bei Igor insgesamt 15% und damit ist der Abstand vergleichbar mit den 11% die CB gemessen hat.
So viel kann das also nicht ausmachen
 
MPQ schrieb:
da schneidet ein 13900K gegen einen 7950X die deutlich schlechter ab (Games 3% vorne oder so). Ohne lang zu recherchieren, auf was ist das zurückzuführen? Games/Anwendungsauswahl?
Stellvertretend für die vielen Stimmen, die die Raptor-Lake-CPUs bei uns als zu gut im Gaming-Parcours sehen, habe ich das mal hier zitiert - und will dazu sagen:

  • Die Plattformen sind korrekt und alle identisch konfiguriert gewesen (Core Isolation, HCVI), TDPs, "Auto OC" aus etc. pp.
  • Der Treiber war immer derselbe (und nicht auf einmal Nvidias "Ampere Wunder DX12"-Treiber).
  • Ryzen 9 7900X sowie Ryzen 5 7600X und die Raptor-Lake-CPUs wurden alle erst diese Woche mit denselben Spiele-Patches getestet und die Ryzen passen sehr gut zu den Messergebnissen von Ryzen 9 7950X und Ryzen 7 7700X von Ende September.
  • Alle Spiele, wo es zu gravierenden Veränderungen kam, haben wir schweren Herzen gestrichen (Anno 1800, COD, F1 22 und Valorant), weil wir Alder Lake und Ryzen 5000 nicht auch noch geschlossen nachtesten konnten.
  • Das führt dazu, dass der für Ryzen 7000 ausgelegte Parcours von 14 auf 10 Spiele geschrumpft ist.
  • Mit Abstand betrachtet, ist diese Parcours inzwischen "ziemlich blau" - was allerdings nie der Plan gewesen ist.
  • Da wir in vielen Spielen auch noch DLSS/FSR etc. hinzuschalten, operieren wir hier und da noch einmal deutlich krasser im CPU-Limit als so manch anderer Test.

Lange Liste, kurzer Sinn: Stand jetzt ist uns kein systematischer Fehler respektive Einflussfaktor bekannt, der Raptor Lake besser gestellt haben könnte als Alder Lake oder Ryzen 7000. Ich werde jetzt aber noch einmal komplett neu Windows aufsetzen und das noch einmal nachvollziehen um auszuschließen, dass irgendwo irgendwas gehakt hat (was wiederum bedeuten müsste, dass Raptor Lake zu schnell war ^^). Ich gehe davon aus, dass die Ergebnisse korrekt sind und die Spieleauswahl sowie die Settings (720p zzgl. DLSS/FSR etc.) für den größten Unterschied sorgen.

Die Leistungsaufnahme wird massiv kritisiert, bei CB eher nicht. Volllast sieht schon richtig, richtig übel aus.
Die hohe Leistungsaufnahme ab Werk wird kritisiert. Mehrmals. Allerdings liefern wir - wie zuletzt bei Ryzen 7000 - Hunderte Messwerte mit niedrigerer TDP und berücksichtigen im Fazit, dass es auch viel effizienter geht. Dass ab Werk alle Schleusen offen stehen, wird hingegen klar kritisiert - wir bauen da nur kein Thumbnail mit Flammen und offenem Mund zu…
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Quidproquo77, khadgar, Apocalypse und 34 andere
floh667 schrieb:
Dazu kommt, dass hardware unboxed z.B bereits die rtx4090 für ihre cpu tests nimmt und Igor AMDs rat befolgt und eine rx6950xt nutzt um den overhead zu reduzieren.
Diesen Overhead gibt es nicht.
PCGH hat mit Nvidia und AMD GPU getestet. Die Nvidia macht 2% mehr im CPU Limit mit 13900K.
Es macht keinen Unterschied ob man AMD oder Nvidia nimmt.
 
Zuletzt bearbeitet von einem Moderator:
Oneplusfan schrieb:
Ein 13600k wird in einer Bürokiste niemals auch nur annähernd so viel verbrauchen wie hier dargestellt.
Selbst im Gaming bist du damit unter 100W. Bitte lies und verstehe den Test.
Das gilt für alle CPUs und GPUs, Herstellerunabhängig.
Zustimmung.. Vor allem werden da eher 13600/13500 und 13400 landen. Und ein 13400 war bis vor Kurzen noch ein 12600K (nun eben mit gelockten Multi) Und DAS könnte in der Tat eine spannende 200€ CPU werden.

@Jan
Danke für das Statement.. Okay dann wird selbst der Vergleich schwer, aber es ist auch kein Wunder, dass ihr dann streichen müsst. die 3 Wochen waren sicher heftig.
 
Die Leistungsentwicklung geht in die Richtige Richtung. Die Entwicklung der Leistungsaufnahme nicht.

Rein fürs Gaming ist für mich der 5800X3D immernoch der beste. Nur 15% langsamer, dafür aber 70% weniger Leistungsaufnahme, dazu noch auf der günstigen AM4 Plattform. Falls man so ein Board besitzt aktuell das günstigste Upgrade.

Ansonsten bin ich eigentlich schon positiv Überrascht von der Performance von Intel. Habe nicht damit gerechnet das AMD so klar geschlagen wird.
Ist vermutlich aber auch der Grund warum von beiden Seiten die CPUs out of the box so weit weg vom Effizientesten Punkt betrieben werden. Keiner will nachgeben und jeder will den schnellsten
 
  • Gefällt mir
Reaktionen: khadgar
Insgesamt doch positiv, zeigt auf jeden Fall dass es auch bei Intel langsam aber sicher wieder aufwärts geht. Persönlich hoffe ich ja, dass es bei den Preisen zur Sache geht zwischen Intel und AMD, leider vermute ich ja das die sich stillschweigend einfach geeinigt haben (so wie AMD und Nvidia auch) die Margen nicht zu sehr sinken zu lassen.
Da meine Plattform mir im Moment vollkommen ausreicht wird frühestens mit einem der Nachfolger aufgerüstet, aber vielleicht auch dann noch nicht.
 
Ragnarök88 schrieb:
Diesen Overhead gibt es nicht.
PCGH hat mit Nvidia und AMD GPU getestet. Die Nvidia macht 2% mehr im CPU Limit mit 13900K.
Es macht keinen Unterschied ob man AMD oder Intel nimmt.
Dann stellt sich die Frage, woher diese Diskrepanzen kommen. Treiber? BIOS? Spiele Parcour? Für die durchschnittlichen FPS Werte wird's wahrscheins der Spiele Parcour sein. Computerbase hat nur einen kleinen Parcour und lässt alle Spiele weg die sehr Cache sensibel sind wie factorio oder Microsoft flugsim.
Igor hat zumindest world war z drin was sehr auf AMD abgeht und Hardware unboxed hat den schönsten Parcour mit ganz vielen spielen.

Erklärt aber immernoch nicht den Mehrverbrauch von über 10 Watt aus heiterem Himmel.
 
Sehr stark. Die CPU Serie wird wohl nächstes Jahr meine System ablösen.
 
Es mag ja sein, dass die CPU in 720p die schnellere ist, aber in jeder gängigen Auflösung macht es praktisch keinen Unterschied welche CPU ich nehme. Außer bei einer 4090 vielleicht, aber auch da in einem FPS Bereich der jenseits der 1xx/2xxFPS liegt.

AMD wird vermutlich noch einen X3D für AM5 bringen um dann wieder vorne zu sein.
 
  • Gefällt mir
Reaktionen: Akkuman
Oneplusfan schrieb:
Ein 13600k wird in einer Bürokiste niemals auch nur annähernd so viel verbrauchen wie hier dargestellt.
Selbst im Gaming bist du damit unter 100W. Bitte lies und verstehe den Test.
Das gilt für alle CPUs und GPUs, Herstellerunabhängig.
Gleichgültigkeit als Reaktion erwarte ich ja eh. Aber Ignoranz? Holy moly.
Es geht hier nicht um einzelne Wert, sondern eben doch um den Gesamtvetbrauch. Es wird ja auch die Teil-Last angegeben mit knapp 80/90 Watt. Bedeutet ich könnt locker auch einen i-irgendwas mit 10/15/20 Watt als Desktop rausbringen. Das geht bei Intel/AMD als Laptop-CPU durch. Das sollte der STANDARD für alle sein.

Rechne einfach 50 Watt pro Stunde Mal 1 Mrd Büro-PCs. Dass dies nicht geschieht beginnt hier. Es beginnt im HighEnd. Es wird überall nur nach Performance geschrien und diese bejubelt, egal wie sinnlos diese für die allermeisten sein mag.
Ist das echt so schwer zu kapieren?
 
  • Gefällt mir
Reaktionen: MrChlorophil, Starkstrom und guzzisti
Kranke Performance Intel !

Und gut das ich meinem Reflex eine Zen 4 Plattform zu bestellen widerstanden habe.

Raptor Lake ist die deutlich bessere Wahl. Günstigere Plattformkosten, erheblich schneller.
In dieser Gen. sprichts fast nichts für AMD.
 
  • Gefällt mir
Reaktionen: laxus222 und Neubauten
Zurück
Oben