Test Intel Raptor Lake im Test: Core i9-13900K, i7-13700K & i5-13600K jagen Ryzen 7000

453 Watt Leistungsaufnahme bei Vollast für den PC bei einem 13900K, dagegen ist mein 5950x ein Sparschwein. Die neuen CPU´s holen sich ihr Plus fast nur über die Leistungsaufnahme und den Takt. Aber ich denke, wer sich einen 13900K in dieser Zeit holt, dem sind die Strompreise egal. Als ich mir mein System zusammen gesetzt habe, war mir die Effizenz sehr wichtig, sonst hätte ich mir keinen Ryzen 9 5950x geholt. Das ist eigentlich kein wirklicher Schritt nach vorne, außer der Plattformwechsel hin zu DDR5 bei einem Wechsel zu dem 7950x.
Aber unter dem Strich natürlich eine starke Vorstellung von beiden Lagern, zumal man die Leistungsaufnahme limitieren kann.
 
  • Gefällt mir
Reaktionen: khadgar und oicfar
Laphonso schrieb:
Du konntest damit aber seit 11 Monaten bereits zocken, Chiller!
Vergiss diesen Zeitfaktor und Vorteil nicht.

Ist Dein 12700K irgendwo ein FLaschenhals? Das ist m.E. unvorstellbar :)
Ich zocke nicht, brauche die Performance für Videoschnitt und Transcoding.
 
  • Gefällt mir
Reaktionen: Laphonso
floh667 schrieb:
An der Grafikkarte kanns nicht liegen. In beiden Fällen wurde die 3090ti genutzt. Aber da sind teils die selben Spiele dabei mit plötzlich gestiegener Leistungsaufnahme. z.B resident evil village.
Das deutet auf Treiberprobleme hin..
Igor kommt auch auf andere Ergebnisse und ich erinnere mich noch, dass er sagte mit AMD gibts weniger Treiberoverhead. Vllt ist da Nvidia am Ende schuld. Schauen wir mal, was 3DC rausfindet. Die Internationale Presse ist ja auch eher verhalten. Ich schau nun was TechJesus dazu schreibt.

https://www.igorslab.de/intel-core-...ine-3-4-krone-fuer-den-letzten-monolithen/11/
1666274230631.png
Finde spannend wie gut ADL bei Igor mithält. Sieht man hier ja auch ganz gut.
 
  • Gefällt mir
Reaktionen: MrChlorophil, leon2000, Rambo5018 und 4 andere
Seit wann richtet sich CB nicht mehr nach der Expertise der Experten hier um Forum?

AMD kann alles besser. Technisch Intel um Jahrzehnte vorraus. Die ganzen Propagandamärchen aus den Kinderzimmern und nun?

Und nun kommt Intel und mit alter Technik usw... 🤔

AMD und der Markt sollten beten, dass EUV wirklich der DUV so sehr überlegen ist, wie behauptet. Sonst wird es teuer und monoton.
 
  • Gefällt mir
Reaktionen: CrustiCroc
Brate schrieb:
Also ich bin immer neutral und objektiv, kaufe abwechselnd Intel, AMD, Nvidia je nach P/L und den Testergebnissen.

Aber wo zum Teufel ist das eine krass gute CPU?

Abseits dessen, die mehr Kerne hat um gerade so mal 10-15 % besser zu sein + der höhere Verbrauch.

Sehe nur blinde Intel Fanboys hier im Forum, die viel Bullshit von sich geben.
Da kommt schon wieder ein "neutraler" nicht damit klar das Intel ein gutes Produkt abgeliefert hat... peinlich.
 
  • Gefällt mir
Reaktionen: Quidproquo77 und CrustiCroc
Es hat sich wirklich gelohnt, die ganzen Wochen zu warten.

Mein spezieller Einsatzzweck ist Premiere Pro Rendering und Gaming. Da wäre der 7950X sicherlich nicht schlecht gewesen, aber jetzt hab ich ein gutes Gefühl nicht nur Geld gespart zu haben, sondern ein paar Prozentpunkte mehr Leistung zu haben. Ist wirklich erstaunlich, dass ich so 40% Zeit sparen kann mit einer CPU die weniger kostet. So genau kenn ich mich mit diesen Kernen und was sie genau machen nicht aus, aber dank des Benchmarks die richtige Entscheidung getroffen.

Mal gucken ob der NH-D15 den 13900K kühl halten kann. Bin nicht sicher, was ich von der Aussage halten soll, dass 101°C jetzt voll in Ordnung wären. Ich meine aus Sicht eines Herstellers wäre es natürlich optimal, wenn ein Gerät kurz nach Ende der Garantie stirbt und man neu kaufen muss ...
 
ben12345 schrieb:
Da kommt schon wieder ein "neutraler" nicht damit klar das Intel ein gutes Produkt abgeliefert hat... peinlich.
Das peinliche ist nur, das du meinst es wäre ein gutes Produkt:D
 
  • Gefällt mir
Reaktionen: Juri-Bär, Jowiesel, MiroPoch und eine weitere Person
Sehr enttäuschend... Für 17% mehr FPS im Durchschnitt braucht er 40% mehr Strom. Nope, völlig absurd, da wir aktuell fast immer ans GPU Limit laufen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Juri-Bär, Jowiesel, MiroPoch und 2 andere
Rockstar85 schrieb:
Das deutet auf Treiberprobleme hin..
Igor kommt auch auf andere Ergebnisse und ich erinnere mich noch, dass er sagte mit AMD gibts weniger Treiberoverhead. Vllt ist da Nvidia am Ende schuld. Schauen wir mal, was 3DC rausfindet. Die Internationale Presse ist ja auch eher verhalten. Ich schau nun was TechJesus dazu schreibt.

https://www.igorslab.de/intel-core-...ine-3-4-krone-fuer-den-letzten-monolithen/11/Anhang anzeigen 1272790Finde spannend wie gut ADL bei Igor mithält. Sieht man hier ja auch ganz gut.
ja schreibt er ja sogar über dieser Grafik auf der Seite. Auf mich wirken igors Ergebnisse auch realistischer, vorallem vor der Tatsache, dass bei comptuerbase bezüglich des 5800x3d die verbrauchswerte einfach so mal in die Höhe geschnellt sind, ohne dass das erwähnt oder erörtert wird.
 
74EAAE9E-1D16-4B89-BC61-DB66B8BB3E7A.jpeg


hmmm schon komisch 🤨🤨🤨
 
  • Gefällt mir
Reaktionen: hurcos, eXe777, MiroPoch und 5 andere
Rockstar85 schrieb:
Ach ja? Wo istn der Test? Der 12700K ist en Par mit einem 7600X... Und das steht da schwarz auf Weiß.. der 12700 hat 4,9GHz und wird am Ende auch nicht gegen den 7600X reichen.. Vor allem nicht bei den Verbräuchen.
12700K (5ghz) 100% (430€)
7600X: 101% (359€)
12700: ~95% (als F sogar nur 370€]
13600K: 114% für sage und schreibe 409€
5800X3D: 110% ~420€

Da muss man schon harter Fanboi sein um solche Preise hinzunehmen.
Der 12700 ist da das Attraktivere Modell...
Mit dem Verbrauch hast du bei Anwendungen recht. In Spielen braucht der 13600 weniger Strom als der 7700. Und wer hat denn die alte Generation angesprochen? Dann macht ein 5800x3d auch noch sinn, da er Strom zu Leistung top ist.
 
Taxxor schrieb:
Mir fehlen Filter für solche Nachrichten unter CPU Tests.
Wenn es danach geht sollte man den Gaming Bereich ganz außen vor lassen. Ja natürlich nimmt die Relevanz der CPU bei steigender Auflösung massiv ab. So gesehen ist der Test aber eh veraltet, da mit einer 3090ti getestet wurde.
Es war auch klar, dass ich die Besserwisser triggern würde :D
Ergänzung ()

schamsen schrieb:
obs auf ddr4 basis die gleichen zuwächse gibt ? dann würd ich mir glatt noch überlegen den 12700k gegen den 13700k zu tauschen
Habe die ähnliche Überlegung.
 
Blumentopf1989 schrieb:
dass ich die Besserwisser triggern würde
Warum Besserwisser? Wenn dann triggerst du die leute die faktisch wissen was genau ein CPU Test ist, nichts anderes ;)

Raptor Lake kaufen oder auf die neuen Zen3D warten? Hrm, schwierig. Denke abber eher auf Zen3D warten. Irgendwie ist Raptor Lake auch nicht so wirklich geil, genau wie die neuen AMD´s.
 
Lefty220 schrieb:
Warum soll ich mir eine tote Plattform (AM4) zulegen, wenn ich mit den Intel CPU deutlich besser fahre und auch für die Zukunft deutlich besser dastehe?
LGA ist auch EOL... ein 13600K verbraucht im schnitt 90W, ein 7600X keine 70W (ein fast gleichteurer 7700X auch nur 77)
LGA hat massive Probleme mit dem Anpressdruck des Sockels und hier liegen 2 Defekte 12400F, die Intel nicht tauschen möchte. AM4 ist am Ende genauso EOL wie LGA 1700... Und die Vernunftentscheidung ist immer noch der 12400F oder ein 5700X / 58000X3D.. Fast 100% Aufpreis für ein im Schnitt 10% Leistungszuwachs ist mal ne Ansage. Und du brauchst am Ende dann bei D5 wieder neuen Ram.

Also Ja, nur Intel und AMD Fanbois reden von, dass diese Nummer Alternativlos ist. Und Angesichts der Tests abseits von CB, sieht es für den 13600K für fast 410€ nicht besser aus.. Die CPU ist am Ende zu teuer, der 7700X aber auch.


@floh667
Also Release war es das hier: (Asus ROG Crosshair VIII X570, BIOS 4006)
Beim 7700X Test hier: (Asus X570 ROG Crosshair VIII mit BIOS 4201)
Ich kann mir schon denken, dass dieser Umstand auch bei AMD in mehr Verbrauch resultiert. Müsste dafür aber die BIOS Versionen durchforsten.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: axi
ArrakisSand schrieb:
Du kannst getrost schon mal etwas Geld für Zen 4 3D ins Sparschwein legen,
Raptor lake wird gegen diesen keinen Stich machen und chancenlos bleiben.
Ist das so? Na dann hau mal deine Benchmarks raus, scheinst ja besser informiert zu sein als alle anderen. ;)
Wenn der X3D nicht min. 20% schneller ist, dann kommt es definitiv auf das P/L Verhältnis an, was gerade bei Intel besser aussieht als bei AMD. Dazu kommt noch das etwas Zeit verstreicht bis der X3D da ist und die Intel vom Preis nochmal runter gehen.
Es bleibt spannend.
 
  • Gefällt mir
Reaktionen: CrustiCroc und ben12345
Banned schrieb:
Mein Beileid an alle Käufer der 12. Generation. Selbst am 12900KS so deutlich vorbei gezogen - das ist schon bitter.

Wieso denn Beileid?
Ich bin froh, dass mein 12700 beim Zocken im Schnitt weniger verbraucht, seit über 6 Monaten seinen Dienst tut und mich neu nur 340€ gekostet hat...

Und es gibt kein einziges Spiel, wo der mir nicht ausreicht.

Wer später kauft und mehr Strom verbrennt bekommt hier mehr Leistung.
Aber brauch ich deswegen mit der Vorgängergeneration jetzt Mitleid/Beileid?
Wohl eher nicht.


PS.:
Heißt es dann in nem Jahr "Beileid an die Käufer der 13th Gen"?
Das ist doch Quatsch. Wenn man so denkt, darf man niemals kaufen.
Hardware entwickelt sich nunmal weiter.
:)
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Schinken42, Beero84, leon2000 und 9 andere
Danke für den sehr detaillierten Test.
@topic: Nicht schlecht was Intel hier abliefert. Da wird sich AMD mit den 7000er 3D- Modellen etwas mehr einfallen lassen müssen als nur ein Modell. Und P/L hat Intel auch die Nase vorne, was aber primär an den astronomischen Preisen für die AM5-Bretter liegt.
opoderoso schrieb:
waren auch nicht notwendig auf der alten Plattform.
 
Nachdem durchgängig bei der internationalen Fachpresse,die neuen Intel-CPUs deutlich schlechter abschneiden als hier, sollte klar sein, das dieser Test total danebengegangen ist. (warum auch immer)

Wäre an der Zeit, das sich jemand von CB hier dazu äußert.
 
  • Gefällt mir
Reaktionen: guzzisti, GHad, Snoop7676 und 2 andere
floh667 schrieb:
...vorallem vor der Tatsache, dass bei comptuerbase bezüglich des 5800x3d die verbrauchswerte einfach so mal in die Höhe geschnellt sind, ohne dass das erwähnt oder erörtert wird.
Kann das ein Grund sein, dass die NVidia GPU nicht das volle DX12 Potenzial liefern? Ich beobachte das auch, aber es hängt auch immer wieder mit den Mobos zusammen.. Am Ende macht der Unterschied eines B550 Gaming X und eines X570E auch gerne mal 20W aus..

Gleiches habe ich bei den X670E bemängelt, hier sieht man wie viel die PCIE 5 Switches an Energie fressen. Das sieht man aber auch schon an Z690
 
Zurück
Oben