Test Intel Raptor Lake im Test: Core i9-13900K, i7-13700K & i5-13600K jagen Ryzen 7000

Ragnarök88 schrieb:
Diesen Overhead gibt es nicht.
PCGH hat mit Nvidia und AMD GPU getestet. Die Nvidia macht 2% mehr im CPU Limit mit 13900K.
Es macht keinen Unterschied ob man AMD oder Intel nimmt.
Mit den neuen Treibern, ja. Vorher war es desaströs. Haben die wirklich alle CPUs mit gleichem Treiber gemessen? Ich finde grad keine Systeminfo...
 
  • Gefällt mir
Reaktionen: edenjung, Convert, M3930 und 2 andere
Intel hat jetzt neben der guten Leistung den Vorteil das die Plattform günstiger ist, wird nicht leicht für AMD.
 
Danke für den Test, wie immer sehr ausführlich!
Hätte nicht gedacht dass im Gaming man sich doch so klar absetzen kann.

Bin gespannt auf die 3D CPUs von AMD nächstes Jahr und was so in den nächsten Tagen reinpurzelt mit "normalen" RAM Taktungen. Die 5600Mhz sind ja jetzt eher unteres Niveau beim Speicher, hoffe da geht bei Raptor Lake deutlich mehr. Bei ADL ist alles >6400Mhz ja gefühlt schon nur noch auf den 500€+ MB möglich gewesen.
 
Okay bei PCGH spielt auch das Thema AMD vs Nvidia GPU eine große Rolle, denn während Intels 13th Gen mit der Nvidia GPU besser läuft, ist es bei Ryzen 7000 genau umgekehrt.

Beide mit ner Radeon ergibt einen Unterschied von lediglich 8%, während beide mit einer Nvidia auf 15% kommen.
Und 10% sind es bei "best vs best" also Intel mit Nvidia und AMD mit AMD
 
  • Gefällt mir
Reaktionen: MiroPoch, Esenel, Volvo480 und eine weitere Person
FormatC schrieb:
Mit den neuen Treibern, ja. Vorher war es desaströs. Haben die wirklich alle CPUs mit gleichem Treiber gemessen? Ich finde grad keine Systeminfo...
Haste eine Lösung woher diese Inkonsistenz beim 13600K kommt? Warum hat dieses Problem der 12600K nicht? Deine Ursachenidee klingt einleuchtend, wirst du das nochmal Falsifizieren?
hab deinen Test durch und kann nur wieder und wieder Danke für die Arbeit sagen.

@Taxxor
Das klingt ja fast als wäre die Radeon die unkritischere karte.. :o
 
Ragnarök88 schrieb:
Diesen Overhead gibt es nicht.
PCGH hat mit Nvidia und AMD GPU getestet. Die Nvidia macht 2% mehr im CPU Limit mit 13900K.
Es macht keinen Unterschied ob man AMD oder Intel nimmt.
Für den Gesamtunterschied allerdings schon, denn während der 13900K mit der Nvidia GPU 2% schneller wird, wird der 7950X mit der Nvidia GPU 5% langsamer.
Der Unterschied zwischen den beiden verdoppelt sich insgesamt wenn man Nvidia vs AMD GPU vergleicht.
 
  • Gefällt mir
Reaktionen: MiroPoch und Rockstar85
Ich könnte kotzen.
Ich habe mich leider hier von manchen AMD Fanboys anstecken lassen.

Mangels ATX 3.0 Netzteil liegt mein AMD 7900X mit einer RTX 4090 noch herum, aber ich lese mittlerweile nur Negatives von AMD in diversen Berichten.

Wäre AMD nicht früher rausgekommen bzw. hätte ich von dem Ärger vorher gewusst, hätte ich gewartet und eher bei INTEL zugeschlagen.

Scheiß auf den Stromverbrauch, welcher sich auch bei AMD verschlechtert hat.
  • 4 RAM-Riegel - bei INTEL kein Problem (man empfiehlt ausdrücklich bei AMD nur 2 Stück wie zu INTEL Anfangszeiten)
  • Eine neue NVIDIA RTX Karte - bei INTEL kein Problem (bei AMD kein Bild beim Start, Beta Biose werden verteilt)
  • Eine neue Windows Version - bei INTEL kein Problem (bei AMD Performance Verluste mit 22H2 wie damals auch schon mit 21H2)
Intel einbauen und los gehts und nicht auf irgendwelche halbgaren AGESA Bios Versionen und Chipsatztreiber warten. Wird das AMD-Mainboard mit neuen Biosversionen nicht mehr supportet, schaut man dumm aus der Wäsche.
 
  • Gefällt mir
Reaktionen: Dome87, laxus222, nofunawo und 17 andere
Cronos83 schrieb:
PS.:
Heißt es dann in nem Jahr "Beileid an die Käufer der 13th Gen"?
Das ist doch Quatsch. Wenn man so denkt, darf man niemals kaufen.
Hardware entwickelt sich nunmal weiter.
:)
Wer kennt es nicht, nach 6 Jahren mal die CPU erneuert und die Generation darauf ist besser. SO EIN MIST ABER AUCH! Und die Generation da drauf ist nochmal besser, das darf doch nicht wahr sein! :p
Man upgradet, wenn man es selbst für nötig hält - das die nächste Generation besser ist, sollte jeden absolut klar sein. :D
Sonst würden alle RTX30X0 Besitzer doch extrem aufregen, aber wozu, die haben ihre GPU und die anderen haben eben noch die alten Krücken, aber sich dann profilieren zu warten...haha. :D
 
JSXShadow schrieb:
Manche beherrschen Mathe nicht so gut. Der 5800X3D ist genau 27% schneller im Schnitt als ein 5800X. Durch Verbesserungen und potentielle 12/16-Kern X3D-Varienten für die 7XXXer Ryzen kann man die aktuellen Ergebnisse locker +30% rechnen. Dafür liefert Intel hier viel zu schwach ab. Die X3D werden sich deutlich an der Spitze platzieren. Wahrscheinlich sind die Gains bei den 12/16 Kern-CPU mit doppelten 3D-Cache sogar noch größer...Tja Intel, GG. Aber Basis Ryzen 7XXX ist auch Müll, leider.

"Die X3D werden sich deutlich an der Spitze platzieren."....

Und das willst DU mal eben so festlegen und prophezeien?
Weil ?
 
CrustiCroc schrieb:
Kranke Performance Intel !

Und gut das ich meinem Reflex eine Zen 4 Plattform zu bestellen widerstanden habe.

Raptor Lake ist die deutlich bessere Wahl. Günstigere Plattformkosten, erheblich schneller.
In dieser Gen. sprichts fast nichts für AMD.

Greift zu kurz, denn AM5 ist noch lange nicht EOL. Insofern weiß man bei AMD sicher ganz genau wo man mit 3D Cache landen wird.

Als Alder Lake Nutzer würde ich (wenn i7/i9 für Gaming gekauft) wohl ziemlich in die Röhre schauen was der neue i5 so bringt. Hut ab, Intel.
 
anappleaday schrieb:
Hast du da einen Link zu?
Nope.. Das sind Interne Meldungen..

https://www.trendforce.com/presscenter/news/20220804-11330.html
Intel hat aber auch Dementiert... Wir sind aber Skeptisch, denn für einen Launch in 2023 müsste Meteor bereits als Risk laufen.. Ich kann dir aber sagen, dass unsere Steuersysteme auf die neuen Sapphire Rapids warten zur Validierung und diese Immer noch fehlen.. Auch da heisst es nicht vor 2H23 seitens HP und Dell. So haben unsere Server nun wieder die Serverversion von RKL..
 
Hi

Tja....da hätte "man" Bock wieder mal zu basteln....

Wäre die wirtschaftliche Situation nicht so beschi.. bescheiden.

Also erstmal den Winter überleben... 2023 soll auch nicht besser werden.
Die richtig miesen Zeiten haben noch garnicht begonnen.

Soviel zu neukauf............... :freak:


Gruß Bernd
 
FormatC schrieb:
Mit den neuen Treibern, ja. Vorher war es desaströs.
Vorher waren es auch 2% zugunsten AMDs mit dem 5800X3D. Das ist auch kein wirklicher Unterschied.

FormatC schrieb:
Haben die wirklich alle CPUs mit gleichem Treiber gemessen? Ich finde grad keine Systeminfo...
Ja, denn bei PCGH legt Raptor Lake genauso stark zu. Die Spieleauswahl ist nur eine andere. Viele Games mit sehr hohen FPS Plateaus. Da kann eine CPU auch nicht richtig zulegen.
 
Nicht schlecht. Preise sind aber aktuell auch sehr gesalzen.

Der Verbrauch beim Spielen ist aber doch noch ausbaufähig. Bis auf den 13600K alle über 100 Watt. Da schlägt sich Ryzen aber dann doch etwas besser, wenn auch mit etwas weniger Leistung. Die Leistung stimmt also. Schließlich ist der 13600K auf demselben Level eines 5800X3D bei ähnlichem Verbrauch, kostet aber so viel wie ein 5800X3D. Hier würde ich dann wohl den Ryzen nehmen, da die AM4-Plattform dann doch noch günstiger ist.

Wer mehr will, wird wohl mit dem 13700K mehr als gut bedient sein zum Spielen.

Multi-Anwendung geht dann wohl an Ryzen und Intels Sperrspitze. Frage des Geschmacks.

Auf jeden Fall ordentliche CPUs geworden.
 
Taxxor schrieb:
Der Unterschied zwischen 13900K und 13600K beträgt aber bei Igor insgesamt 15%

Ne, bei den 720p 1% Perzentilen sinds 26%.
Das kommt mir spanisch vor, vor allem weil selbst der i5 12600k schneller war. Dafür gibt es eigentlich keine Grundlage.

Booth schrieb:
Bedeutet ich könnt locker auch einen i-irgendwas mit 10/15/20 Watt als Desktop rausbringen. Das geht bei Intel/AMD als Laptop-CPU durch. Das sollte der STANDARD für alle sein.
Da hat Intel speziell für dich auch was im Sortiment:
https://www.intel.de/content/www/de...-18m-cache-up-to-4-20-ghz/specifications.html

wirds wohl auch wieder mit Raptor Lake geben.

Und weißt du was das beste ist? Jeder kann kaufen was immer man braucht. Ja, sogar eine Laptop CPU darf man sich ins Gehäuse schrauben wenn man mag.

Booth schrieb:
Rechne einfach 50 Watt pro Stunde Mal 1 Mrd Büro-PCs

Die Einheit Watt pro Stunde x Büro PCs ist mir leider gänzlich unbekannt, sorry.
 
Mir sind beim Lesen zwei kleine Fehler aufgefallen.

Auf Seite 2 ist im Abschnitt "Leistung in Apps bei reduzierter TDP" im Diagramm "Multi-Core" der "Ryzen 7 7700X (142 W)" mit einem blauen Balken dargestellt. Der sollte ebenfalls rot sein.

Und auf Seite 6 ist im Abschnitt "Intels 13. Gen Core vs. AMDs Ryzen 7000" ein Satz leicht verdreht:
Auf extrem hohem Leistungsniveau „keine Chance“ hat Ryzen 7000 gegen Raptor Lake in Spielen.
 
  • Gefällt mir
Reaktionen: Jan
Ich bin insgesamt extrem überrascht, vielen Dank für den ausführlichen Test!
Der 13600K wird dann wohl meine nächste CPU, die Spezialtests von tpu sind auch super ausgefallen, bin begeistert.

Syrato schrieb:
Wenn du die E-Cores gebrauchen kannst. Nur zum Zocken nützen sie nichts.

Wenn die 6 P-Cores so schnell sind und bereits AlderLake und Zen4 hinter sich lassen - glaubst du wirklich, dass es in naher Zukunft Spiele gibt, die wirklich schlecht auf 6P-Cores laufen?

Umgekehrt muss ich dann noch fragen, was bringt mir ein 7700X, wenn er im Gaming trotz 8-P Cores langsamer ist als ein i5-13600K? Zudem kostet mich die Intel-Plattform deutlich weniger.

Rockstar85 schrieb:
Ja nur hat AMD erstens weniger Takt und zweitens keine Cove Kerne.. Ach ja und verbraucht auch weniger.. Ein Offener 13600K (mit 181W TDP) ist schneller als ein ein bei ~100 W gelockter 7600X und 7700X.. Das ist nun nicht wirklich was neues.

Lesen wir die gleichen Effizienztabellen oder verstehe ich was falsch? Laut cb ist Raptor Lake bei 65W/88W durchaus vergleichbar?

HardStyler3 schrieb:
Gaming ist nicht so einfach wie es hier aussieht in realistischeren gaming szenarios ist das Ergebnis sehr unterschiedlich

Definiere realistisch? Es kommt logischerweise auch immer ein wenig auf das Spiel/die Engine an, insgesamt ist das Ergebnis von cb aber für mich schlüssig, habe aber auch noch nicht soviele Reviews gesichtet.

Pixelhomie schrieb:
Sieht in 4K aber auch nicht besser aus bzw. es gibt keinen Unterschied zwischen den CPUs.

TPU hat mit einer RTX 3080 getestet, mit einer RTX 4090 KÖNNTE es in 4K bereits anders aussehen und bestimmte CPUs limitieren.
 
Mal ne dumme Frage eines Verunsicherten, funtioniert der "expo ram" auch mit Intel Systemen bzw gibts da auch xmp profile? So ziemlich jeder ddr 5 Riegel bei Mindfactory wird mit Expo beworben, bin mir jetzt gar nicht mehr sicher ob es da Probleme gab mit Intel.
 
Die viel wichtigere Frage ist doch wie schneidet der 12900k gegen 13900k in 1440P und 4k ab wen juckt das 720p
 
  • Gefällt mir
Reaktionen: Leon_FR und ynfinity
Zurück
Oben