Test Intel Raptor Lake im Test: Core i9-13900K, i7-13700K & i5-13600K jagen Ryzen 7000

So beeindruckend die Leistungswerte auch sein mögen, ich verliere mehr und mehr das Interesse an aktuellen High-End-CPUs und -GPUs. Das erste Mal seit über 30 Jahren.

Über 300W bei CPUs und 600W bei Grafikkarten... sorry, da bin ich komplett abgehängt. Ich will mir keinen gigantischen Big Tower mit >1000W-Netzteil und Custom-Wasserkühlung hinstellen müssen. (Vom Preis im Kleinwagenbereich ganz zu schweigen.)

Meine "Vernunftgrenze" liegt bei ca. 100W für CPUs und 250-300W für GPUs. Damit sind für mich wohl inzwischen wohl sogar Modelle der oberen Mittelklasse außen vor.

Mal sehn was mein nächster Gaming-PC wird. Vielleicht ein Laptop?


Ansonsten bleibt nur die Hoffnung, dass mein alter PC mit 9900K und RTX2080 noch möglichst lange durchhält und einigermaßen ausreicht. (MS Flight Simulator z.B. bringt ihn leider schon ganz schön an die Grenzen.)
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Markenprodukt, ottocolore, suessi22 und 9 andere
@RenoRaines

Warum muss denn genau wie bei Grafikkarten getestet werden ?
Das hier sind CPUs und es wurde von vielen Leuten ausführlich erklärt warum man da in 720p testet.

Wie willst du denn einen sinnvollen Vergleich haben wenn man im GPU Limit landet ?
 
RenoRaines schrieb:
Kann mir mal jemand erklären warum bei CPUs immer 720p als Auflösung hergenommen wird um Spiele zu vergleichen?

Das ist doch komplett am Anwender vorbei gebencht! Wer spielt denn heute noch in 720p?
Hier müsste, genau wie bei Grafikkarten, FHD, 2K, 4K getestet werden.

Und ich wette in 4K ist der Unterschied zu den Vorgängern und auch zu Ryzen wahrscheinlich 1-2%, maximal!
Da hast du recht. Mit meiner RTX4090 in 4k oder WQHD bringt sogar mein alter Ryzen 5950X noch fast identische Performance im Vergleich zu den neuen Intels. Es tun auch immer alle so, als ob ein Sprung von 360 FPS zu 370 FPS relevant wäre. Für niemanden mit einer aktuellen CPU, also Intel 1XXXX+ und AMD 37XX+ lohnt ein Update auf die neuen CPUs rein fürs Gaming. Selbst in FHD mit eSports-Settings... in relevanten Games hast du trotzdem 400+ FPS mit entsprechender GPU. Dann brauchst du noch ein Display, was diese FPS auch nutzen kann. Das ist alles Unsinn. Einfach nur blinder Hype.

Es kommt in erster Linie auf die GPU an fürs Gaming. Die CPU hat eine untergeordnete Rolle, nach wie vor. Unter WQHD mit 120%+ res scaling spiele ich eh nichts mehr. Eher in 4k. Daher sind diese Benchmarks für mich absolut irrelevant. Schön aber, dass Intel nun auch in Anwendungen mitziehen kann. Das muss man mal löblich erwähnen. Der Stromverbrauch geht aber gar nicht.
 
  • Gefällt mir
Reaktionen: Juri-Bär, The Azazil, RenoRaines und eine weitere Person
Was ich sehr schade finde bei aktuellen CPUs und Grafikkarten ist, dass Sie ab Wert nicht auf dem Punkt maximaler Effizienz betrieben werden.
Für ein paar Prozent Mehrleistung wird da auch gerne mal doppelt so viel verbraucht.

Das ist der falsche Weg. Beim normalen User der das System fertig kauft oder sich zusammenstellt sollte das maximal effizient laufen. Die Enthusiasten wissen was es für folgen hat und können das für sich selbst gerne so einstellen. Aber default sollte es effizient laufen.
 
  • Gefällt mir
Reaktionen: LeserCB2 und fullnewb
Booth schrieb:
[...]
Ich warte seit Jahren auf gute CPUs die eher 25/35 Watt statt 65 Watt im Desktopbereich verbrauchen. Und stattdessen? Kriege ich 100/200 oder noch mehr Watt angeboten.
[...]
Das ist wie AutoMotorSport, was noch vor ein paar Jahre den neuen BMW SUV gefeiert hat.
[...]
Gratulation! du scheinst indirekt verstanden zu haben was die meisten Politiker immer noch nicht kapieren, nämlich dass der freie Markt den Planeten ruinieren wird.
Das Problem haben gewisse Wissenschafter schon in den 70ern vorausgesehen und beschrieben. Die Industrie MUSS ständig neues Zeug verkaufen weil das Wirtschaftssystem auf Sand gebaut ist. Wer würde schon jedes Jahr ein neues Smartphone, Auto oder Hardware kaufen wenn diese die gleiche Leistung bringt wie die die man schon hat? mit "halber Verbrauch" auf dem Werbeschild lässt sich kein Blumentopf gewinnen. Bessere Technologie fließt niemals in effektivere Produktion sondern in erhöhte Produktion. Darum kann man auch bloß über all jene lachen, die meinen dass uns technischer Fortschritt vor der Klimakatastrophe bewahren wird - eben weil diese Leutedie ökonomischen Zwänge im System nicht verstehen.
Bzw eigentlich ist es weniger zum lachen, mehr zum heulen.
Der einzige, der daran wirklich was ändern könnte ist der Gesetzgeber. Und das wird auch nicht passieren solang da immer irgendwelche wirtschaftsliberalen am Schalter sitzen - bzw auch in den linkeren Partein scheinen das viele nicht zu kapieren. Vielleicht war die Forderung des österreichischen Präsidentschaftskandidaten Wlatzny nach einem Eignungstest für Politiker nicht so verkehr...

ok sorry, bin jetzt ein wenig vom Thema abgekommen aber im Grunde: darauf zu Hoffen dass die Leistungsaufnahme von alleine sinkt ist Zeitverschwendung. Da müsste schon ein wirklich wichtiger und großer Kunde ordentlich Druck machen
 
  • Gefällt mir
Reaktionen: khadgar, The Azazil, Gene Jackman und 8 andere
RenoRaines schrieb:
Kann mir mal jemand erklären warum bei CPUs immer 720p als Auflösung hergenommen wird um Spiele zu vergleichen?

Das ist doch komplett am Anwender vorbei gebencht! Wer spielt denn heute noch in 720p?
Hier müsste, genau wie bei Grafikkarten, FHD, 2K, 4K getestet werden.

Und ich wette in 4K ist der Unterschied zu den Vorgängern und auch zu Ryzen wahrscheinlich 1-2%, maximal!

Weil das ein CPU Test ist, ganz einfach.

Würdest du eine GPU im CPU Limit testen, bei dem alle GPUs am Ende gleich schnell sind? Nein, vermutlich nicht. Du möchtest doch die maximale Leistung der GPU ermitteln.

Warum also sollte man CPUs dann im GPU Limit testen? Ich verstehe nicht, dass diese Frage immer und immer wieder aufkommt, das Konzept ist doch wirklich nicht schwer zu verstehen...
 
  • Gefällt mir
Reaktionen: The Azazil, Pisaro, Oneplusfan und 2 andere
Herdware schrieb:
Meine "Vernunftgrenze" liegt bei ca. 100W für CPUs und 250-300W für GPUs.

Ansonsten bleibt nur die Hoffnung, dass mein alter PC mit 9900K und RTX2080 noch möglichst lange durchhält und einigermaßen ausreicht. (MS Flight Simulator z.B. bringt ihn leider schon ganz schön an die Grenzen.)

9900K und 100W Schmerzgrenze passt aber so gar nicht zusammen.
 
  • Gefällt mir
Reaktionen: The Azazil, Hovac, Oneplusfan und 3 andere
Ein herzliches "Dankeschön" für den umfangreichen Test hier. :schluck:

Also für sich genommen sind die RL schon gut, wie ich finde ein bissl schneller als die aktuelle ZEN4-CPUs (zumindest hier auf cb).
Besonders der 13600k scheint eine echte Waffe zu sein, wenn auch nur ein "i5" davor steht.

Und im Moment scheint intel ein bissl die Nase vorn zu haben, eben auch wegen der aktuelle Preise für die gesamte Plattform.
AMD haut eine neue Plattform raus: AM5 mit nur noch DDR5-Support und teure "neue" Boards.
Intel baut mit RL auf eine schon breit verfügbare Plattform, das schont den Geldbeutel.

Ich persönlich sehe trotzdem AMD vorne, da die Plattform eben NICHT jetzt schon EOL ist, sondern die nähere Zukunft beschreibt und ich eine längere Verkaufszeit erwarte, analog zu AM4.
Dann muss Meteorlake wohl wieder einen neuen Sockel haben = kostet Geld.

Damit bleibt für mich als ZEN3-User: Upgrade nächstes Jahr mit einer AMD 5xxxx-CPU oder die Preise für ZEN4 beobachten, wie die sich die nächsten 12 Monate entwickeln.
Denn eines wird mir nicht passieren: JETZT Geld in eine Maschine zu investieren, die im Moment zu teuer oder EOL ist - obschon sie alle die neueste Generation präsentieren.
 
  • Gefällt mir
Reaktionen: Vitec und Floppes
Tja mit den Preisen steht Intel im Gaming nicht so übel da und auch bei Multicore ist das ganz ok.
Auch die z790 sehen in Anbetracht der am5 Plattform nicht so schlecht aus. Mal sehen, ob es zum BF dieses Jahr von msi oder asus nicht schon ein Angebot gibt bei Intel, dann wird evtl eine Intel Plattform gebaut. Verbrauch bei Max Leistung ist mir relativ egal als 99% Gamingeinsatz.
Dank ddr4 dürfte der 5800x3d trotzdem bei einem aktuellen Neukauf unter Strich billiger kommen. Das was die cpu mehr kostet spart man wieder ein, indem man halt ein billiges 4000er 140€ kit nimmt, dazu ein b550 und fertig. Mal sehen wo die 760 landen preislich. Aktuell für den Kunden jedoch sehr gut, da man mit beiden nicht viel falsch machen kann und auch preislich sich beide nichts nehmen.

Bleibt halt der fade Beigeschmack, dass wir bei cpus+MB bei den Preisen in Regionen wie bei den Grakas nach oben gehen, bei AMD als auch Intel 🤔 .
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: The Azazil
13900K mit 300W dazu ne schöne 4090 mit 600W peaks, fertig ist die nicht billige 1kw Heizung für den Winter, jetzt nur noch ein Gehäuse das die Hitze optimal in den Raum leitet!
 
  • Gefällt mir
Reaktionen: The Azazil
das schlimme ist ja, dass man Z790 Mainboard nur für die 13xxx CPU gebrauchen kann :(

Nächstes Jahr gibt es schon eine neue Plattform mit mehr Pins usw...
 
Hito360 schrieb:
mal wieder enttaeuscht wie CB diese Reviews ausarbeitet. DDR5 faheige CPUs laufen mit unterschiedlichen Mhz/CL, den besten RAM hat wohl aber nur beim Raptorlake angewandt, anstatt ihn vergleichbar mit 4800 zu testen? Bei Zen3 fehlen TDP Angaben weil unter 230W? wer hat da schon Lust den ganzen Artikel zu lesen, wenn beim Testen bereits gemurkst wurde? Uebertreib ich?

Enttäuschend ist vielleicht übertrieben. Aber ich kann es auch nicht nachvollziehen, warum man nicht möglichst gleiche Bedingungen für alle CPUs schafft und idealer Weise die Intel CPUs und die 7000er Ryzen mit den gleichen Speicher (mit gleichen Takt und gleichen Timings) testet.

Bei Igor wurde das gemacht. Da sehen die Ergebnisse anders aus. wie hier ja auch schon gezeigt wurde.
 
  • Gefällt mir
Reaktionen: khadgar und dunkelbunter
Ich finde beide Testansätze haben ihre Daseinsberechtigung, CB will eben den besten von der Plattform offiziell unterstützten RAM nutzen.

Seid doch froh, wenn unabhängige Quellen unter leicht anderen Bedingungen testen haben wir als Käufer am Ende das akkuratere Gesamtbild.
 
  • Gefällt mir
Reaktionen: Sombatezib, Hovac, Sun-Berg und 2 andere
Tobi-S. schrieb:
9900K und 100W Schmerzgrenze passt aber so gar nicht zusammen.

95W TDP hat das Schätzchen. Schon komisch, wie wir früher über den "hohen Verbrauch" gewundert haben. Heute ist selbst die Mittelklasse hungriger.

Klar kann es in der Praxis bzw. Extremsituationen etwas darüber hinaus gehen, aber ist halt doch noch was anderes, als wenn der offizielle Verbrauchswert überhaupt erst bei über 250W losgeht und dann zeitweise (ohne OC) irgendwo im 400-500W Bereich liegen kann.
 
Wenn ich mir das so ansehe bin und bleibe ich echt begeistert ... vom AMD 5800X3D

Und bin echt gespannt was der AMD 7800X3D uns bringen wird und hoffe zudem auf einen AMD 7600X3D letzteres wäre bestimmt ein echtes Performance-Fest für Spiele 😄
 
OZZHI schrieb:
@HansDetflefAndi
Das Video habe ich gesehen. Aber kannst du irgendwo nachlesen mit welchen gemessen Latenzen der DDR5 Speicher getestet wurde?
XMP und los bringt halt nicht die erwartete Leistung. Deshalb warte ich lieber noch auf gescheite Vergleiche im Netz, wie den hier zu Alderlake Zeiten: RAM-OC-Benchmarks: Ryzen 7 5800X3D vs. Core i7-12700K und i9-12900K
XMP und los is the way für 99,9% aller User.
RAM OC bringt meistens nichts ausser Kopfschmerzen. Zusätzlich stark erhöhten Stromverbrauch bei AM4
 
  • Gefällt mir
Reaktionen: RogueSix
Der Kühler des Testsystems auf dem Bild ist doch n NH-D15 und kein U14S?

Ansonsten: Der 13600K(F) ist tatsächlich ziemlich beeindruckend. Hätte ich nicht erwartet.
Etwas schlechtere Effizienz als der 5800X3D, dafür günstiger, vorallem wenn man schon ein passendes Mainboard hat.
 
Herdware schrieb:
Über 300W bei CPUs und 600W bei Grafikkarten... sorry, da bin ich komplett abgehängt. Ich will mir keinen gigantischen Big Tower mit >1000W-Netzteil und Custom-Wasserkühlung hinstellen müssen. (
RTX 4090 brauch bei Spielen 400W, in niedrigeren Auflösungen deutlich weniger. Die CPUs brauchen im Durchschnitt keine 150W und das ist noch im CPU Limit. Igor misst bei 1440P bei der schlechtesten CPU (in dem Fall 7950X) sage und schreibe 65W Durchschnittverbrauch. Und die 4090 verbraucht bei 1440P irgendwas um die 370W im Durchschnitt. Mit nem 850W Netzteil kommt man hier 3mal hin.

Bitte hört auf euch irgendwelche maximalen Stresstest /Peakverbräuche anzuschauen, mit Gaming hat das nämlich rein gar nichts zu tun.
 
  • Gefällt mir
Reaktionen: Innocience, Hovac, Oneplusfan und 7 andere
@BrokenArrow

kann man so sehen. Natürlich. Aber gerade bei den Leuten hier, wer betreibt denn seinen RAM nach offizieller maximaler CPU Spezifikation?

Du ja mit deinem 10600k machst es ja zb auch nicht.

Zumal beim Ryzen mit dem Expo 6000 Profil ja auch noch gut Leistung möglich ist.
 
Zurück
Oben