Test Intel Raptor Lake im Test: Core i9-13900K, i7-13700K & i5-13600K jagen Ryzen 7000

@Chismon
Deswegen hoffe ich ja immer noch auf einen 3600AF.. Das wäre dann in der Tat ein Statement gegen einen 13100F, der ja wieder nur 4C / 8T wird.. Geil wäre es gewesen, er wird endlich 6P / 0E
75% meiner Kunden und bekannten kommen mit einer CPU Marke 5700X und 12400F hin.. Der 13400F wird spannend.
 
  • Gefällt mir
Reaktionen: Chismon
Beg1 schrieb:
Wenn ich CPUs testen würde, würde ich es wie computerbase und PCGH machen und überwiegend Titel (verteilt auf möglichst viele Engines) nehmen die auch in 720p bereits niedrige Frameraten aufgrund des CPU-Limits bieten.
Was bringen mir Reviews von anderen Seiten, wenn sie ständig Rainbow Six Siege, CS:GO und co. testen, wo selbst uralte CPUs 200++ fps schaffen?
Ergänzung ()

Nicht zu vergessen SOTR...

Bin da ganz bei dir.
 
  • Gefällt mir
Reaktionen: Beg1
Syrato schrieb:
Zum Glück ist das nur deine Meinung.
Z.B. wenn man man sseinem PC Geld verdient und allgemein Zeit spart ist alles über 7700x uns 13700K doch toll.

Alles aus Sicht von jemandem, der Mixed Workloads hat, Hobbysachen und primär Gaming. Hätte ich dazu sagen sollen. Meine Arbeit vom PC aus, ist alles im Thin-Client-Modus.
 
Kloin schrieb:
Naja 64% Steigerung bei Performance/Watt in deinem Beispiel in 5 Jahren ist jetzt nicht soooo viel. Ich bin beim Verbrauch von AMD "sehr" und bei dem von Intel "extrem" enttäuscht.
Also bei 125 W ist die CPU im rating 3x so schnell wie der 8700K. Das ist schon nicht wenig.
 
Mayima schrieb:
Wundert mich auch, dass man häufig liest DDR4 hätte praktisch keinerlei Nachteile. Gibt schon ein paar Titel bei denen der Unterschied recht groß ist. Persönlich wäre mir da DDR4 nix halbes und nix ganzes :)
LTT hatte es über mehrere Spiele getestet..das ist schon strange
 
IV52 schrieb:
Eine Plattform mit über 50 Watt im Leerlauf? Absolut verrückt.
Dir ist schon bewusst, dass da GPU und co dabei sind. Nicht zu vergessen, dass jeder MB Hersteller noch aller Hand an Sachen wie WIFI, RGB und co. monitiert. Dadurch steigt natürlich der Verbrauch.
 
  • Gefällt mir
Reaktionen: IV52 und Rockstar85
Krautmaster schrieb:
Zum einen hätte ich nicht gedacht dass der Effizienzunterschied so "klein" ist bei ~100W.
Da darf man nicht die gestiegene Zahl physikalischer Kerne bei Raptor Lake vergessen. Bei 88W braucht der 13900K mit 24 Kernen 21% länger als der 7950X, aber beim 13700K sind es schon +33%. Klar ist der Vergleich kompliziert wegen der P- und E-Kerne, aber eine höhere Anzahl an Recheneinheiten ist hinsichtlich der Effizienz unabhängig davon immer ein großer Vorteil.

AMD muss hier mit kommenden Generationen nachziehen, und prinzipiell liegt die Lösung in Form des bei EPYC Bergamo genutzten Zen 4c ja schon vor. Jetzt müssen sie "nur" ein Zen-4-CCD mit einem Zen-4c-CCD kombinieren, und fertig ist der 24-Kerner. Die Anführungszeichen sind da gesetzt, weil man dann auch sowas wie Intels Thread Director benötigt, um Lasten möglichst optimal auf unterschiedliche schnelle Kerne zu verteilen.

Denkbar wäre auch ein 32-Kerner aus zwei Zen-4c-CCDs, aber es ist noch unklar, wie konkurrenzfähig der dann bei Single-Core-Lasten wäre. Die Performance der Zen-4c-Kerne ist bislang noch unbekannt.

Krautmaster schrieb:
Interessanterweise kippt das Bild bei ~50W pro Intel vermutlich da die AMD IO Die doch recht viel Saft braucht.
Korrekt, der Hauptgrund ist der Grundbedarf für das IOD und die Belastung mit gleich zwei IFOP-Links. Übrigens ist es zumindest auf AM4 so, dass der RAM-Takt und damit in Verbindung stehend die SOC-Spannung einen signifikanten Einfluss auf den Verbrauch des IOD und somit auch auf das Power-Budget für die CCDs haben. Schlechte Werte im Eco-Mode kann man durch Absenken dieser Spannung optimieren.

Da es speziell beim 45W-Duell primär um einen Ausblick auf kommende Notebook-Performance (Dragon Range) geht, kann man dieses Problem gleich mal gedanklich streichen, da AMD das garantiert für Notebookspeicher mit geringen Anpassungen weg optimieren wird.
 
  • Gefällt mir
Reaktionen: Jan
Rockstar85 schrieb:
@Chismon
Deswegen hoffe ich ja immer noch auf einen 3600AF.. Das wäre dann in der Tat ein Statement gegen einen 13100F, der ja wieder nur 4C / 8T wird.. Geil wäre es gewesen, er wird endlich 6P / 0E
75% meiner Kunden und bekannten kommen mit einer CPU Marke 5700X und 12400F hin.. Der 13400F wird spannend.
 
Ich hätte mir bei den Tests die gleichen Voraussetzungen gewünscht, so wird die 12.Gen mit DDR5 4800 und die 13.Gen mit DDR5 5600 getestet.
Auch wenn das die normalen Betriebsmodi der jeweiligen Intel-Generation sein mögen, so erschweren sie doch die Vergleichbarkeit, da man als Betrachter nicht erkennen kann wieviel Einfluss der RAM auf die Ergebnisse hat.
Auf der bereits genannten Seite von Igor`s Lab treten der Alder Lake, Dragon, Lake und der Zen 4 unter den gleichen Bedingungen an (DDR5 6000 CL30) und da sehen die Ergebnisse weniger dramatisch aus... :mussweg:
 
  • Gefällt mir
Reaktionen: Javeran, Bonos, schkai und eine weitere Person
IV52 schrieb:
Eine Plattform mit über 50 Watt im Leerlauf? Absolut verrückt.

Solche Aussagen kommen halt einfach von Leuten die sich nie mit dem PC und dessen Hardware beschäftigt haben oder halt noch sehr jung sind. Das Alter ist auch kein Vorwurf, woher soll es auch kommen.

Allgemein:

Die Kommentare unter den NVIDA und Intel News/tests sind einfach peinlich....
Die ganzen jungen AMD Fanboys sollten mal bisschen die Geschichte studieren.
Ist alles noch gar nicht so lange her.

Ich hatte schon so 2006 rum AMD Systeme die im IDLE generell über 100 Watt lagen und unter Last auch gerne bei über 300. Aber alleine aktuelle Grafikkarten sind grob 150x so schnell (8800 GTX -> 4090).
Bei nicht mal verdoppelter Leistungsaufnahme.

Von den CPU´s und dessen Effizienz, Energiesparmodi und massiv gestiegener Leistung gar nicht zu reden.
Der 13900K braucht beim GAMING weniger als die Krücken von vor 15 Jahren.

Mein AMD X2 4800 (Dualcore) müsste damals grob 1000 Euro gekostet haben.
Ein Zitat damals von Channelpartner.de:

"Und auf den einzelnen Kern heruntergerechnet sind 55 Watt natürlich auch nicht zu viel."
(1 Kern 1 Thread)

Es ist erschreckend was hier in den Kommentaren immer wieder fantasiert und sich künstlich aufgeregt wird.

Hier mal für die Unwissenden ein kleines Beispiel:

AMD Athlon 64 FX-60 (2,6 GHz, Dual-Core)
8800 GTX System:

IDLE über 150 Watt...

https://www.computerbase.de/2006-11/test-nvidia-geforce-8800-gtx/31/

https://www.computerbase.de/2006-08/test-ati-radeon-x1950-xtx-und-x1950-crossfire/39/

Das Internet ist voll von 10-20 Jahre alten Reviews.

Wir haben damals, über die gesamte Nutzung, viel mehr sinnlose Energie verballert als heute.

Mich stören keine anderen Meinungen, aber hier wird von einer Fraktion immer so viel verdreht und aus dem Zusammenhang gerissen, die müllen jeden Kommentarbereich zu.
Egal ob bei NVIDIA oder INTEL News.
Das künstliche echauffieren ist fürchterlich.

CB gibt sich so viel Mühe und dann landet zu 75% nur Müll drunter.

Warum muss das für so viele eine Frusttherapie sein?
Manchen bleiben die guten Produkte anderer Hersteller richtig im Hals stecken, die nehmen das förmlich persönlich.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: The Azazil, khadgar, tomasvittek und 14 andere
@danyundsahne
Das etwas unglückliche am HUB Test finde ich, dass hier nur mit ordentlich OC Ram getestet wurde, nicht falsch verstehen ich finde es durchaus interessant wie sich verschiedener RAM auswirkt, nur hätte ich es schön gefunden daneben auch Tests mit Standardtakt zu stellen also bei Intel DDR4 3200 und DDR 5 5600 und bei Zen 4 mit DDR 5 5200.
Im Luxx Test sah man ja schon, dass auch 5600 zu 6400 einiges ausmachen kann, sprich es wäre halt interessant zu wissen wie viel macht der Unterschied DDR 4 vs DDR 5 und der Unterschied DDR 5 vs schneller DDR 5.

Rockstar85 schrieb:
Deswegen hoffe ich ja immer noch auf einen 3600AF.. Das wäre dann in der Tat ein Statement gegen einen 13100F, der ja wieder nur 4C / 8T wird.. Geil wäre es gewesen, er wird endlich 6P / 0E
Der 13100 wird ja wie es aussieht eh nur ein Alder Lake Aufguss, was AMD angeht wird der normale 3600 ja sogar noch verkauft, der 5500 ist inzwischen mit 115€ preislich auch interessant geworden wenn man auf PCIe 4 verzichten kann.
 
  • Gefällt mir
Reaktionen: danyundsahne
Mein Hauptcomputer zieht im Idle auch fast 130 Watt.

Aber ich fand das Video vom 8auer nicht schlecht, mit den Effizienzmöglichkeiten vom 13900K, und der immer noch brachialen Leistung.
Leider Dank dem Eurokurs zu teuer das Ding.
 
  • Gefällt mir
Reaktionen: IV52 und Col.Maybourne
Hutzeliger schrieb:
Solche Aussagen kommen halt einfach von Leuten die sich nie mit dem PC und dessen Hardware beschäftigt haben oder halt noch sehr jung sind. Das Alter ist auch kein Vorwurf, woher soll es auch kommen.

Die Kommentare unter den 4090 und Intel Tests sind allgemein einfach peinlich....
Die ganzen jungen AMD Fanboys sollten mal bisschen die Geschichte studieren.
Ist alles noch gar nicht so lange her.
Habe auch ein AMD und bin kein Fanboy. ;)

Was sollen aber die Vergleiche mit alter Hardware? Ist Vergangenheit. Ob die 50 Watt im Idle stimmen, weiß ich nicht. Wenn ja, dann ist das echt peinlich im Jahr 2022 für eine Desktop-CPU. Oder?
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Rockstar85
mcsteph schrieb:
Das interessiert hier niemanden. Wird gekonnt ignoriert und alle anderen haben falsch getestet
Falsch getestet das sagst du, ich sehe halt das große Ganze....genau wie andere auch auf 3DCenter verweisen, die ein ganzheitliches Bild abgeben wenn alle Reviews zusammengefasst werden.
Dagegen ist nichts auszusetzen um sich umfassend zu informieren.

Aber kannst es gerne ignorieren und nicht kommentieren ;)
 
  • Gefällt mir
Reaktionen: bensen und Rockstar85
Hutzeliger schrieb:
Solche Aussagen kommen halt einfach von Leuten die sich nie mit dem PC und dessen Hardware beschäftigt haben oder halt noch sehr jung sind. Das Alter ist auch kein Vorwurf, woher soll es auch kommen.
2006 und Heute.. Merkste selbst, oder?

Aber ja, es ist in der Regel so, dass Nvidia und Intel sich viel mehr Leisten können... Es gibt Menschen die verteidigen die 970 3,5GB bis heute als gute GPU oder nehmen eben 16 Jahre alte vergleiche um halt irgendwas zu finden... AMD war auch immer nur dann der Schluckspecht, wenn man knapp an NVidia war.. Die RX 480 hat deinen PCIE Slot direkt gekillt und AMD ist mal gerade Midrange..
ISt schon scheiße, wenn man andere als Fanbois bezichtig und selbst nur > 10! Jahre alte Reviews nutzen kann.. Kleiner Tipp, in der IT sind 10 Jahre eine Ewigkeit.
Gratuliere, dein Kommentar könnte auch von einem Hardcore Fanboi geschrieben sein.

Ach ja und Foveros wird auch nicht wie der Monolithische Die eben Sparsam im Interconnect sein.. Wenn man sich schon mal mit Architekturen befassen möchte, dann doch bitte mit etwas Sachverstand.

Es ist wichtig und Richtig, dass man hohe Idle Verbräuche angeht.. Ich sag nur bis zu 20W im Standby für so ein TV Gerät.. Dank der maximal gesetzlichen Standby Aufnahme, erlebt man immerhin keine böse Überraschung.

Ach und deine Aussage ist eine Glatte Lüge...
https://de.wikipedia.org/wiki/Intel-SpeedStep-Technologie
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Apocalypse
Joa. Ich würde sagen jetzt ist die Zeit gekommen, den 7800X3D zu releasen. Dann verkauft sich die AM5 Plattform vielleicht auch mal
 
Hutzeliger schrieb:
Aber alleine aktuelle Grafikkarten sind grob 150x so schnell (8800 GTX -> 4090).
Screenshot 2022-10-21 at 22-30-59 NVIDIA GeForce 8800 GTX Specs.png


Laut der Datenbank von TechPowerUp ist es gut 45x. Von der Rohleistung ist es also etwas weniger Unterschied, aber die fehlende Unterstützung moderne Features kann natürlich problemlos noch ganze Größenordnungen drauf legen.
Ergänzung ()

mr_andersson schrieb:
Ich würde sagen jetzt ist die Zeit gekommen, den 7800X3D zu releasen.
Die CES Anfang Januar scheint unendlich weit weg.
 
  • Gefällt mir
Reaktionen: daknoll, Apocalypse und Rockstar85
Hmm.. ich würde auch gerne mal upgraden... aber wenn ich jetzt Raptor Lake nehme, muss ich bei einen weiteren Upgrade schon wieder das Mainboard wechseln.

Weiß man, wie lange AMD beim AM5 Sockel bleibt?
Weil dann wäre der kommende 7800x3D evtl. schlauer
 
danyundsahne schrieb:
Aber was mir aufgefallen ist, in keinem anderen Review, das ich bisher gesehen habe, hat Intel so einen Vorsprung wie hier auf CB.
Egal ob Gamersnexus, HWU, TPU etc...da wird teilweise auch mit einer RTX4090 getestet und dennoch hat Intel kaum Vorsprung.
Seltsam irgendwie...
mcsteph schrieb:
Das interessiert hier niemanden. Wird gekonnt ignoriert und alle anderen haben falsch getestet

GN und HUB testen nicht mit Spec RAM Geschwindigkeit und in 1080p.

CB und PCGH in 720p mit RAM nach Spec, sowie beide mit Nvidia GPU.
Und siehe da...
Screenshot_20221021-225016.jpg

Screenshot_20221021-224823.jpg
 
  • Gefällt mir
Reaktionen: Javeran, Ragnarök88, Hutzeliger und 4 andere
Zurück
Oben