Test Intel Raptor Lake im Test: Core i9-13900K, i7-13700K & i5-13600K jagen Ryzen 7000

Atom99 schrieb:
Schade. Die K fressen so viel Strom....
Einfach ins Bios und 88 Watt einstellen!
Aber JA, ob AMD oder Intel bei den CPUs, AMD oder Nvidia GPUs. Die Leisungsaufnahme, ab Werk, hätten es mit 105 Watt TDP und 300 Watt TDP auch getan.
 
  • Gefällt mir
Reaktionen: Neronomicon und Apocalypse
Ok, damit habe ich mich noch nicht richtig auseinandergesetzt. Man sieht bei den specs halt immer 60w nonk und 125w k min leistungsaufnahme...
 
Intern hat sich mal wieder selbst übertroffen. Und ein schönes Museumsstück gebaut.
 
Ich bin begeistert! Im aktuellen Moment ist die Auswahl an CPUs, GPUs und Ram gefühlt so vielfältig wie noch nie.

Mittlerweile taucht der dritte Grafikkarten Hersteller auf.

Nvidia 3er RTX und auch jetzt noch die aktuellen Radeons bieten eine solide Plattform fürs Gaming.

Die neuen AMD und Intel Prozessoren so wie die aktuell neuste NVIDIA Grafikkarte bieten auf dem gebraucht Markt die Möglichkeit die teuren Varianten zu günstigeren Preisen zu bekommen.

Ich zum Beispiel habe meine 3090 für 650€ weitergeben, meinen 5950x mit Mainboard und 32GB Ram für 500€.

Die Käufer haben sich gefreut.
Der Umstieg auf neuere Komponenten bringt immer Schwung in den Gebrauchtmarkt.

Ich finde es unglaublich was Intel mit dem Raptor Lake hinbekommen hat. Es ist schon interessant was man alles noch aus so einem Chip herausholen kann. Ich wechsel jetzt auch mal wieder von AMD in das Intel Lager. Da mein Hauptanwendungsbereich tatsächlich doch eher bei den Spielen liegt. Ich mache weniger Video Bearbeitung oder Rendering.

Wenn man bedenkt was man mittlerweile für eine Rechenpower zu Hause stehen hat und ist aufgewachsen mit einem 386‘er PC mit 25 Mhz, 4 Megabyte Ram und einer 80 Megabyte Festplatte, der gefühlt damals sehr sehr teuer war, dann ist es wirklich eine Freude das erleben zu dürfen.

Es haut mich wirklich um was aktuell möglich ist und was es an Optionen gibt.

Für mich ist es nicht nur die Technik, es sind die Emotion die ich empfinde als Zeitzeuge dieser uns zur Verfügung gestellten Entwicklungen. Viele Träume von damals werden jetzt wahr und das unterstütze ich gerne je nach Hersteller und Verfügbarkeit.

Spektakulär finde ich auch dass wir langsam an die physikalischen Grenzen des machbaren kommen. Und Hardware und Software immer mehr miteinander auf einander abgestimmt und kombiniert werden müssen.

Die letzten Jahrzehnte fühlten sich immer so an als ging es weiter und weiter schneller und schneller und nun kommen neue Herausforderungen auf die Hardwarehersteller zu.

Es scheint wohl doch ein Ende absehbar zu sein in unsere aktuellen Epoche…. es ist wirklich spannend was noch passieren wird und ich denke nicht nur an die Hardware….
 
  • Gefällt mir
Reaktionen: The Azazil, CiX, Hacki_P3D und 2 andere
Atom99 schrieb:
Man sieht bei den specs halt immer 60w nonk und 125w k min leistungsaufnahme
Das ist nicht die "min leistungsaufnahme", sondern die Leistungsaufnahme bei Volllast ohne Turbo, also bei Basistakt. Intel nennt das neuerdings auch Processor Base Power, der interne Name ist Power Limit 1 (PL1). Die minimale Leistungsaufnahme beträgt nur wenige Watt, wenn die CPU nichts zu tun hat (Idle).

Die maximale Leistungsaufnahme liegt sowohl bei K- als auch Non-K deutlich über diesen Angaben. Ein i9-12900 mit 65W-Aufdruck auf der Packung verbraucht zum Beispiel für einen kurzen Zeitraum bis zu 202 Watt. Warum? Das liegt am zweiten Power Limit (PL2) und dem maximalen Zeitintervall (Tau), für den es anliegen darf.

Die Unterschiede im Verbrauch zwischen den K- und Non-K-Varianten ansonsten identischer Modelle ergeben sich komplett aus den Werten von PL1/PL2/Tau. Und man kann das im BIOS einstellen. Man kann bei einer Non-K-CPU die Limits anheben oder aufheben, und dann verhält sie sich wie eine K-CPU. Und man kann bei einer K-CPU die Limits senken und sie so sparsamer machen. Auch die Werte der ebenfalls verfügbaren T-Varianten (z.B. 12900T, 35W TDP) kann man wählen.
 
Mein persönliches Highlight bei den beiden CPU Veröffentlichungen von AMD und Intel waren die 5er Modelle.
 
Meine RTX 2080TI Kingpin hatte jetzt die Jahre über mit jedem CPU Wechsel einen ordentlichen Boost zugelegt:
Erstaunlich was man aus der Karte noch herausholen konnte!

9900K > 10900K > 11900K > 12900KS

Den 13900K/S würde ich aber nur zum Top Preis wechseln wollen.. (denke da wir noch was kommen)
 
Guter Test aber das als Jagd zu bezeichnen passt nicht so ganz.
Wenn man sich die Cpu Generationen über Jahre anschaut dann hat Intel die bessere/ rundere Plattform.Bevor irgendwelche roten Fanboytrolle rumschwurbeln, nutze selbst einen 5600x.

Egal wie gut Zen4 3d wird,egal wieviel Kerne das Ding am Ende hat oder wie hoch er taktet hat man gefühlt nur die Hälfte an Einstellungen / Einfluss wie man die CPU betreiben möchte.

Sofern man auf Leistungsaufnahme pfeifft macht man mühelos aus einem 13900 eine "Workstation" Cpu oder eben eine verdammt gute effiziente Gaming Cpu.Grob formuliert,Bei Amd hast du die Wahl zwischen Pbo on/off und Begrenzung der Leistung und etwas UV, mehr nicht.Cachetakt,Spannungen,Kerntakt, mit all dem kann man bei Intel herumexperimentieren sofern man das möchte und einiges mehr.Für das Topmodell legt man aktuell ~ 800€ auf die Theke mit bedeutend mehr Restriktionen.Die meißten wirds nicht jucken aber für jemanden wie mich der auf Preis/Leistung achtet zählen eben solche Kleinigkeiten/Spielerreien.

Scheinbar problemlosere Kompatibiliät mit schnellem Ddr 5, out of the Box kompatibel mit 7800 mhz Speicher, schon in der Vergangenheit schien der Speichercontroller wertiger zu sein als bei Amd.Ob die 2. oder 3. Zen4 Gen mühelos mit hohem Speichertekt zurechtkommt und performt? wird man sehen.Probleme durch inkompatiblen Speicher oder Kinderkrankheiten gibts bei beiden nur ist meiner Meinung/Erfahrung nach bei Intel schneller behoben.Bedeutend mehr Transparenz bei Intel.

Bin warscheinlich einer von wenigen die eine sehr lange Lebenszeit einer Plattform nicht allzusehr schätzen, der Hersteller selbst legt sich da mitunter Steine in den Weg, mit erscheinen neuer Boardrevisionen dauerts eine Ewigkeit bis die alten Boards Support erhalten und so wirklich sicher weis man auch nie was eventuell beschnitten wird um einen den neuen Kram doch schmackhaft zu machen.Hab das Thema durch, Zen1 - Zen3,B450,B470 und B550,erst mit B550 kann ich behaupten ein System zu nutzen was problemlos funktioniert.
Usb Probleme,Boostprobleme,zickender Speicher und ständig Agesas die mal mehr oder weniger/gut funktioneren,Drama mit zu kleingeratenem Flashchip usw.Ob die Berichte stimmen,schwer zu sagen aber die Zusammenarbeit zwischen Boardpartnern und Amd ist angeblich alles andere als Einfach.

Die Verwaltung der Kerne scheint auch mit Windows 11 und Zen4 noch Macken zu haben.MS schweigt,Amd schweigt.Nützt nur keinem was wenn das irgendwann still und heimlich gefixed wird anstatt mal von Beginn an ein Produkt an den Kunden zu bringen was so funktioniert wie es soll.Reift wie eine Banane beim Kunden.....Intel rennt angeblich mit Geldkoffern zu MS.....Nvidia mit Geldkoffern zu den Spielentwicklern, ob das so ist ka,wenns so ist, ungeil aber funktioniert.Mir geht das Underdog Image auf den Wecker und zu gewissen Teilen auch der "Kampf David gegen Goliath" preislich über dem Konkurrent aber ohne erheblichen Mehrwert.Paar nur "gute" Cpu's alle paar Jahre wird irgendwann nicht mehr reichen um den Kauf zu rechtfertigen.Preis/Leistung stimmt bei Amd im Desktopsegment schon länger nicht mehr, Verlust von Marktanteilen,die Preise werden nicht so extrem fallen wie manch einer das gerne hätte,stattdessen wird einfach weniger Produziert und man erhofft sich mehr Gewinn im Serverbereich, alles in allem eher der kleine Bruder von Intel aber keine Beute.
 
  • Gefällt mir
Reaktionen: The Azazil, Hutzeliger und Corpus Delicti
Zerbich schrieb:
ich jetzt Raptor Lake nehme, muss ich bei einen weiteren Upgrade schon wieder das Mainboard wechseln.
Du hast einen 8700k, sind also 5 Jahre her als du die cpu gekauft hast. In 5 Jahren wirst du in der Regel immer die Plattform wecheln.
 
  • Gefällt mir
Reaktionen: Lutscher, Hutzeliger und Meister1982
Ein rotes Auto schrieb:

Der Core i5-13600K Ryzen 7 5800X3D ist das Highlight​


Für die AM4-Plattform (in Bezug auf gaming) wohl nach wie vor ein Leckerbissen. Die Tests haben es deutlich gemacht, AM4 ist bei mir persönlich noch nicht am Ende und so werde ich die aktuellen Generationen beider Lager definitiv überspringen.
AMD Ryzen 5000
Ryzen 7 5800X3D
AVG/Max
Durchschnitt70/74 Watt

Core i5-13600K
AVG/Max
Durchschnitt88/94 Watt

Absolut ! :)
Der 13600K hat also +25% mehr Verbrauch aber seine (Mehr-) Leistung ist deutlich darunter.
Der wahre Champion ist immer noch der 5800X3D und der neue wird ganz klar der Nachfolger auf AM5 sein.
AMD wird einfach den Cache erhöhen und ebenfalls auf 125W TDP setzen und vermutlich locker 1/3 mehr Leistung gegenüber dem 5800X3D erreichen können.
Auch wenn die Intel Base mit dem 13600K nun einen "günstigeren" Einstieg ermöglicht, ist das zu kurz gedacht. Insgesamt bietet AMD gerade mit einem Nachfolger der X3D Variante für Gamer das bessere Potential UND dazu ist man bei Anwendungen halt immer noch führend. Ich finde dadurch den Mehrpreis durchaus gerechtfertigt.
Schon krass wie sich die Zeiten geändert haben, genau das war immer die Argumentation für einen Kauf von Intel gewesen und AMD war meistens 2. Wahl. Jetzt ist es umgekehrt.
 
  • Gefällt mir
Reaktionen: khadgar, MrChlorophil und Calid
Syrato schrieb:
Meinte AMD. Dass die 13xxx besser anlaufen als die 7xxx war leider klar,nach den Tests sowieso. Preiswerter, auch durch die DDR4 Option, der Name Intel usw..
Abwarten.. Derzeit verkauft AMD mehr AM5 Modelle im Monat als Intel ADL... Klar mit MF haben wir nurn kleinen Blick, aber Intel macht auch 60% des Geschäftes mit OEM. Ich sehe noch keinen Run auf die 13900K, eher verhalten. (AMD hatte am ersten Tag ähnliche Zahlen) 13700KF und 13600KF könnten spannend werden, denn da ist man mit einem Z690 A Pro bei ~500-700€, wenn man D4 noch hat. Und ja die D5 Boardpreise sind halt nicht gut für AMD derzeit.. Dürfte bei Intel aber nicht anders sein.
Ein 13700/600K @125W PL Limit ist aber Effizient und Schnell.. Leider werden das 90% der Nutzer nicht tun, weil die meisten es nicht wissen. Wenn mein Weihnachtsgeld gut aussieht, kommt vllt sowas bei mir Rein, oder der 5800X3D sinkt im Preis ... Schauen wir mal, das LGA 1700 Bracket für die Freezer 2 liegt ja noch hier.

Ich bin eh viel gespannter, was MTL wird. Da muss man sich auch von der Ringbus Technik verabschieden. Am Ende ist es halt ein Durchoptimierter 8 Kerner bei Intel mit viel Hybrid Anhang.. Dass Intel aber E Core in Effizienzkritischen Anwendungen eher nicht verbaut, spricht nicht für die Dinger.
Hybrid Lasten haben eben Hybrid Probleme.
 
Zuletzt bearbeitet:
The_Wizzard schrieb:
Der 13600K hat also +25% mehr Verbrauch aber seine (Mehr-) Leistung ist deutlich darunter.
Der wahre Champion ist immer noch der 5800X3D und der neue wird ganz klar der Nachfolger auf AM5 sein.
Auch wenn die Intel Base mit dem 13600K nun einen "günstigeren" Einstieg ermöglicht, ist das zu kurz gedacht. Insgesamt bietet AMD gerade mit einem Nachfolger der X3D Variante für Gamer das bessere Potential UND dazu ist man bei Anwendungen halt immer noch führend.

Hast du Insiderinformationen? Über welchen X3D reden wir, der bei Anwendungen führend sein wird? Von einem 7800X3D wohl nicht? Und der 5800X3D ist ein wahrer Champion, weil Anwendungsleistung dir nichts bedeutet, warum hebst du sie dann am Ende als Pluspunkt für AMD hervor?

Und der 13600K mag ca. 25% mehr verbrauchen, er liefert aber in den Titeln, wo AMD abgeschlagen ist auch teilweise deutlich bessere fps, schau dir Spider-Man + RT an +17% avg auf den X3D und bei 1% lows sogar 39%!

Selbst ein 7800X3D wird sich anstrengen müssen, um diese Werte deutlich zu schlagen und was wird dieser denn kosten? Und ob der 7800X3D in Rainbow Six Siege dann 700 fps knackt ist mir herzlich egal, da kann sich GamersNexus drüber freuen und eine xx% höhere Gamingperformance attestieren, mir reichen in dem Spiel dann auch die ~600 fps des 13600K.
Rockstar85 schrieb:
Ein 13700/600K @125W PL Limit ist aber Effizient und Schnell.. Leider werden das 90% der Nutzer nicht tun, weil die meisten es nicht wissen.

Ich bin eh viel gespannter, was MTL wird.

Ja, gleiches Dilemma bei Zen4, aber gut, der längste Balken "gewinnt" und wenn AMD & Intel nahezu gleichauf sind, dann holen beide die Wattkeule raus.

Ich bin vor allem gespannt, ob MTL 2023 auch wirklich kommt.
 
  • Gefällt mir
Reaktionen: Laphonso und Rockstar85
Beg1 schrieb:
Hast du Insiderinformationen? Über welchen X3D reden wir, der bei Anwendungen führend sein wird? Von einem 7800X3D wohl nicht? Und der 5800X3D ist ein wahrer Champion, weil Anwendungsleistung dir nichts bedeutet, warum hebst du sie dann am Ende als Pluspunkt für AMD hervor?
Naja es geht ja Vorrangig um Spiele.. Und die Skalierung Zen 3 zu Zen3D kann man ja sehen. Wir dürften am Ende sicher keine 27% Uplift sehen, aber für den 13900K wird es reichen (Ich prophezeie auch einen Niedrigeren Verbrauch als beim 5800X3D, einfach weil der Takt bei 3D Cache nicht so gut geht, ~50 W Spielelast wären Realistisch) . Die alles entscheidende Preisfrage ist dann, was das gute Stück kostet. Wäre ich AMD würde ich einen 7800X3D bringen und ggf Später einen 7600X3D nachschieben.. Das sind ja reine Spiele CPU, und da machen 2CCD mit 3D Cache keinen Sinn. (wie du ja sagtest, sind das keine Anwendungs CPU)
Und dann fragt sich halt auch, wann MTL kommt und ob MTL am Ende im Desktop landet, oder nicht wie Whiskey Lake nur im Mobile landet. 2H2023 wäre nett, aber ich tippe auf 1H24

Es ist halt einfach:
bei AMD bekomme ich mit 7x00er Serie ADL Leistung mit Zen3 Verbräuchen (böse Zungen nennen Zen4 einen Tick, bzw Zen3+) Bei Intel mit etwas Optimierung einen 3% schnelleren ADL, der ohne PLimit halt richtig aufdreht.. Es wird echt spannend, wie die ADL Preise gehen werden und ich glaube aber auch nicht, dass ein 12700K mal eben so locker auf die Werte eines 13700K kommt, vor allem bei der LLC.
 
Syrato schrieb:
Einfach ins Bios und 88 Watt einstellen!

Ist es wirklich so einfach? Wenn du ein hartes PL einstellst, dann dürftest du in vielen Titeln auch enorm an Leistung verlieren, so ist es ja auch beim 12700 gewesen, bei 65W hat die CPU in manchen Titeln einfach mies performt.
Ergänzung ()

Rockstar85 schrieb:
Naja es geht ja Vorrangig um Spiele.. Die alles entscheidende Preisfrage [...] Das sind ja reine Spiele CPU, und da machen 2CCD mit 3D Cache keinen Sinn.

Genau da liegt doch auch das Problem, selbst als 4090-Käufer nehme ich einen 13600K (eventuell auch 13700K), weil sich die paar Prozent zum 13900K für die benötigte Leistung + Anschaffungskosten nicht rechnen.

Und AMD wird die X3D-Modelle nicht auf einem Niveau mit 7600X/7700X platzieren und genau diese CPUs hat Intel in meinen Augen in allen Bereichen - außer Effizienz - deutlich geschlagen.
Die von vielen gewünschten 2CCD-X3D-Modelle dürften zudem noch teurer sein, weil jedes CCD den Cache benötigt oder täusche ich mich da?
 
Zuletzt bearbeitet:
@Beg1
Da kannste auch den 12900K oder eben einen 13700K nehmen.. Und ein 4090 Käufer juckt kaum die Effizienz.. Ich sehe aber wie du auch keinen 2CCD 3D Cache AMD kommen.. Eher wird AMD AM4 mit AF Modellen ausbauen, was halt auch nicht Blöd wäre. Die Plattform ist ja mehr als bezahlt.
Und der 5800X3D scheint ja eh ab 1440p bei der 4090 nicht mehr mitzukommen.. Aber ich koppel halt auch keine 2500€ GPU mit einer 200-300€ CPU... Das macht keinen Sinn.
Die meisten haben aber auch immer noch eine 1060, und da reicht dann selbst ein 230€ 5700X.. Da muss auch der 13400/500 hin, damit AMD die Preise senkt.
Die Plattformkosten sind unter D5 Gesichtspunkt bei beiden leider auch ähnlich teuer.. Intel hat sowas wie einen X670E gar nicht.
Mach nicht den Fehler, wie die anderen Propellerjungs nun zu sagen: JAAA aber Anwendungen sind wichtig.. Ein X3D kauft keiner für Anwendungen.. Einen 6Ghz Intel auch nicht. Das sind reine Spielekisten, ok und bei manchen sicher auch Kompensation.


Beg1 schrieb:
Die von vielen gewünschten 2CCD-X3D-Modelle dürften zudem noch teurer sein, weil jedes CCD den Cache benötigt oder täusche ich mich da?

Nein, täuschst du dich nicht. Der 3D Cache ist "noch" nicht CCD Übergreifend. Damit braucht es 2x mal Cache und im Ernstfall könnte Leistung liegen bleiben, weil der CCD1 nicht auf die Daten im CCD2 Cache zugreifen könnte.. Hier könnte auch MTL spannend werden, da man mit EMIB etwas ähnliches ja schon mal zeigte.

@Laphonso
Es ist reddit.. Mal ehrlich, was erwartest du? Das ist auch kein Schlachtfest. Es wäre ein Drama wenn der Weltmarktführer nicht mithalten könnte.. Aber so ist das mit der Selektiven Wahrnehmung im Netz halt. AMD wird dadurch sicher nicht weniger CPU verkaufen, der Weltweite Abschwung wird da massiver treffen. (und ja die Fanbois machen daraus dann wieder Argumente, wie AMD verkauft sich schlecht)
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Laphonso

Sogar im AMD reddit sprechen die Leute von einem Schlachfest, das Intel hier dem 13600K gegenüber Zen4 veranstaltet.

Der Rettungsanker wird der Zen4 x3D Cache. Vielleicht?
 
Beg1 schrieb:
weil jedes CCD den Cache benötigt oder täusche ich mich da?
So habe ich das ebenfalls verstanden!


Ja, vernichten und Schlachtfest sind genau die Begriffe, die mir in meiner Freizeit noch gefehlt haben. :rolleyes:
Kindergarten ...
 
  • Gefällt mir
Reaktionen: daknoll, HyperSnap, ottocolore und eine weitere Person
Beg1 schrieb:
Hast du Insiderinformationen?
Was er "hat" nennt sich kognitive Dissonanz oder buyers remorse ;) Sogar die AMD Gruppe erkennt im reddit an, dass sie nicht damit gerechnet hatten wie oft und wie deutlich der 5800x3D dann doch den Raptorlakes unterliegt.
Hatten wir wohl alle nicht.
 
nun ist es dieses Pärchen geworden:

1666435485336.png


PS: ist man mit dem Prozessor wirklich nicht an den Win 11 angewiesen? Läuft alles in Win 10 genau so? Möchte noch min. 5 Jahre bei Win 10 bleiben
 
  • Gefällt mir
Reaktionen: The Azazil, BorstiNumberOne und TechFunk
Rockstar85 schrieb:
Und ein 4090 Käufer juckt kaum die Effizienz.. Aber ich koppel halt auch keine 2500€ GPU mit einer 200-300€ CPU... Das macht keinen Sinn.

Ich betreibe die 4090 bei ~350W, natürlich juckt mich die Effizienz (und Abwärme) und warum soll ich die GPU nicht einem 13600K betreiben? In 4K ist das eine ziemlich perfekte Kombination, da kann ich mir die Zusatzkosten (Strom+Anschaffungskosten) für den 13900K auch sparen.

Und ich sagte auch nicht, dass mir Anwendungen wichtig sind, da würde mir auch ein 7600X reichen, keine Ahnung, ob die E-Cores vielleicht für Streamer Vorteile haben?
 
Zurück
Oben