Test Intel Raptor Lake im Test: Core i9-13900K, i7-13700K & i5-13600K jagen Ryzen 7000

Zuletzt bearbeitet:
Nanatzaya schrieb:
Ich bin als Besitzer des 5800X3D vielleicht an der Stelle nicht neutral, aber ich denke auch, dass der X3D in Summe nachwievor das bessere Produkt darstellt.
Wer nur spielt und komplett neu kaufen muss, kommt P/L-mäßig durch die günstigeren Boards und Speicher kaum am 5800X3D vorbei. Wer aber schon ein halbwegs neues Intel Mainboard hat, dürfte mit dem 13600K(F) besser fahren.
Nachhaltigkeit ist so n Thema, wenn man bedenkt, dass AMD dem AM5 auch schon ein EOL Datum verpasst hat.
dann kannst jetzt auch nicht mit AM6 rechnen, der ist jetzt auch schon EOL.

Nein, entscheidend ist, was jetzt zählt. Und das ist AM5, der neuer ist und eine längere Lebensdauer als Sockel 1700 hat. Preislich ist intel zurzeit insgesamt allerdings günstiger, da die Plattform schon innerhalb des Team Blau verbaut ist.
 
Sorry aber...
...für die Leistung - zu teuer (egal ob AMD oder INTEL), viel zu viel Stromverbrauch.
Vor allem für's Gaming würde ich dennoch bei AM4 bleiben, kommt man deutlich günstiger weg
und vor allem in diesen Zeiten auch beim Stromverbrauch - wenn man regelmäßig zockt, dürfte das schon
einige Euros ausmachen denke ich und Hitzeentwicklung ist auch so nen Thema bzw. die Kühlung.
Einzig die moderneren Anschlüsse wie PCIe 5.0 (kann man glaub auch noch locker ohne auskommen)
und schnelles USB...
Ein 6-Kerner wie der 5600X mit kleinen 65W reicht immernoch locker aus, wer bissele bessere Frametimes will kann auch zum 8-Kerner greifen aber eben etwas Stromhungriger mit 105W und wird halt etwas wärmer
bzw. muss etwas besser gekühlt werden. Wer unbedingt ganz oben mitspielen will, kann ja noch zum
5800X 3D greifen.
 
  • Gefällt mir
Reaktionen: omaschabubu
mcsteph schrieb:
Was hat CB hier gemessen? Selbst Intel sah sich nur 11% vorn. Selbst der 13600 schlägt bei CB den größten von AMD. Wie kommen die riesigen Unterschiede zustande?
PCGH hat auch +20% raus, passt also. Und auch dort schlägt der 13600K alle AMD´s.
Hier ist der 13600K 4% vor dem 5800X3D, bei PCGH 5% vorne.

Intel sah sich 11% vorne, weil sie alle CPUs mit dem gleichen Speicher vermessen haben und natürlich auch ganz andere Spiele testen. Bei richtig CPU lastigen Spielen wie Anno, Spiderman RT, Cyberpunk RT und Co, ist der 13900K sogar 25% vor dem 7950X.

PCGH sieht dem 13900K in Anno wahnwitzige 47% vor dem 7950X.

wdwdwd.jpg
 
  • Gefällt mir
Reaktionen: Laphonso und Jan
cookie_dent schrieb:
Ok, aber was erwartest Du? Pro Generation/Refresh 50% mehr Leistung?
Jepp, einfach Mal nicht jedes Jahr eine neue Generation raushauen, mit geringem Zuwachs, vielleicht mal 2 oder 3 Jahre Entwicklen und dann was mit mehr Leistung und Effizienz. Was passiert den zur Zeit... Intel haut die E Cors rein damit sie im Workload gut da stehen und dann noch maximale Leistungsaufnahme für Singles Core Leistung..... AMD das gleiche.
Für mich ist das keine Entwicklung, sonder ein Kampf um den längsten Balken .
 
  • Gefällt mir
Reaktionen: stage
SANDTIGER schrieb:
Und dann noch einen 9900K mit über 200Watt Package Power sein eigenen ist genau mein Humor .

Der 9900K hat 95W TDP und darauf habe ich Kühlung (Noctua-Luftkühler) und Stromversorgung (650W-Netzteil) ausgelegt. In der Praxis sehe ich bei der CPU manchmal etwas über hundert Watt, aber weit von dem entfernt, was die neuen Generationen schlucken können und von den Anforderungen, die die deswegen an Kühlung und Stromversorgung stellen oder auch an Gehäuseplatz und Airflow.

Mein aktuelles System ist ein auf niedrige Lautstärke ausgelegtes µATX-Format. Sowas wäre jetzt nicht mehr machbar mit High End-Komponenten.

Zuerst Intels Watt Rennen von Anfang an unterstützen und und jetzt rumheulen deswegen sind wir heute da wo wir jetzt sind . :grr:

Ich war nicht glücklich darüber, dass ich nicht auf die Ryzen 3000 warten konnte, aber die 7 Jahre alte AiO-Wasserkühlung hatte mein 3930K-System leider ein paar Monate zu früh unter Wasser gesetzt.

Aber ich bin nicht der, der rumheult oder die Zähne fletscht. Ich sage nur, dass ich jetzt aus dem Rennen raus bin, was High-End-Komponenten angeht. Die Verbräuche und (speziell bei den Grafikkarten) Preise sind jetzt einfach zu hoch und der Trend macht mir keine Hoffnung, dass es wieder besser wird.

Wer das weiter mitmachen will, dem wünsche ich ehrlich viel Spaß.
 
  • Gefällt mir
Reaktionen: Klever
  • Gefällt mir
Reaktionen: Kandalfus
yxcvb schrieb:
An alle, die meinen, sie würden die schnellste Spiele-CPU kaufen (wollen): Ja, solange ihr in einer unterirdischen 720p-Auflösung spielt - dann sind die FPS aber sowieso extrem hoch - und spätestens ab WQHD ist es egal, ob da ein 13600, 12600, 5800x(3D) oder ein 7950x werkelt.

Das stimmt doch nicht. Bei High-FPS-Gaming kommt es auch in höheren Auflösungen auf die CPU an. Bei Warzone z.B. in WQHD und alles auf niedrig hatte ich mit meiner 3070 beim Wechsel von 3600 auf den 5800x 20-30 FPS mehr...
 
  • Gefällt mir
Reaktionen: Pisaro
Maxminator schrieb:
Geil:

Fun Fact: Der i7-9700 hatte 8 Kerne und kostete vor vier Jahren $420: https://www.techpowerup.com/review/intel-core-i7-9700k/

Beim 13600K verschenkt Intel also einen ganzen i7-9700 an den Kunden und bietet trotzdem 6 Performance-Kerne wie AMD. Sieht man erstmal, was für eine Abzocke AMD mit Zen4 geliefert hat.

Quelle: https://www.forum-3dcenter.org/vbulletin/showthread.php?t=612789&page=7
Boa geil alter!1! Schick mal link, geschenkt nehm ich den gerne
 
  • Gefällt mir
Reaktionen: Rockstar85, gokkel und cookie_dent
Herdware schrieb:
Über 300W bei CPUs und 600W bei Grafikkarten... sorry, da bin ich komplett abgehängt. Ich will mir keinen gigantischen Big Tower mit >1000W-Netzteil und Custom-Wasserkühlung hinstellen müssen. (Vom Preis im Kleinwagenbereich ganz zu schweigen.)
In der Realität braucht ein System aus 13900K und RTX 4090 in Gaming rund 500 Watt.
Mit gedrosselten Einstellungen RTX 4090 @ 300 und 13900K @ 88 Watt, nicht mal 400 unter Gaming Vollast.
Dafür braucht man weder eine Wasserkühlung noch ein teures Netzteil.
 
  • Gefällt mir
Reaktionen: Oneplusfan, HansDetflefAndi und SideEffect
@Jan Wird es ein Update geben mit RTX 4090 und evtl. 1440p und 2160p Leistungsanalyse?
Oder habe ich das im Test übersehen?
 
Vor Ryzen war im gesamten CPU Bereich nur gähnende Öde....Intel mit ihren 2 % Leistungssteigerung pro Generation. Nun geht jedes Jahr bei den Launches neuer CPUs die Post ab. Leider recht teuer. Aber insgesamt bin ich doch positiv überrascht. Wenn der 13700K etwa 100€ im Preis fällt wäre es sicher eine sehr interessante CPU.
 
  • Gefällt mir
Reaktionen: Kanaka3001
Ragnarök88 schrieb:
Mit gedrosselten Einstellungen RTX 4090 @ 300 und 13900K @ 88 Watt,

Das sollte dann die Werkseinstellung sein und das, was jetzt Standard ist, der OC-Spielraum.

Ich lege Kühlung und Stromversorgung mindestens nach den offiziellen Angaben der Hersteller aus. Ich werde nicht so viel Geld in ein High End-System stecken und dann Undervolting betreiben und trotzdem noch riskieren, dass es nicht stabil oder nur stark gedrosselt läuft.
 
  • Gefällt mir
Reaktionen: Ragnarök88
SonyFriend schrieb:
30€ Unterschied bei ca. 400€ sind nun nicht die Welt und eher nicht "kriegsentscheidend", vor allem, wenn eine AM4-Plattform schon seit 3 Jahren im PC verbaut ist - damit ist der X3d immer noch TOP Aktuell für alle, die von 3 Jahren einen ZEN1 oder 2 gekauft hatten. Das nenne ich Nachhaltigkeit, im Gegensatz zu intel, der Sockel ist jetzt schon EOL.

Gerade gesehen bei HW unboxed, da ist der 13900k mit ddr4 Ram 3,5 % schneller als der 5800X3D :rolleyes:
 
3,5% - was ja schon eine ganze Welt ist! ;)
Wieviel mehr Strom nimmt dann der 13900k und was ist die Preisdifferenz?
 
  • Gefällt mir
Reaktionen: McFritte
Damit ist AMD diesmal wohl geschlagen in der Gaming Kategorie.
Das Fazit ist: wer zocken will kommt an Intel nicht vorbei, zumindest nicht bis der 7800X3D oder so auf den Markt kommt.

Also schicke ich meinen AMD 1700x Opa in Rente und Intel, here I come :-)
 
  • Gefällt mir
Reaktionen: Maxminator
mtheis1987 schrieb:
Was geht den mit den temps beim 13900k ab? Das is ja krank! Geht ja dann nur noch mit AiO oder Custom WaKü.
Wie beim AMD dann wohl auch hier die Power Targets limitieren, FPS knapp am Rande der Messtoleranz verlieren, langsamer sein als ein Stock Ryzen der das gleiche Problem hat, aber dafür wahrscheinlich nicht mal die Hälfte an Storm verbrauchen.
Im Vergleich zu dem was diese letzen 2 Jahre abgeht war selbst der FX 9590 ein Waisenknabe
 
Zurück
Oben