Test i9-14900K, i7-14700K & i5-14600K im Test: Die letzten Core-CPUs ihrer Art gegen AMD Ryzen 7000

Rockstar85 schrieb:
Oder habe ich das mit dem PCIE 8x fach überlesen?
das ist doch bereits ein "altes" Problem der 13th Gen. Und da 14th nur bei einem die E-Cores hochschraubt und ansonsten im allgemeinen den Takt, ohne das Innenleben anzurühren (altes Stepping)... bleibt dieses "alte" Problem weiterhin existent...
 
Aktuell ist man beim Kauf einer Plattform einfach gekniffen ...

Kaufst du AM5 holst du dir ewig lange Bootzeiten ins Haus sobal der RAM nicht mehr stock läuft und hohe Idle-Verbräuche, hast aber die Option noch einige CPU Generationen darauf nutzen zu können sofern man das will.

Kaufst du dir einen Intel und da haben wir hier ja mit Ausnahme vom i7 gesehen spielt es fast keine Rolle ob 13er oder 14er hast du zwar gute Bootzeiten und auch die Leistung ist auf Augenhöhe aber die Dinger saufen einfach wie ein Loch und wenn ich dann sehe das ein i9 das 2-3 Fache von einem 7800X3D verbraucht beim zocken und dann eben oft auch noch langsamer ist fällt mir dazu echt nichts mehr ein.

Ich bin zwar mehr oder weniger bedient meinem 13600K aber der sollte eigentlich nur vorübergehend eingebaut sein und gegen einen i7 getauscht werden aber ich denke ich sitze es aus ... ich hab eh nur eine 4080 die Bremst in der Regel bei 4k so früh da kann ich locker auf die Nachfolger der 7000er AMDs und die Nachfolger der Core CPUs warten :)
 
  • Gefällt mir
Reaktionen: Corpus Delicti und Zwirbelkatz
@catch 22:

Danke dir, das wusste ich, Tatsache, nicht.
Okay bisher isses auch keinem Aufgefallen :D

Roman zeigt auch noch netterweise dass die E Core in Games auch abgeschaltet werden können :D
 
Do Berek schrieb:
Was sagt eigentlich @DavidG dazu?
"Diese massiven Hochfrequenzkerne sind genau was Hochleistungsgamer...."
....achso, das war ja wer anderer. :lol:
Ergänzung ()

NEO83 schrieb:
und hohe Idle-Verbräuche,
Naja.... +/-8 W als "hoch" bezeichnen..... Das holst zig-fach rein wenn du nur 1 Stunde daddelst. :D
intel.jpg
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: alkaAdeluxx, MiroPoch, danyundsahne und 5 andere
Der Test zeigt, wie schon bei RPL, dass eine offene CPU bei Gaming meistens wenig Sinn ergibt. Auch lobenswert ist der Hinweis und die Testmethode für Factorio, dem Game, bei dem AMD immer besonders gut abschneidet aufgrund des 3D Caches.

Der Umstieg lohnt sich natürlich nicht für ADL oder RPL Besitzer. Mich würde mal interessieren, warum der 5800X3D hier im Gegensatz zu seinen Brüdern und Schwestern im Leerlauf und Teillastbetrieb deutlich sparsamer untewegs ist - auch im Vergleich zu Intel. Ist dort ein ECO-Mode aktiv? Der 7800X3D benötigt ja direkt 35 % mehr Energie im Leerlauf als der 5800X3D.
 
  • Gefällt mir
Reaktionen: M11E, Quidproquo77 und Jan
Wow Intel 👏 klasse Leistung! Ihr werdet schon paar Dumme Käufer finden……….und ihr werdet bestimmt auch weiter die nächsten Jahre im 3. Gang mit 100 über die Bundesstraße brettern.
 
q3fuba schrieb:
Denn der NH-D15 schafft es nicht meinen 13700K im Cinebench bei 253W ohne Throttling zu kühlen obwohl ich schon maximal Undervolted habe 🤷‍♂️
Sollte aber noch machbar sein. Ich hab meinen 13700K mit optimierter Spannung und dem Noctua NH U12A problemlos gekühlt in Cinebench R23, ca. 86°C bei 223 Watt. War aber auch nicht mehr leise.
Erst bei 290-300 Watt kam ins Temp. Limit.
Aber eigentlich auch völlig egal oder, du spielst ja nicht Cinebench. In Games ist die CPU wunderbar kühl. Selbst mit 120 Watt chillt die bei 60-70°C absolut leise gekühlt.


bvbdragon schrieb:
da geht wieder ne menge leistung durch den lahmen ddr5 flöten. 8000mhz geht ja ohne probleme
Geht nicht ohne Probleme. Hab schon bei diversen Leuten gesehen, dass selbst 7200 MHz nicht immer einfach so funktionieren. Da muss extra Hand angelegt werden.
Außerdem gehts hier um Standardtests um Dinge zu vergleichen. Was man Alternativ hätte machen können, wäre beide Systeme mit 6000 MHz zu testen.
Aktuell ist es halt der offizielle Standard mit 5200 und 5600 MHz.

Regonaut schrieb:
hab 9-12W im Idle :p
Mit dem 13900K normal und schön. Ich hoffe AMD erreicht das auch irgendwann mit den großen CPUs.
Ich hab 18 Watt mit dem 7800X3D, dafür zieht der in Cyberpunk seine 50-100 Watt weniger.
Also was ist ehrlicherweise besser? 5-10 im idle sparen oder 50-100 Watt im Gaming?


Der Test ist wie erwartet, von allem ein klein wenig mehr. Intel bleibt bei seinen Stärken und Schwächen.
Nur in Einzelfällen tut sich wirklich was und das ist eher negativ im Vergleich zur 13. Generation.
Für die Leute, denen der Stromverbrauch egal ist, ist Intel natürlich eine tolle Spielwiese mit mehr OC und RAM OC Möglichkeiten.
 
  • Gefällt mir
Reaktionen: Javeran
@SKu
PCIe 5.0 und DDR5 RAM-Controller werden da wohl einiges mehr ziehen als die Vorgängergenerationen auf AM4.
Und unterschiedliche Mainboards können auch gleich mal 10W ausmachen.
Das sind ja die Verbräuche des ganzen Systems.
 
  • Gefällt mir
Reaktionen: SKu
Erinnert an die Vergangenheit, wo Intel sein Monopol hatte und wir unsere 5% pro Gen bekommen haben.
Intels letzte Schublade^^
 
Zuletzt bearbeitet:
Danke an die Redaktion das ihr euch die Zeit genommen habt diese CPU´s zu testen. Ich hätte Sie mit ziemlicher Sicherheit beim lesen der Spezifikationen wieder verpackt und Intel zurück geschickt. Irgendwie war das echt Zeitverschwendung und hier auf CB sind Sie ja echt noch gut weg gekommen. Der Unterschied zu den Vorgängern ist einfach viel zu gering um auch nur ansatzweise von einem Refresch zu reden. Das war Müll Intel das könnt ihr sowas von vergessen. Bei AMD liegen Sie wahrscheinlich am Boden vor lachen...
 
Eigentlich kann man diese Generation in einem Wort zusammenfassen: langweilig. Spannend wird es nächstes Jahr, wenn Zen 5 gegen Arrow Lake (oder Meteor Lake?) antritt.
 
  • Gefällt mir
Reaktionen: Rockstar85
gustlegga schrieb:
Naja.... +/-8 W als "hoch" bezeichnen..... Das holst zig-fach rein wenn du nur 1 Stunde daddelst. :D
Zudem das AM5-Board (X670E) genaugenommen zwei Chipsätze hat. Würde man ein B650E-Board (lediglich ein Chipsatz) nehmen, hätte man auf AMD-Seite im Leerlauf 10 Watt weniger (würde vermtl. das Intel-System energietechnisch insgesamt unterbieten) und hätte immer noch eine bessere Ausstattung als der Z790.

Und das mit dem PCIe x8 Limit bei Verwendung einer PCIe 5.0 M.2 ist für Intel schon etwas peinlich.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: iron_monkey, danyundsahne und gustlegga
@Rockstar85
Das mit meinen Rechnern ist eben eine andere Sicht auf die Dinge.
Da sagen dann Leute der Amd Only Rechner verbraucht mehr, was ja in der Konstellation korrekt ist.
Dann wiederum argumentieren manche um ihr Leben rum, dass x3d deutlich effizienter sind (was sie sind) und knallen dann eine 7900xtx rein die deutlich mehr säuft als NV Pendants (was auch stimmt).
Also wenn effizient unterwegs, dann konsequent. :D

Mein msi z690 hat wohl auch Bios Probleme. Temps etc sind top.
Der Single boost vom 13900k ist aber iwie fehlerhaft bzw kommt manchmal gar nicht zum Vorschein.

Beim b650e funkt alles, nur Ram Setup waren Experimente.. Nichtma Expo hat richtig funktioniert. Seitdem alles wunderbar, traue mich nur nicht mehr updaten 😅
 
Freiheraus schrieb:
Zudem das AM5-Board (X670E) genaugenommen zwei Chipsätze hat.
Jetzt wo du es sagst.....
Daran hatte ich auf die Schnelle jetzt auch gar nicht gedacht.
 
Ich hab mir jetzt nicht die 10 Seiten Kommentare durchgelesen ob das jemand bereits angemerkt hat, aber:
Der noch etwas teurere Ryzen 9 7950X3D platziert sich wiederum in Games bei sehr hoher Effizienz leicht vor dem Core i9, fällt in Anwendungen jedoch zurück und nimmt im Leerlauf deutlich mehr elektrische Leistung auf.
Das liest sich als Fazit etwas seltsam, da der 7950X3D ja aus im Test genannten Gründen gar nicht Teil der Diagramme ist, oder übersehe ich hier etwas? :)
 
Jan schrieb:
Der Sprung kam mit der 13. gen für 13400 aufwärts, die den 12600k im Test hier.

Bei den Spielen fehlt mir der 12700K. Von 13600K bis 14700K ca. 9% und von 12600K auf 14700K 35%, bei RE4. Oder vielleicht 30%, wenn der 12600K den besseren RAM hätte. Wo soll ich da denn nun meinen 12700K einordnen? Ich habe zwar DDR4 mit verbesserten Timings, aber mit einem 14700K wäre es der selbe RAM. Wäre ich da ungefähr in der Mitte von 12600K und 13600K? Schon der 13600K hatte ja 5,1GHz und der 12700K bei mir nur 4,7 bis 4,8.

Ich mache mal eben HT aus und gucke nochmal, ob RE4 wirklich 6 Kerne benutzt und Titanic HG 7. Ich mache da jetzt aber bei den Spielen nur DLSS/FSR rein, um Grafikkartenlimit zu entfernen.

Wahrscheinlich wäre ein gebrauchter 13900K sogar die bessere Wahl, wenn dieser billiger als ein neuer 14700K sein sollte. Keine Ahnung, vielleicht es ein Sidegrade für 200€ an Weihnachten ja machbar, 13900K gebraucht im schwarzen Brett des Luxx' und 12700K dort verticken.
 
  • Gefällt mir
Reaktionen: Jan
Ist der Stromverbrauch eigentlich abgelesen oder an der Steckdose gemessen?

Würde mich mal interessieren, wie da die Unterscheide wirklich sind.
 
Caramelito schrieb:
Dann wiederum argumentieren manche um ihr Leben rum, dass x3d deutlich effizienter sind (was sie sind) und knallen dann eine 7900xtx rein die deutlich mehr säuft als NV Pendants (was auch stimmt).
Also wenn effizient unterwegs, dann konsequent. :D
Ich kauf doch nicht was Effizientes und knall dann ne XTX rein :O
nee also bevor ich ne XTX kaufen würde, würde ich ne 4080 kaufen... Aber bei den Preisen kaufe ich eben gar nix.

AMD hat leider ab 500€ nicht wirklich spannendes, auf die 7800XT ist nur dann spannend, wenn sie eben günstig ist. Aber selbst die hat nen besseren Sprung gemacht als was Intel gezeigt hat
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Knobi Wahn
Zurück
Oben