Test i9-14900K, i7-14700K & i5-14600K im Test: Die letzten Core-CPUs ihrer Art gegen AMD Ryzen 7000

ArrakisSand schrieb:
Der Verbrauch währe wohl kaum mehr zu bändigen. Anstatt 300W würde so eine CPU wohl 500W verbrauchen und mit einem Totenkopf, Achtung radioaktiv, Biohazard Warnaufkleber zugleich versehen werden.
500W halte ich in dem Fall für realistisch, da wäre das Heizungstamtam auch geklärt.

Deswegen verbauen die ja diese E-Cores, habe ich doch geschrieben.
 
Ich fände es schön, wenn bei den CPU-Tests auch etwas ältere Generationen vertreten wären. Ich behaupte mal, dass die meisten Nutzer Modelle der 11xxx-Generation oder abwärts bzw. AM3/4-Sockel haben. Es würde mir persönlich schon reichen, wenn alte Testgrafiken dazu verlinkt oder zusammengestellt würden und man auf das evtl. veränderte Testsystem aufmerksam macht. Anders als bei Grafikkarten halten die CPUs ja doch meist einige Generationen länger durch, bevor sie ausrangiert werden müssen.
 
  • Gefällt mir
Reaktionen: Flyerdommo, PhantomFFR und Jan
guggi4 schrieb:
Da wirfst du aber etwas neue und alte Bezeichnungen durcheinander.
Intel 7(alt: 10nm) und Intel 20A(alt: 5nm)
es sind also "nur" zwei Fullnodes.

Es gibt (seriöse ;) ) Quellen, die das durchaus anders sehen. Zum Beispiel spricht Tom's Hardware von...

Intel has completed chip tape-outs of its Intel 18A (1.8nm-class) and Intel 20A (2nm-class) fabrication processes...

... und auch bei AnandTech wird mit 2nm Prozessen von TSMC und Samsung verglichen...

Samsung's 2 nm-class node will be available around the same time as TSMC's N2 process technology (2 nm-class) and about a year or more after Intel's 20A process.

... oder auch HW Cooling...

Intel has confirmed that it will release processors manufactured using its 2nm node (Intel 20A) in 2024. Alongside these, 3nm processors for Sierra Forest servers will also come out, but Intel will skip this technology in PC processors and go straight to the Intel 20A process. This node is supposed to be something that originally evolved from the technology that Intel previously referred to as the 5nm process in roadmaps. So it should roughly compete with TSMC’s 3nm technology, if we rely on the old rule that Intel nodes used to be comparable to foundry nodes that were nominally a generation ahead.

^ Und da findet sich der Hinweis, dass "5nm" old news sind, weil "evolved" und so... ;) . Macht ja auch Sinn, denn vor dem 20A Prozess gibt es bekanntlich noch Intel 4 und Intel 3.

Daher wird Intel 20A inzwischen weitläufig als "2nm class process" bezeichnet und deshalb habe ich in meinem Beitrag auch das "~" vor 2nm verwendet, um damit die Entsprechung eines 2nm Prozesses zu verdeutlichen.
 
Wäre es nicht Sinnvoller wenn man Aufrüsten möchte Lieber den 13700k zu nehmen? Also der 14700k ist vom Verbrauch mehr als Extrem.
 
  • Gefällt mir
Reaktionen: M11E
Intel ist seit Jahren so uninteressant ☹
Ergänzung ()

TIMOTOX schrieb:
Wäre es nicht Sinnvoller wenn man Aufrüsten möchte Lieber den 13700k zu nehmen? Also der 14700k ist vom Verbrauch mehr als Extrem.
Sinnvoll wäre es AMD zu nehmen.
 
  • Gefällt mir
Reaktionen: Autoquadplus, danyundsahne, McTheRipper und eine weitere Person
RogueSix schrieb:
Du bist trotzdem in deiner Bezeichnung nicht konsistent, Intel 7 ist ja ebenso ein "7nm class node" und du hast den alten Namen 10nm von Intel selbst angegeben.
Deine Angabe 10nm -> 2nm suggeriert einfach einen größeren Sprung als er in Wirklichkeit ist.
Entweder 10nm -> 5nm in alter Intelbezeichnung, oder Intel 7 -> Intel 20A in neuer Intelbezeichnung.
Schlussendlich sinds zwei Fullnodes. Da brauchts auch keine "seriösen" Quellen, das hat Intel selbst bei der Umbenennung der Prozesse ja so erklärt.
 
  • Gefällt mir
Reaktionen: eXe777 und Rockstar85
takkyu schrieb:
Intel ist seit Jahren so uninteressant ☹
Ergänzung ()


Sinnvoll wäre es AMD zu nehmen.
Leider nicht für mich der der Idle Verbrauch mir zu Hoch ist bei AMD. Zudem Unterstützen AMD MSI Mainboards die Funktion nicht den PC mit Maus oder Tastatur zu Starrten.
 
TIMOTOX schrieb:
Leider nicht für mich der der Idle Verbrauch mir zu Hoch ist bei AMD. Zudem Unterstützen AMD MSI Mainboards die Funktion nicht den PC mit Maus oder Tastatur zu Starrten.
Der 7800X3D hat gerade mal 6W mehr Idle Verbrauch als der 14700K, so viel verbrauchen schon fast alleine die zusätzlichen Gehäuse/CPU Lüfter/Kühler um die zusätzliche Wärme abzuführen.
Vom benötigten deutlich stärkeren Netzteil (z.B. 1000W anstatt 750W) erst gar nicht zu reden.
Ich behaupte jetzt einfach mal ins Blaue hinein, dass der Idle Verbrauch wenn man den PC als Gesamtheit betrachtet, dieser bei AMD mindestens gleich gut ist.

Ich zitiere hier mal aus dem folgenden Foren Beitrag.

Ist der Verbrauch im idle, bei unterschiedlich leistungsstarken Netzteilen, gleich?
MasterWinne schrieb:
Das 1200w Netzteil lohnt sich nur wenn auch um die 1000W gezogen werden. Für Ottonormalrechner ist es OP und schlechter in der Effizienz. Meine eigene Messung war sowas um die 17W Unterschied von einem 1300W->650W Netzteil. Beide NT 80+Gold spezifiziert und Messung mit 12V 50W Glühbirne.
Nochmal, weil es hier einige nicht verstanden haben bzw falsch in Relation stellen.

--> Die AUSGANGSFRAGE war, wie sich der IDLE Verbrauch bei solchen Netzteilen auswirkt. Diese wurde schon von mir direkt beantwortet!

Daher auch der Glühbirnentest mit den 50W weil diese dem Idle-betrieb am nächsten kommt. Zwischen 8W [16% von 50W] und den 17W [34% von 50W] ist das nicht unerheblich, denn unter IDLE Bedingungen, wie die Fragestellung war ist das immerhin ein Effizienzunterschied von mehr als dem doppelten.

Klar das sich die Effizienzunterschiede nach oben hin verschieben, das war aber nicht die Frage. Gerade auch die Netzteile haben einen großen Anteil am Gesamtverbrauch. Am Schluss stehen auch die % welche man sich an der Stromrechnung spart zu den Netzteilkosten, auch wenn das nicht die Frage war.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Salamimander, Autoquadplus, danyundsahne und 7 andere
guggi4 schrieb:
Du bist trotzdem in deiner Bezeichnung nicht konsistent, Intel 7 ist ja ebenso ein "7nm class node" und du hast den alten Namen 10nm von Intel selbst angegeben.

Ja, weil es da diesen "evolved" Schritt nicht gegeben hat. Den "Intel 7" Prozess gab es IIRC ja schon als die Umbenennung erfolgte und jeder weiß/wusste, dass es exakt derselbe Prozess wie der bereits laufende 10nm Prozess ist.

Beim Intel 20A Prozess ist die Lage doch ganz anders. Der Prozess befand sich zur Zeit der Umbenennung noch in den Anfängen der Entwicklungsphase und wie man jetzt an der Intel Roadmap sieht, hat sich im Zuge der genannten "Evolution" einiges getan, so dass inzwischen von einem "2nm class" Prozess gesprochen wird.

Da kann ich jetzt auch nix dafür. Du kannst ja gerne mal die oben von mir verlinkten Webseiten darauf hinweisen, dass sie alle Pfeifen sind und doch bitte nur noch von 5nm reden dürfen :) .
 
TIMOTOX schrieb:
Leider nicht für mich der der Idle Verbrauch mir zu Hoch ist bei AMD.
Also die 100 Watt mehr beim Gaming von Intel sind egal, aber die 10 Watt mehr beim idle von AMD total wichtig?
(grobes Beispiel)
 
  • Gefällt mir
Reaktionen: boypac007, Rockstar85, Autoquadplus und 10 andere
Lowman schrieb:
Hab ich das übersehen oder fehlen da eigentliche Spielauflösungen?
Fehlen weil unwichtig. Interessiert ein GPU Test, bei dem nebenbei Blender auf der CPU läuft?
Lowman schrieb:
Ja ich weiss es wird das CPU Limit getestet aber es wäre ja auch interessant wie sich das in 2,5k oder 4K Verhält. DIe Gamingleistung in 720p interessiert mich eigentlich wenig.
Wie schon? Alle performen entweder im selben Abstand wie hier oder absolut gleich, weil das GPU Limit anliegt. Frage beantwortet.

Du verlangst quasi Tests der Höchstgeschwindigkeit in einer 30er Zone. Rat mal: Alle schaffen 30.
 
  • Gefällt mir
Reaktionen: iron_monkey, Rockstar85 und Kai85
bvbdragon schrieb:
da geht wieder ne menge leistung durch den lahmen ddr5 flöten. 8000mhz geht ja ohne probleme
Ohne Apex Board gehen 8000 MHz definitiv nicht ohne Probleme. Der IMC macht auch längst nicht immer 8000 MHz mit.
 
  • Gefällt mir
Reaktionen: RogueSix, iron_monkey und gustlegga
TIMOTOX schrieb:
Zudem Unterstützen AMD MSI Mainboards die Funktion nicht den PC mit Maus oder Tastatur zu Starrten.
Steck halt ne PS/2 Maus bzw. Tasta an dann gehts... :D
Wobei ich das auch nur als "Killerfeature" ansehen würde wenn ich etwas NUC-artiges hinten am Monitor hängen hätte wo man schlecht ran kommt. Ansonsten ists doch egal ob ich am Case einen Knopf drücke oder auf dem Keyboard.
Aus dem Ruhezustand/Standby funktionierts ja mit USB Geräten mit den richtigen UEFI Settings..
ArrakisSand schrieb:
Der 7800X3D hat gerade mal 6W mehr Idle Verbrauch als der 14700K,
Pizza! schrieb:
Also die 100 Watt mehr beim Gaming von Intel sind egal, aber die 10 Watt mehr beim idle von AMD total wichtig?
Ich möcht hier zu den Testergebnissen bezüglich des ach-so-tollen Idle-Verbrauch bei Intel noch etwas anfügen was nicht unerheblich ist, @Freiheraus schon etwas weiter vorne geschrieben hat, und auch mir nicht selber in den Sinn gekommen ist.
Freiheraus schrieb:
Zudem das AM5-Board (X670E) genaugenommen zwei Chipsätze hat. Würde man ein B650E-Board (lediglich ein Chipsatz) nehmen, hätte man auf AMD-Seite im Leerlauf 10 Watt weniger (würde vermtl. das Intel-System energietechnisch insgesamt unterbieten) und hätte immer noch eine bessere Ausstattung als der Z790.
@Jan Eventuell könntet ihr diesen Ansatz beim nächsten CPU Test in Zukunft berücksichtigen, bzw testen ?
Es würde eine einzelne CPU für den direkten Vergleich des Idle-Verbrauchs ja reichen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: danyundsahne, LamaMitHut, eXe777 und 5 andere
Arbed schrieb:
Und fast alles zu Lasten der Stromaufnahme, völlig falsches Zeichen in unserer jetzigen Zeit.

Sehe ich auch so. Intel enttäuscht hier auf ganzer Linie. Man hinkt immer noch hinterher. Aber das war ja abzusehen. Mal schauen, wann es wieder spannend wird.
 
  • Gefällt mir
Reaktionen: Arbed
Finde auch dass der MB Chipsatz Verbrauch auch in die gesamte CPU Berechnung miteinbezogen werden muss. Da sie nicht trennbar sind und nur zusammen funktionieren.
 
  • Gefällt mir
Reaktionen: danyundsahne
Slayn schrieb:
Nicht wirklich. Wenn man nach OEM Standard gehen müsste würde man ja auch nur den höchsten JEDEC Standard nehmen müssen.
Das tun die meisten auch. Höherwertigen Speicher bekommst Du nur, wenns für den OEM keinen Preisunterschied gibt.
 
Lowman schrieb:
Hab ich das übersehen oder fehlen da eigentliche Spielauflösungen?
Ja ich weiss es wird das CPU Limit getestet aber es wäre ja auch interessant wie sich das in 2,5k oder 4K Verhält. DIe Gamingleistung in 720p interessiert mich eigentlich wenig.

Jedes Mal kommt einer um die Ecke und will cpu'S im GPU Limit testen.....warum???? Mit den Daten die man hier im auf CB erhält kann man sich ALLES herleiten wenn man das Ding zwischen den Ohren benutzt.

Im GPU Forum sagt doch auch keiner dass man bitte Mal mit Ner schwächeren CPU testen soll damit die Grafikkarte ja nicht ausgelastet wird :D
 
  • Gefällt mir
Reaktionen: danyundsahne, iron_monkey, Rockstar85 und eine weitere Person
Eben. Mit 720p wird die CPU Grundleistung dargestellt. Mit wachsender Auflösung dominiert dann die GPU Leistung.
 
  • Gefällt mir
Reaktionen: danyundsahne, iron_monkey und Aduasen
Guter Test, Danke.

Ich denke, wer Intel Rechner bevorzugt, sollte definitiv zum 14700K greifen.
Ergänzung ()

yahlov schrieb:
Die letzten CORE CPUs ihrer Art?
Weiß man leicht schon Gerüchte von der neuen Architektur?

Ja, gab es hier auch schon zu lesen.
Musst nur täglich mal reinschauen ;)
 
Zuletzt bearbeitet:
Zurück
Oben