News Intel Core i7-14700K: Für bis zu 21 % mehr Leistung benötigt man 13 % mehr Energie

MalWiederIch schrieb:
Die Tests zum 7900X3D hast du aber gelesen?
400€+ für die Leistung eines i5 auszugeben für 3% mehr in Spielen würde ich mir auch sehr genau überlegen … 0,008€ sparen im CPU Limit sind da auch nicht wirklich das Argument bei 10% Mehrkosten in der Anschaffung …
Ja, aber mit einem unterschied nicht nur hier;)
Ergänzung ()

MaverickM schrieb:
Wie kommst Du darauf, dass es mir im besonderen um das bisschen Strompreis ginge?

Es geht um Effizienz, das Ding sinnvoll zu kühlen, leise zu halten. Und vor allem darum, nicht sinnlos Energie zu verprassen, der Umwelt zu Liebe. In der heutigen Zeit ist das ein Unding.

Auch abseits der X3D CPUs macht AMD die deutlich bessere Figur beim Stromverbrauch und bei der Abwärme.
Ist ja auch kein Wunder Intel hängt seit Jahren an ihrer Fertigung sitzen aus den Achtzigern.
 
GeleeBlau schrieb:
Klar sind 260W bei 100% Dauervolllast im endlosen Turbomodus bei 5.5GHz schon ordentlich. Doch wer lastet das schon dauerhaft so aus? Mich würde mehr interessieren wie es bei idle oder 30-40% aussieht.
Schau dir den Gaming Verbrauch hier auf CB an vom 7800X3D/13700K Test, dann hast deinen geringen Lastverbrauch.
Je nach Auslastung der Gameengine schwankt dann auch der Verbrauch...aber im Schnitt kommst damit gut hin.
Idle ist übrigens auch in den Tests zu finden... ;)
 
Wenn ihr unbedingt eine Intel Raptor Lake Refresh CPU wollt in der Liste ist auch der Core i3 14100 aufgeführt !

frankkl
 
HaRdWar§FreSseR schrieb:
Die Kunst ist es ja bei weniger Verbrauch mehr zu leisten, so kann das jeder machen wie Intel.
Ach deshalb die ganzen CPU Hersteller :p
minimii schrieb:
Ich hab für meinen x3D durch eine Gutschrift lediglich 370 gezahlt.
Naja ich habe für meine 4090 auch nur 600€ durch eine „Gutschrift“ bezahlt - für den Rest ist das nicht wirklich relevant und eher schönrechnen.
minimii schrieb:
Und die 50% mehr Rohleistung: wo wird diese in mehr Leistung umgewandelt?
Shader-Compilation bspw. um mal bei Spielen zu bleiben. Nebenbei gehe ich davon aus, dass die meisten nicht nur ein Spiel offen haben. Gerade in dem Preisbereich hat man evtl. auch mehrere Monitore.
minimii schrieb:
Also abseits Produkt genutzter Software?

Ggfs. Kenne ich nicht die richtigen Benchmarks.
Aber beide liegen recht nah beieinander mit Vorteilen für den x3d?
3% Vorteil in der Gaming Leistung, 10% Nachteil beim Preis, 50% Nachteil bei der Rohleistung - naja … Ansichtssache wohl.
 
  • Gefällt mir
Reaktionen: HaRdWar§FreSseR
Lächerlich....
Mehr fällt mir dazu nicht ein. Effiezienzsteigerung auf weiterhin enorm hohen Grundniveau.
Und es ist doch klar, das, wenn man einem 14700K 4 zusätzliche Stützräder (E-Kerne) spendiert, dieser dann unter Multithreading etwas zulegt. Aber das ist Rosinenpickerei. Der Performencegewinn bei gleicher Anzahl an P und E-Kernen wird verschwindend gering bei gleichzeitiger höherer Leistungsaufnahme aufgrund etwas höheren Takt sein.
 
  • Gefällt mir
Reaktionen: Anon-525334 und HaRdWar§FreSseR
HaRdWar§FreSseR schrieb:
Ja, aber mit einem unterschied nicht nur hier;)
Ergänzung ()


Ist ja auch kein Wunder Intel hängt seit Jahren an ihrer Fertigung sitzen aus den Achtzigern.
Deine Kommentare und Schlussfolgerungen bringen einen irgendwie immer zum Schmunzeln :p
 
  • Gefällt mir
Reaktionen: HaRdWar§FreSseR
Helge01 schrieb:
Das war vor ca. 10 Jahren. :D
Ein 10 Jahre junger Core i3 3220 ist ähnlich zukühlen wie ein Core i3 12100 ,
da hat sich bei den vergleichbaren Nachfolger wenig getan der stromverbrauch ist praktisch gleich geblieben.

frankkl
 
danyundsahne schrieb:
Schau dir den Gaming Verbrauch hier auf CB an vom 7800X3D/13700K Test, dann hast deinen geringen Lastverbrauch.
Je nach Auslastung der Gameengine schwankt dann auch der Verbrauch...aber im Schnitt kommst damit gut hin.
Idle ist übrigens auch in den Tests zu finden... ;)
Rechnerisch kommen wir dann eben auf 0,008€ je Stunde im CPU Limit. Und das bei einem höheren Anschaffungspreis.
Bei 50€ Unterschied muss ich bspw. bereits 6.250 (!!!) Stunden im CPU Limit sitzen um das wieder rauszuholen. Das ist doch ein Witz :p
 
Ein Grund warum ich mich für den 7800X3D entschieden habe ist auch der Stromverbrauch (jetzt nicht wegen den höheren Mehrkosten). Ich betreibe einen 7800X3D mit einer RTX 4090, mein 750W NT reicht dafür, aber bei einem 13900K hätte ich wohl oder übel mir auch gleich wieder ein neues NT anschaffen müssen. Hat man erst knapp 210€ vor 2 Jahren ausgegeben, dann möchte man eigentlich schon eine längere Zeit Ruhe haben. Zusätzlich als K-O- Kriterium kam dann noch das der Intel Sockel so gut wie tot ist. Ich finde da schiesst sich Intel immer wieder selbst ins Knie mit der ständigen Sockel-Wechslerei. Beim AM5 hat man zumindestens bis mindestens Ende 2026 erst mal Ruhe! Den einzigsten Vorteil den ich sehe derzeit bei Intel ist die sehr gute Anwendungsleistung im Vergleich zu den X3D Prozis, aber da ist ein 13900KS kaum schneller als ein 7950X3D und für die meisten User reicht die Anwendungsleistung des 7800X3D/5800X3D dicke aus!
 
  • Gefällt mir
Reaktionen: Anon-525334 und HaRdWar§FreSseR
MalWiederIch schrieb:
Naja ich habe für meine 4090 auch nur 600€ durch eine „Gutschrift“ bezahlt - für den Rest ist das nicht wirklich relevant und eher schönrechnen
Ja richtig.
Für mich ist es schön.
3% mehr Gaming Leistung für gut 15% weniger Preis bei weniger Verbrauch.

MalWiederIch schrieb:
50% Nachteil bei der Rohleistung
was ist an der Rohleistung so spannend wenn ich davon nicht einen eklatanten Mehrwert habe?

Ich hab keine Probleme mit Shadern und deren kompilierung.
Mag sein das der 13700 das besser kann.
Aber die 50% mit Sicherheit nicht. Also St das eher reißerisch das mehr an IPC und die Atom Kerne als massiven Mehrwert darzustellen.

Und Cinebench "spiele" ich auch nicht. ;)

Aber zugegeben....Der 7800x3d ist nicht sehr enorme Spru g gewesen wie 5800x3d..

Aber wenn man neben aem anderen Basteldrang dazu nimmt ist AM5 doch nett ;)
 
  • Gefällt mir
Reaktionen: Thor2607
Stefcom64 schrieb:
Ein Grund warum ich mich für den 7800X3D entschieden habe ist auch der Stromverbrauch (jetzt nicht wegen den höheren Mehrkosten). Ich betreibe einen 7800X3D mit einer RTX 4090, mein 750W NT reicht dafür, aber bei einem 13900K hätte ich wohl oder übel mir auch gleich wieder ein neues NT anschaffen müssen. Hat man erst knapp 210€ vor 2 Jahren ausgegeben
Für 750W? :freak: Die gab es damals schon für weniger als die Hälfte.
Und das alte Netzteil schmeißt man ja nicht in den Müll - in meinem Fall bei Ebay gelandet, waren somit keine 50€ Aufpreis. Bei den 1.500€ für die RTX 4090 + Rest mal sowas von irrelevant, eher ein künstliches Argument …
Stefcom64 schrieb:
, dann möchte man eigentlich schon eine längere Zeit Ruhe haben.
Dann kauft man sich auch kein 750W Netzteil - wobei da wohl selbst für einen 13700K und eine 4090 reichen müsste laut max. Verbrauch.
Stefcom64 schrieb:
Zusätzlich als K-O- Kriterium kam dann noch das der Intel Sockel so gut wie tot ist.
Das ist das erste vernünftige Argument, wenn man wirklich jemand ist der jährlich zum Upgrade greift. Wobei das sich ja mit „ich möchte eine llängere Zeit Ruhe haben“ beisst :p
Stefcom64 schrieb:
Ich finde da schiesst sich Intel immer wieder selbst ins Knie mit der ständigen Sockel-Wechslerei. Beim AM5 hat man zumindestens bis mindestens Ende 2026 erst mal Ruhe!
Quatsch garantiert sind gerade mal noch 1 1/2 Jahre von AMD.
Stefcom64 schrieb:
Den einzigsten Vorteil den ich sehe derzeit bei Intel ist die sehr gute Anwendungsleistung im Vergleich zu den X3D Prozis, aber da ist ein 13900KS kaum schneller als ein 7950X3D
Da dürfte weniger das Problem liegen.
Das Problem liegt beim 500€ UVP 7800X3D mit 50% geringerer Leistung verglichen zum günstigeren 13700K. In Spielen sind es dann 3% mehr …
Stefcom64 schrieb:
und für die meisten User reicht die Anwendungsleistung des 7800X3D/5800X3D dicke aus!
Bestimmt, der 5800X3D ist deshalb auch eine super Empfehlung. Der 7800X3D zum aktuellen Preis eben nicht.
Ergänzung ()

minimii schrieb:
Ja richtig.
Für mich ist es schön.
3% mehr Gaming Leistung für gut 15% weniger Preis bei weniger Verbrauch.
Es sind 10% mehr beim Preis, wie oben gerechnet musst du 6.250 Stunden im CPU Limit sitzen um die Mehrkosten durch den Stromverbrauch wieder reinzuholen …
Deine „Gutschrift“ zählt wie in meinem Fall oben eben zum Schönrechnen.
minimii schrieb:
was ist an der Rohleistung so spannend wenn ich davon nicht einen eklatanten Mehrwert habe?

Ich hab keine Probleme mit Shadern und deren kompilierung.
Dauert bei dir eben länger so wie alles was die Leistung nutzen kann. Für 379€ UVP wäre das eine super CPU gewesen.
 
MalWiederIch schrieb:
Rechnerisch kommen wir dann eben auf 0,008€ je Stunde im CPU Limit. Und das bei einem höheren Anschaffungspreis.
Bei 50€ Unterschied muss ich bspw. bereits 6.250 (!!!) Stunden im CPU Limit sitzen um das wieder rauszuholen. Das ist doch ein Witz :p
Klar, dann kommt noch der 3x so hohe Verbrauch wenn man doch mal was mit der CPU arbeiten möchte...und sowas will gekühlt werden.
Kommt also nochmal mehr Geld dafür dazu.
Und dann kaufen sich manche vermutlich noch ne Wasserkühlung extra dafür, zack wieder 250€ mehr flöten nur damit das rechnen auch einigermaßen leise geschieht.

Aber im Grunde geht's auch etwas um Fortschritt....und da sehe ich AMD bei deren CPUs nunmal deutlich weiter vorne als Intel.
Obwohl Intel ihre bahnbrechenden E-Cores haben, verbrauchen deren CPUs aber ganz schön viel, meinst net?
 
  • Gefällt mir
Reaktionen: Anon-525334
MalWiederIch schrieb:
Es sind 10% mehr beim Preis
Gut. Präziser: mein Kauf war für mich preislich attraktiver. Fair.

Und was die Stromkosten angeht: das summiert sich.
Mein x3d plus die 4090 ziehen dank UV etc. Gut 400W bei einem Benchmark wie Timespy.

30W entfallen auf Board, Pumpen Lüfter etc.
Kann das am Netzteil auslesen.

In Spielen nutze ich gerne noch DLSS.
So bekomme ich das Gesamtsystem auf 200-240W plus monitor beispielsweise bei Horizon oder auch Hogwarts Legacy, RDR2 sind es etwas mehr.

Langfristig ist es gespart.
Ich weiß nicht warum du jetzt die Anschaffungskosten da so unbedingt mit rein rechnen möchtest?
Meine 4090 hat mich mit Block zuviel gekostet...Wäre Blödsinn sich da einzureden man spart da was. Ist mir auch klar.

Und die UVP ist für den individuellen Kauf des einzelnen nur teils relevant finde ich.

Aber ein System welches effizient ist und gleichzeitig genug Power hat ist halt nett.
Und das ohne an der Kotzgrenze zu arbeiten.

MalWiederIch schrieb:
Dauert bei dir eben länger so wie alles was die Leistung nutzen kann. Für 379€ UVP wäre das eine super CPU gewesen.
Fair. Aber das "länger" ist absoluter Luxus wenn es denn überhaupt so ist.
Mir fehlt noch der Beleg.

Was den Preis angeht: AM5 hat da eher das Problem der teuren Plattform, vormals eher ein Intel Problem.

Dann wäre das alles weniger wild.
Speicher ist ja mittlerweile günstiger.
 
Zuletzt bearbeitet:
MalWiederIch schrieb:
Deine Kommentare und Schlussfolgerungen bringen einen irgendwie immer zum Schmunzeln :p
Wenigstens einer, der sie mag, alle anderen werden böse auf mich. ^^
Ergänzung ()

Stefcom64 schrieb:
Ein Grund warum ich mich für den 7800X3D entschieden habe ist auch der Stromverbrauch (jetzt nicht wegen den höheren Mehrkosten). Ich betreibe einen 7800X3D mit einer RTX 4090, mein 750W NT reicht dafür, aber bei einem 13900K hätte ich wohl oder übel mir auch gleich wieder ein neues NT anschaffen müssen. Hat man erst knapp 210€ vor 2 Jahren ausgegeben, dann möchte man eigentlich schon eine längere Zeit Ruhe haben. Zusätzlich als K-O- Kriterium kam dann noch das der Intel Sockel so gut wie tot ist. Ich finde da schiesst sich Intel immer wieder selbst ins Knie mit der ständigen Sockel-Wechslerei. Beim AM5 hat man zumindestens bis mindestens Ende 2026 erst mal Ruhe! Den einzigsten Vorteil den ich sehe derzeit bei Intel ist die sehr gute Anwendungsleistung im Vergleich zu den X3D Prozis, aber da ist ein 13900KS kaum schneller als ein 7950X3D und für die meisten User reicht die Anwendungsleistung des 7800X3D/5800X3D dicke aus!
Genau aus diesem Grund werde ich auch auf AM5 wechseln, nur mit dem Unterschied, mir ein 1000-Watt Titanium Netzteil zu besorgen, damit noch Luft für später da ist. Den, was viele nicht wissen mehr Watt, weniger Arbeit, Abwärme und Lautstärke im System.
Ergänzung ()

DaBas schrieb:
Lächerlich....
Mehr fällt mir dazu nicht ein. Effiezienzsteigerung auf weiterhin enorm hohen Grundniveau.
Und es ist doch klar, das, wenn man einem 14700K 4 zusätzliche Stützräder (E-Kerne) spendiert, dieser dann unter Multithreading etwas zulegt. Aber das ist Rosinenpickerei. Der Performencegewinn bei gleicher Anzahl an P und E-Kernen wird verschwindend gering bei gleichzeitiger höherer Leistungsaufnahme aufgrund etwas höheren Takt sein.
Intel versucht den Pentium wieder zu beleben der nächste wird, wenn die so weiter machen, ganz bestimmt einer.
 
Zuletzt bearbeitet von einem Moderator:
Mich würde interessieren ob man die 8 P-Cores überhaupt so hochgetaktet braucht. Denn diese sind an dem extremen Stromverbrauch schuld. Warum mal nicht ne CPU rausbringen die 16 "Medium"-Cores hat, (jeder Kern hat 4 bis 4,2GHz). Wenn das Spiel gut programmiert ist, und alle Kerne nutzen kann, dann sollte doch eine deutlich höhere Effizienz vorhanden sein statt die Kerne auf 5,5GHz zu prügeln. AMD hat doch auch den 7900(X) (Leider auch von der Frequenz nicht ganz die Mitte getroffen).
 
Intel müsste, was heißt müsste, muss einfach nur den Cache aufbohren mehr nicht, doch ist bestimmt mit dieser Fertigung nicht mehr machbar.
Das Problem ist einfach Intel möchte eine Spiele-CPU nicht von einer Arbeit's CPU trennen, so kann man es sich, leicht erklären meine diesen, Wahn mit den ganzen E-Cores.
 
MalWiederIch schrieb:
Für 750W? :freak: Die gab es damals schon für weniger als die Hälfte.
Und das alte Netzteil schmeißt man ja nicht in den Müll - in meinem Fall bei Ebay gelandet, waren somit keine 50€ Aufpreis. Bei den 1.500€ für die RTX 4090 + Rest mal sowas von irrelevant, eher ein künstliches Argument …
Eh, sorry, aber das geht dich erst mal überhaupt nix an, was ich mir für ein Netzteil kaufe. Was es gibt und nicht gibt weiss ich selber, geh mal davon aus das ich schon wusste warum ich mir so ein teures geleistet habe!

MalWiederIch schrieb:
Dann kauft man sich auch kein 750W Netzteil - wobei da wohl selbst für einen 13700K und eine 4090 reichen müsste laut max. Verbrauch.

Du weißt aber schon das das richtige Stromfressen in Sachen GPUs erst vor 2,5 Jahren mit erscheinen der RTX 3080 begann, vorher zählte ein 750W NT als dicke ausreichend, und wie du auch ausnahmsweise mal richtig erwähnen tust-ja es reicht für meine Konfig.!
MalWiederIch schrieb:
Quatsch garantiert sind gerade mal noch 1 1/2 Jahre von AMD.
Ja? Wo hast du das gelesen? Bitte mal einen Link dazu! Laut AMD Roadmap der Sockel AM5
bis mindestens Ende 2026 betrieben, andere Quellen außer AMD würde ich da hinsichtlich als dummes Gelabber abtun!

MalWiederIch schrieb:
Das Problem liegt beim 500€ UVP 7800X3D mit 50% geringerer Leistung verglichen zum günstigeren 13700K. In Spielen sind es dann 3% mehr …
Du sagst es nach UVP...den 7800X3D gibt es mittlerweile für 409€!
 
  • Gefällt mir
Reaktionen: Anon-525334
Stefcom64 schrieb:
Eh, sorry, aber das geht dich erst mal überhaupt nix an, was ich mir für ein Netzteil kaufe. Was es gibt und nicht gibt weiss ich selber, geh mal davon aus das ich schon wusste warum ich mir so ein teures geleistet habe!
Wir beruhigen uns jetzt alle wieder ^^
 
Zurück
Oben