News Intel Core i7-14700K: Für bis zu 21 % mehr Leistung benötigt man 13 % mehr Energie

Die ganzen Leute die meinen mehr Airflow und kühlere Dies bedeuten weniger Aufheizen des Raumes sollten dringend nochmal ihre Grundlagen in Physik auffrischen.

Ist ja gruselig das gleich von mehreren zu lesen
 
  • Gefällt mir
Reaktionen: HaRdWar§FreSseR
MalWiederIch schrieb:
Naja 10% Aufpreis bei kaum nennenswerten 3% Mehrleistung im CPU Limit scheint bei den Kunden offensichtlich nicht anzukommen, daher nun auch die roten Zahlen.
Lol, als wenn das bessere Produkt da zählen würde. Viel wichtiger sind oem Verträge. Bei mir auf Arbeit wird nur Intel angeboten weil die Rentner keine Ahnung haben.
Ergänzung ()

oicfar schrieb:
Wie wäre es damit, dass man darüber gar nicht berichtet und die Käufer meiden solche Produkte. Erst dann wird es wohl eine Wende geben. Oder?
Oder wenn die EU ein Limit bestimmt.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: LamaMitHut
till69 schrieb:
Habe ich, du auch?
Ja, nur hab ich a) keinen persönlichen Vergleichswert mit Intel unter gleichen Bedingungen und b) läuft bei mir wenn ich egal was schaue immer RTX-VSR mit + Wasserpumpen fürs Loop.

Mein Wert ist also sicher alles andere als ideal. Wenn ich YT glotze lieg ich bei 150-200W laut Netzteil (je nach Auflösung von Source und Target). Völliger Idle ist bei mir keines Vergleiches würdig mit zwei Pumpen + sieben Lüftern + den vieren auf dem MoRa.

Ich finds also niedlich wenn man sich um 20W im Idle streitet während der 13900K hier im Test dafür beim Daddeln 140W+ gezogen hat ggü. den 70 des 7800X3D/7950X3D. Erstaunlich auch, dass die Leistungsaufnahme hier im Test (Idle) 5W auseinander liegt zwischen den Kontrahenten, bei dir sinds aber gleich 25W ?

Spannend. Wie kommt CB mit billigem 0815 Referenzmemory auf höhere Werte als du beim 13700K? Magie ? Strom mit Additiven ? Oder läuft ein System mit 5600er und das AMD System bei dir mit 6400 Kotzgrenze ? 🤔 :D
 
  • Gefällt mir
Reaktionen: Anon-525334
Termy schrieb:
Der Verbrauch ist halt schon einfach übel - vor allem, wenn man bedenkt, dass der 14700 ja nichtmal das Topmodell ist und vor allem allem, wenn man 5800x3D bzw 7xx0x3D zum Vergleich ranzieht...

Ich würde mir wirklich wünschen, dass alle (Intel, AMD abseits x3D, NVidia) ihre Produkte mehr im Sweetspot betreiben würden als nur nach dem längsten Balken zu streben...
Gerade bei den Prozessoren ohne X macht AMD das doch! Vom 7600 bis 7900. Bei den Grafikkarten ist der Verbrauch zu hoch, gar keine Frage!
 
  • Gefällt mir
Reaktionen: HaRdWar§FreSseR
Termy schrieb:
Der Verbrauch ist halt schon einfach übel - vor allem, wenn man bedenkt, dass der 14700 ja nichtmal das Topmodell ist und vor allem allem, wenn man 5800x3D bzw 7xx0x3D zum Vergleich ranzieht...
Derzeit besitzt Intel eben einfach nicht die technischen Fähigkeiten, mit dem Cache-Stacking der X3D-CPUs zu konkurrieren. Allerdings sollen sich die Caches mit Meteor- und Arrow-Lake ja auch dort weiter vergrößern. Sieht aus, als würden den Rennen um Taktfrequenz und dann Kerne ein Wettbewerb um riesige Caches folgen :D Insgesamt sollte dieser Ansatz eher zu mehr Effizienz führen, solange Intel dann nicht zusätzlich die Taktbrechstange ansetzt.

Was RPL-Refresh angeht ... gut, es war zu erwarten, dass hier einfach mehr Takt und Spannung kommen. Darüber hinaus wird wohl einfach die höhere Seriennummer Verkäufe garantieren bis ein echter Nachfolger kommt. Aber hey - immerhin hat es LGA1700 auf diese Art und Weise auf drei Generationen geschafft ... äh, oder so ähnlich ^_^

Termy schrieb:
Ich würde mir wirklich wünschen, dass alle (Intel, AMD abseits x3D, NVidia) ihre Produkte mehr im Sweetspot betreiben würden als nur nach dem längsten Balken zu streben...
Meine vollste Zustimmung. Ich fand es auch beim initialen Zen 4-Release bedenklich, dass AMD seine ursprüngliche Linie zugunsten eines Takts aufgegeben hatte, von dem man a) leistungsmäßig wenig profitierte und der einen b) die eigentlich exzellente Effizienz kostete. Mein 7950X läuft deswegen auch mit abgesenkter TDP, 170W braucht es einfach zu keinem Zeitpunkt.
 
  • Gefällt mir
Reaktionen: Termy
keine ahnung wohin das genau führen soll. es scheint mir so, als würde man bewusst in die falsche richtung gehen, damit man nach x Jahren sagen kann "fortschritt!! wir haben CPUs die nicht mehr 120W TDP oder sonstwas verbrauchen". Die Geschichte wiederholt sich immer wieder.
 
wern001 schrieb:
Stromverbrauch ist den Herstellern doch total egal! Hauptsache mehr Performance um jeden Preis. Wie das ganze absurd und aus den Fugen geraten ist, sieht man am besten bei den Grafikkarten
Außer Apple. Hier wird ja immer berichtet wie konkurrenzfähig AMD und Intel gegenüber der M-CPUs von Apple seien.
Die EU kümmert sich fleißig um USB-C-Zwang im iPhone und co. vielleicht mal um eine Maximalgrenze beim Stromverbrauch von Consumer CPU und GPU bemühen?
 
Leon_FR schrieb:
Genau das frage ich mich auch grade. Man bekommt doch mit ner Luftkühlung >250 Watt gar nicht mehr richtig gekühlt.
Selbst eine sehr gute AiO bekommt einen 13900K ohne TDP Limit nicht mehr gebändigt.
Mein Motto ist "Kraft kommt von Kraftstoff", aber irgendwo muss man die Kirche mal im Dorf lassen.
Ist meine erste CPU wo ich das Short und Long TDP Limit aktiv im BIOS eingestellt habe, um unter 90 Grad zu bleiben.
 
  • Gefällt mir
Reaktionen: Leon_FR
Die 15xxx Flotte kommt dann wohl zum Herbst 2024? 🤔 Die 5090 wird noch mehr CPU Schub als die 4090 brauchen :D
 
ich glaube, der entwicklungsfocus bei consumer/gaminghardware liegt bei leistung, der zugewinn an effizienz wird eben am altar der leistung aufgebraucht, und optimiert für eher kürzere verwendungsdauer, weil der gamer ja eh seine hardware wechselt wie die smartphones. und die wie die unterhosen.

drum geht man auch an die physikalischen grenzen, die in großserienfertigung mit akzeptablem yield machbar sind. nebenbei ist natürlich hardware mit einer verwendungsdauer von z.b. einer dekade ned unbedingt das, was die hardwarehersteller wollen. oder anders: bloomfield/westmere/sandy/ivy sind der alptraum der sales leute.

ja klar ist das alles weniger robust, wie alles, wo der grenzbereich immer schmaler wird, weil man an diese grenze eben ranwill.
klar ist auch: es wird mehr getauscht, es gibt mehr "kulanz". finanziert durch ein sehr deutlich höheres preisniveau, mit einer tendenz nach oben.
 
ThirdLife schrieb:
Wie kommt CB mit billigem 0815 Referenzmemory auf höhere Werte als du beim 13700K?
Weil CB das Ding reinsteckt, BIOS Defaults lädt, fertig.
ThirdLife schrieb:
Oder läuft ein System mit 5600er und das AMD System bei dir mit 6400 Kotzgrenze ?
Beide mit 6000er

ThirdLife schrieb:
Nö, ist genau so zu erwarten, siehe Idle Package Power:
https://www.hardwareluxx.de/index.php/artikel/hardware/prozessoren/60902-auch-der-kleinste-überzeugt-der-amd-ryzen-7-7800x3d-im-test.html?start=8

ThirdLife schrieb:
Wenn ich YT glotze lieg ich bei 150-200W laut Netzteil
Und ich bei 55-60W (Steckdose, i7 mit 4090 TUF)
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Beitrag
LamaMitHut schrieb:
Und die Arbeiten mit Feenstaub, oder was?
Das tuen 16 Kerne im Notebook auch nicht.
Mehr Kerne bedeutet gleiche Performance bei niedrigerem Takt, sprich Leistung.
AMDs 96 Kerner braucht auch keine 1000W.
 
Termy schrieb:
Ich würde mir wirklich wünschen, dass alle (Intel, AMD abseits x3D, NVidia) ihre Produkte mehr im Sweetspot betreiben würden als nur nach dem längsten Balken zu streben...
Einfach selbst Hand anlegen, Spannung senken (geht bei allen Chips) bzw. im Falle von AMD den Curved Optimizer benutzen und aufhören rumzuheulen.
 
Silencium schrieb:
Außer Apple. Hier wird ja immer berichtet wie konkurrenzfähig AMD und Intel gegenüber der M-CPUs von Apple seien.
Die EU kümmert sich fleißig um USB-C-Zwang im iPhone und co. vielleicht mal um eine Maximalgrenze beim Stromverbrauch von Consumer CPU und GPU bemühen?
Definitiv muss da eine Regelung für den privaten Bereich kommen.
Ergänzung ()

till69 schrieb:
Weil CB das Ding reinsteckt, BIOS Defaults lädt, fertig.
So laufen 99,99% aller PCs der Welt.
 
  • Gefällt mir
Reaktionen: thom_cat und Schinken42
bensen schrieb:
Das tuen 16 Kerne im Notebook auch nicht.
Mehr Kerne bedeutet gleiche Performance bei niedrigerem Takt, sprich Leistung.
AMDs 96 Kerner braucht auch keine 1000W.
Ist mir schon klar, aber dann bitte bei gleichem Verbrauch bewerten. Genau hier zieht AMD lachend seine Kreise um Intel, auch wenn hier noch so viele Milchmädchenrechnungen aufgemacht werden. Wie ich schon geschrieben habe, mit den hier gezeigten 260 Watt könnte AMD locker 32 Kerne füttern. Macht man halt nicht, weil die Zielgruppe zu klein ist / man die wirklich teuren Produkte nicht Kannibalisieren möchte.
 
mcsteph schrieb:
Definitiv muss da eine Regelung für den privaten Bereich kommen.
Du sagst es so zynisch, wer sonst? Die Industrie will Geld verdienen. Wenn es nicht die Regierung macht, jemand anderes macht’s auch nicht. Die Konsumenten sind ja so dumm und kaufen den Mist auch noch.
 
  • Gefällt mir
Reaktionen: Anon-525334
Den 13700K (mit Mainboard-Default-Einstellungen) habe ich hier mit dem Kühlermonster DeepCool AK620 am laufen und die CPU wird beim Spielen trotzdem über 90 Grad warm.
Wenn jetzt noch mehr Watt verbraucht wird kann man das eigentlich keinem mehr anbieten, das schafft ein Luftkühler langsam nicht mehr.
 
Volle Kanne voraus! Dachte früher die Zukunft wird sparsamer.
 
LamaMitHut schrieb:
Ist mir schon klar, aber dann bitte bei gleichem Verbrauch bewerten.
Genau das habe ich gerade gemacht. 13700 und 14700 bei gleichem Verbrauch. Du sagtest da bringen mehr Kerne nichts. War dir anscheinend nicht so klar.
AMD bringst du jetzt ins Spiel, hat mit der ursprünglichen Aussage nichts zu tun.

LamaMitHut schrieb:
Genau hier zieht AMD lachend seine Kreise um Intel, auch wenn hier noch so viele Milchmädchenrechnungen aufgemacht werden.
Laut CB Test liegt der Ryzen 13% vor dem 13900K bei 142W TDP. Ist natürlich effizienter aber lachend Kreise ziehen halte ich dann doch für übertrieben.


https://www.computerbase.de/artikel...bschnitt_leistung_in_apps_bei_reduzierter_tdp chrome_screenshot_1691995932890.png
 
  • Gefällt mir
Reaktionen: Aduasen
Aduasen schrieb:
Da der Rechner eh nur fürs Gaming genutzt wird, reichen 8 P-Cores absolut aus.
Denn die Konsolen nutzen sowieso nicht so viele Kerne.
Den Fehler hatte ich mit meinem 10850K schon gemacht.

Schau dir bitte mal die verwendeten Cores bei Diablo 4 an. Bei mir werden 11 Cores genutzt.
 
Zurück
Oben