News Intel Core i7-14700K: Für bis zu 21 % mehr Leistung benötigt man 13 % mehr Energie

0ssi schrieb:
Wenn bei Gen15 15600K 8 P-Cores, 15700K 12 P-Cores und 15900K 16 P-Cores
dann sitzt du da mit deiner "8 P-Core Gurke" also die Gen kannst du weglassen.

Naja, erstens mal wird es keinen 15000er geben, da Intel mit Meteor Lake die Produktnamen auf "Core Ultra" umstellt und zweitens wird Meteor Lake in der höchsten Ausbaustufe maximal 6P Cores bieten.

Für HighEnd Desktop mit 8P Cores wird erst Arrow Lake wieder interessant und der Kamerad wird höchstwahrscheinlich erst im Jahr 2025 das Licht der Welt erblicken (oder frühestens Ende 2024).

Genau deshalb kommt ja jetzt auch der RPL Refresh, weil Intel bis mindestens Ende 2024 im HighEnd sonst nichts mehr liefern können wird.
Der RPL Refresh ist die Überbrückungslösung bis man im HighEnd auf kleineren Prozessen (Intel 4 oder 20A) wieder mitspielen kann.

Der Poster, auf den Du geantwortet hast, hat laut Signatur noch eine CPU der 10000er Serie. Wenn es eine Intel CPU werden soll, dann macht der mit RPL Refresh sicherlich nichts falsch.
Bis zur nächsten Generation wird noch viel Zeit vergehen und wer weiß, ob Intel das überhaupt hinbekommt.
Dass MTL höchstens mit 6P Cores kommen wird, ist ja schon ein Warnzeichen, dass es in der Fertigung offenbar immer noch rumpelt wie beim Urknall.
 
Der Verbrauch ist doch egal, denn bei kaum einem wird die CPU 24h zu 100% Auslastung laufen...und im Idle sind quasi alle gleich sparsam. Und wer seinen Strom auf dem Dach erzeugt, der hat ihn gratis, oder bekommt ihn für 8 Cent
 
  • Gefällt mir
Reaktionen: Simonsworld
robosaurus schrieb:
Ich frage mich wann das erste mal ein Lichtbogen durch die Gehäusewand schiesst, bei der Menge an Strom, die da durch ballert?!
Keine Panik, tut es auch bei übertakteten Threadrippern über 600W nicht...
Steini1990 schrieb:
Ich frage mich wirklich wo beim Stromverbrauch bei den Consumer-CPUs einmal das Ende erreicht sein wird bevor es nur noch mit sehr viel Aufwand gekühlt werden kann.
Der Punkt ist doch erreicht und es ist alles so gewollt.
K Prozessoren haben keinen Boxed Kühler, Intel weiß doch, dass mit dem kleinen Teil nichts zu holen wäre.
Die Kosten für den Dual Tower oder AIO werden schön abgewälzt auf den Kunden.
Und ob der überhaupt merkt, dass die CPU bei Allcorelast an der 100° Grenze throttelt?
Selbst wenn, CPU wurde verkauft und das Geld ist in der Kasse.
 
Noch mehr Verbrauch? 😆
Intel sollte lieber mal ein Jahr aussetzen und dann was besseres mit weniger Verbrauch statt mehr Verbrauch rausbringen.
 
  • Gefällt mir
Reaktionen: Öcher Tivoli
Jetzt mal ehrlich: Kümmert euch der maximale Verbrauch wirklich so?

Stellt nicht inzwischen jeder halbwegs kundige im Bios ein TDP-Limit ein?
Mein 13700k ist auf 100 Watt limitiert und ich merke es absolut nicht!

Wenn man eh nur Spiele zockt, genehmigt sich die CPU ohnehin deutlich weniger (mit 144 FPS Limit z.B.). Ich rendere öfter Videos, daher zusätzlich die 100 Watt als Limit :heilig:
 
  • Gefällt mir
Reaktionen: Hovac, Simonsworld und phanter
i7 oder i9 nur 8P Cores? Lieber knallen wir mehr E-Cores rein. Wann kommen die ersten reine i3 und i5 E-Cores CPUs?
 
  • Gefällt mir
Reaktionen: Bandyto85
Ich geb mal meinen x3D streicheln.

Für reines Gaming In Sachen Effizienz ein Traum.
Teilweise nur 50-60W Verbrauch.
 
  • Gefällt mir
Reaktionen: Harpenerkkk, DerBandi und Öcher Tivoli
Steini1990 schrieb:
Ich frage mich wirklich wo beim Stromverbrauch bei den Consumer-CPUs einmal das Ende erreicht sein wird bevor es nur noch mit sehr viel Aufwand gekühlt werden kann.
Irgendwann wird es Kryokühlung quasi für den Hausgebrauch geben, dann sind Temperaturen rund um den PC kein Thema mehr.
 
frankkl schrieb:
ich hatte mir März 2023 einen Core i3 12100F mit 4x 3300 MHz +HT gekauft
Dann aber noch g‘schwind die Sig aktualisiert …. also zumindest wenn die für dich noch relevant ist 😁

BTT:
Wenn der Effizienz- und Performancegewinn ggü. der 13th Gen jetzt nur im absoluten Lastmaximum erreicht wurde, welchen Unterschied macht das dann beim normalen Gebrauch aus?
Da wird wohl keine 2 mehr vorne stehen.
Einige bemerkten ja schon dass man nicht über die gestiegene Leistungsaufnahme meckern soll, weil jene ja nur über Prime95 o.Ä. gezogen würde.
Ansonsten wird dann wohl der Vorsprung schmelzen.

Aber hey, dafür gäbe es ja CPU Benchmarks die man in Anwendungs- und Spieletests einfügen könnte. 😉
 
user_zero schrieb:
Haste Recht. Ich bastel zwar gerne, mir ist das Feintuning aber mittlerweile zu aufwendig. Ich will Hardware, die möglichst effizient ist, ohne dass ich viel einstellen muss. Das ist bei 14900K und 4090 eben nicht der Fall. Wenn ich mich nicht damit beschäftige, heizen die meine Hütte unnötig auf. Deshalb lautet meine persönliche Lösung: Hardware verbauen, die einfach nicht so viel verbraucht. Mal davon abgesehen, dass ich für den Preis einer 4090 lieber eine Woche in London verbringe, habe ich mehr davon. 😁
Wenn du nichts justieren willst wieso überhaupt ne K CPU kaufen?
Und der reguläre 14900 hat doch schon nur noch 65W tdp, 220W pl2
Oder wenns richtig sparsam sein muss 14900t mit 35W tdp, 105W PL2
 
  • Gefällt mir
Reaktionen: MalWiederIch
user_zero schrieb:
Ich will Hardware, die möglichst effizient ist, ohne dass ich viel einstellen muss. Das ist bei 14900K und 4090 eben nicht der Fall. Wenn ich mich nicht damit beschäftige, heizen die meine Hütte unnötig auf.

Genau das ist, wie ich geschrieben habe, zumindest bei der RTX 4090 eben NICHT der Fall :) . Da heizt nichts "die Hütte" auf. Die RTX 4090 hat wie alle GPUs ein Temperaturlimit, wo dann eh Ende wäre, aber außer mit FurMark o.ä. kommst Du da nie hin.

In normalen Spielen ist die RTX 4090 im Gegenteil wegen ihres brachialen Potentials viel kühler als die meisten Grafikkarten, weil sie sich schlicht und ergreifend langweilt und weil das Kühlsystem ebenso fast schon überdimensioniert ist.
Es muss schon sehr viel passieren bis die RTX 4090 mal Richtung 80°C marschiert. Und dabei nutze ich das "Silent BIOS" meiner Grafikkarte, also meine Karte darf auf Kosten der Lautstärke heißer werden und sie wird trotzdem nie wirklich heiß.

Bei BG3 zum Beispiel (4K@90fps, alles ultra) sehe ich max. so um die 73°C. Die CPU wird da in der Spitze sogar heißer. BG3 bringt den 13900K schon auf seine 90°C, weil BG3 recht CPU-lastig ist (vermutlich KI-Berechnungen).
Diese Temperaturen werden übrigens natürlich auch auf AMD-Systemen erreicht. Der 7800X3D mag effizient sein, aber kühl sind die AMDs trotzdem nicht.

Man muss im Übrigen nicht viel einstellen. Es ist doch klar, wenn man einen G-Sync compatible Monitor hat, dass man innerhalb der Sync-Range bleiben will. Bei meinem Monitor also maximal 144fps.
Bei einem Shooter fahre ich die 144fps gelegentlich aus, aber ansonsten limitiere ich meine fps auf 90fps bis 120fps. In einem BG3 (rundenbasierte Taktikkämpfe) brauche ich ja keine 144fps. Das wäre sinnlose Verschwendung.
Das alles lässt sich in Spielen normal bequem im Menü einstellen inklusive DLSS usw. - OK, wer dazu tatsächlich zu faul ist oder partout gar nichts einstellen will, der sollte sich vielleicht wirklich lieber eine Konsole kaufen.

Ich kann mich insofern nur wiederholen. Mein System in der Signatur mit 13900K und RTX 4090 ist das leiseste System, an das ich mich im Moment erinnern kann. Die Performance ist der Hammer und ich höre die Kiste im normalen Gaming-Alltag schlicht und ergreifend nicht. Da heizt nichts die Hütte auf.
Ich hatte anfangs den Fehler gemacht, mir ein Thermaltake ToughPower Netzteil mit 1600W zu kaufen. Das war mit Abstand die lauteste Komponente, aber seit ich das ASUS Netzteil drin habe... ein Traum. Die Kiste ist flüsterleise und bleibt im Gaming-Alltag verhältnismäßig kühl. Was will ich mehr?
 
  • Gefällt mir
Reaktionen: Lord B., iceshield und MalWiederIch
tox1c90 schrieb:
Hier jedoch, ist die Performancesteigerung signifikant größer als die gesteigerte Leistungsaufnahme. Das ist also keine Brechstange, sondern Effizienzsteigerung. Dreht man das Powerlimit auf den Wert der Vorgängergeneration, bleibt ein deutliches Leistungsplus.
Woher weißt du das? Bitte mal einen Link zum entsprechenden Test posten ;)
Der Effizienzgewinn kommt hier durch die hinzugefügten E-Cores (die per se nunmal effizienter sind als P-Cores), nicht wirklich durch Optimierungen. Das bedeutet, dass die Leistung und somit auch die Effizienz nur dann zunehmen kann, wenn mehr (E-)Cores überhaupt sinnvoll genutzt werden können. Ansonsten könnte unterm Strich sogar nur der höhere Takt greifen, der dann möglicherweise sogar nichts anderes als die berühmte Brechstange ist. Zumindest bei den P-Cores.
Effizienter wird es also wohl nur dann, wenn alle, aber vorallem alle E-Cores genutzt werden können. Mit Pech sogar weniger Effizient dagegen, wenn wenige und besonders P-Cores genutzt werden.

RogueSix schrieb:
Genau das ist, wie ich geschrieben habe, zumindest bei der RTX 4090 eben NICHT der Fall . Da heizt nichts "die Hütte" auf. Die RTX 4090 hat wie alle GPUs ein Temperaturlimit, wo dann eh Ende wäre, aber außer mit FurMark o.ä. kommst Du da nie hin.
Muss man aber auch nicht. Verantwortlich für die Wärmemenge ist allein die umgesetzte Energie, nicht die Temperatur. Und die umgesetzte Energie entspricht der Leistungsaufnahme. Selbst wenn das Ding bei 1000W auf 20°C halten könntest, heizt du dennoch mit 1000W.
Dennoch ist die Karte natürlich durchaus effizienz und kann in gewissen Szenarien dann sogar weniger Abwärme verursachen als andere Karten. Aber WENN die Leistung genutzt wird, dann ändert auch die fetteste Kühlung nichts am Aufheizen an sich.
 
  • Gefällt mir
Reaktionen: TheManneken, blackTEHhawk, Sherman789 und 4 andere
IsaacClarke schrieb:
Intel erinnert mich zurzeit an die AMD FX CPUs, da ging auch die Leistungsaufnahme und Temperaturen durch die Decke, die Leute die überwiegend gespielt haben verteidigten sie kurioserweise wegen der hohen Anwendungsleistung... wie sich die Geschichte wiederholt, nur jetzt bei Intel 😉
Und nun ist schenken sich Intel und AMD keine 5% in Spielen und ein 7800X3D kostet mehr als ein 13700K hat aber durch nur 8 Kerne (bei 500€ UVP) die Leistung eines i5-13500 …

Vor Ryzen sah das dann doch etwas anders aus, da war man nicht nur 5% hinter Intel in der Spieleleistung :p

Und nun diskutieren wir darüber welche CPU uns 0,008€ je Stunde im CPU Limit sparen kann, da wir sonst nichts mehr zu diskutieren haben :p
IsaacClarke schrieb:
Bei uns durchblicken die Käufer zumindest was gerade bei Intel schief läuft, sie lassen sich nicht vom Takt und den E-Kernen blenden, die Verkaufszahlen bei uns zeigen dies recht gut.
Nur ist ein kleiner Laden in Deutschland nicht ansatzweise relevant, hier mal etwas aktuelles:

Insgesamt war der Umsatz bei Intel nur leicht geringer. Ganz im Gegenteil bei AMD: Hier war das Minus sehr deutlich, Ryzen-Prozessoren verkauften sich extrem schlecht. Der daraus resultierende Rückgang beim Marktanteil ist deshalb keine Überraschung.
https://www.computerbase.de/2023-08...rkt-schrumpft-und-waechst-auf-kosten-von-amd/
Ergänzung ()

HyperSnap schrieb:
Lächerlich finde Ich immer diese Aussagen und dann ne 3090 oder 4090 im System haben.
Aber echt :p Die 30W für die 10 Sekunden im CPU Limit reissen es bestimmt raus - aber wie gesagt bei 5% hin oder her gibt es keine vernünftigen Argumente mehr beim Thema Spiele aus P/L und hier hat AMD mit 7000X3D bei der geringen Mehrleistung verloren, deshalb auch der aktuelle Verlust der Marktanteile.
 
  • Gefällt mir
Reaktionen: alkaAdeluxx und H6-Mobs
DJMadMax schrieb:
Solange Intel es nicht schafft, endlich mal wieder eine hocheffiziente Plattform mit brauchbaren und vor allem günstigen CPUs für "Jedermann" auf die Füße zu stellen, gibt's da auch keinen Cent von mir.
Vielleicht wird es für Intel auch mal Zeit, über eine komplett neue Architektur nachzudenken. Also ein Schritt, wie ihn AMD mit der Zen-Architektur gemacht hat.
Auch wenn Meteor Lake nicht mehr viel mit Nehalem (1. Gen Core i) gemein hat, ist es am Ende des Tages trotzdem nur eine weitere Iteration des gleichen Ansatzes.
 
  • Gefällt mir
Reaktionen: DJMadMax
RogueSix schrieb:
Niemand "spielt" den ganzen Tag Cinebench oder Prime95 oder bei den GPUs FurMark oder so ein Zeug. Insofern ist diese affektierte "OMG DER STROMVERBRAUCH WIRD UNS ALLE TÖTEN!!!!1111" Panik etwas übertrieben ;) .

In der Praxis haben die Leute einen G-Sync (compatible) Monitor, spielen mit begrenzten fps, aktivieren DLSS, zocken vielleicht sogar auf 4K, wo die CPU dann eh größtenteils Pause hat und... und... und...

Entgegen aller Unkenrufe von wegen BOOOOAAAHHHH 600W KERNSCHMELZE!!!11 ist die RTX 4090 meine bisher leiseste und effizienteste Grafikkarte.
Die Performance ist brachial und der PC bleibt flüsterleise. Das ist echt der Hammer.

Klar, wer jetzt den ganzen lieben langen Tag, sich mit Prime95 an der Berechnung von Primzahlen beteiligen will, der sollte vielleicht mal tiefer ins Detail gehen und sich ernsthafte Gedanken über die Effizienz machen, aber für den "normalen" Heim-User spielt die theoretische maximale Leistungsaufnahme in der Praxis doch de facto keine Rolle. Weder bei CPU, noch bei GPU.
Das ist witzig, weil laut dieser Definition der 7800X3D die beste Wahl für Gamer bleibt. Schließlich spielt man ja kein Cinebench.

Im ernst, das ganze ist halt witzlos. Wer multicore Performance benötigt hat, war mit Zen 3 wunderbar versorgt. Auch die 14. Gen von Intel kann sich nur dann deutlich absetzen, wenn man massiv Strom durchjagt.
 

Anhänge

  • Screenshot_20230813-121341.png
    Screenshot_20230813-121341.png
    290,6 KB · Aufrufe: 247
  • Gefällt mir
Reaktionen: CableGuy82 und =dantE=
Mehr Leistung bei weniger Energie.
Mir drängt sich just der Verdacht auf, dass INTEL in ihrer Schublade das Perpetuum mobile gefunden hat.
 
minimii schrieb:
Ich geb mal meinen x3D streicheln.

Für reines Gaming In Sachen Effizienz ein Traum.
Teilweise nur 50-60W Verbrauch.
Naja für „reines Gaming“ sind es nur 0,008€ je Stunde (und das auch nur in DE) im so häufig vertretenen CPU Limit gegenüber einem 13700K der nicht nur 10% günstiger, sondern auch 50% mehr Rohleistung bietet.

Wieviel sparst du dir da im Jahr durch die Effizienz?
Ergänzung ()

LamaMitHut schrieb:
Das ist witzig, weil laut dieser Definition der 7800X3D die beste Wahl für Gamer bleibt. Schließlich spielt man ja kein Cinebench.

Im ernst, das ganze ist halt witzlos. Wer multicore Performance benötigt hat, war mit Zen 3 wunderbar versorgt. Auch die 14. Gen von Intel kann sich nur dann deutlich absetzen, wenn man massiv Strom durchjagt.
Aber gerade „reine Gamer“ haben doch nur den Vorteil die 0,008€ je Stunde im CPU Limit zu sparen?
Und seit wann kann man die 50% höhere Leistung einer CPU nur für Cinebench verwenden, nette Relativierung - 3% Vorsprung in Spielen bei 10% Aufpreis sind dann aber auf einmal der Wahnsinn :p

IMG_0732.jpeg
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Simonsworld
Riiimz schrieb:
Bin mal gespannt, ob die überhaupt noch mal was effizienteres bringen.
Ist effizienter, so wie die letzten Jahre auch jedes mal. Steht sogar in der News.
 
Zurück
Oben