News Intel Core i7-14700K: Für bis zu 21 % mehr Leistung benötigt man 13 % mehr Energie

RogueSix schrieb:
In der Praxis haben die Leute einen G-Sync (compatible) Monitor, spielen mit begrenzten fps, aktivieren DLSS, zocken vielleicht sogar auf 4K, wo die CPU dann eh größtenteils Pause hat und... und... und...

Entgegen aller Unkenrufe von wegen BOOOOAAAHHHH 600W KERNSCHMELZE!!!11 ist die RTX 4090 meine bisher leiseste und effizienteste Grafikkarte.
Die Performance ist brachial und der PC bleibt flüsterleise. Das ist echt der Hammer.

Klar, wer jetzt den ganzen lieben langen Tag, sich mit Prime95 an der Berechnung von Primzahlen beteiligen will, der sollte vielleicht mal tiefer ins Detail gehen und sich ernsthafte Gedanken über die Effizienz machen, aber für den "normalen" Heim-User spielt die theoretische maximale Leistungsaufnahme in der Praxis doch de facto keine Rolle. Weder bei CPU, noch bei GPU.
A) wird daddeln nicht das Haupteinsatzgebiet für 20 kerne und mehr sein. Ein 5800x reicht noch jahre zum daddeln bei deultich weniger stromverbrauch.
c) reicht einem normalen heim-User eine 4 kern-cpu mit 8 threads für youtube, excel und webbrowser.

viele hier glauben wirklich das daddeln mit ner 4090 und einer "ks" cpu "standard" ist.

so ne cpu braucht jemand der rendert, der adobe premiere nutzt oder eben andere avx2 business-anwendungen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: CableGuy82, cookie_dent und Cabranium
Wenn ich mal einen Schritt zurücktrete:

Ja, die CPUs (i.A.) können hohe Leistungen aufnehmen. In der Vergangenheit wurde häufig darauf geachtet, sie auch im Leistungslimit betreiben zu können. Dafür hat man dann auf Kühllösungen gesetzt / setzen müssen, die zu groß waren - also letztlich hier häufig Potenzial verschenkt.

Nun dreht(e) sich das Thema durch Weiterentwicklung um. Das Silizium wird quasi "halbautomatisch optimiert", genau dieser bisher vorhandene thermische Spielraum dabei ausgenutzt.

Die Welt dreht sich einfach ein Stück weiter. Es sollte nicht viel dagegen sprechen, die CPUs nun auch mal im Thermolimit zu betreiben. Wie das aussieht, kann man sich z.B. im Notebookbereich gut anschauen. Irgendetwas limitiert immer, halt mit unterschiedlichen Folgen. Früher hat man CPUs übertaktet und mit mehr Leistung beaufschlagt, um die Spielräume auszunutzen, heute drosselt man sie, um welche zu schaffen.

Prinzipiell kann man auch einfach die Lüfter drosseln, um den Rechner heißer, aber leiser zu machen - ohne Leistungseinbußen, wenn Spielraum vorhanden ist.

Ich will damit (etwas abstrakter) sagen: Mögliche Betriebszustände sind von diversen Faktoren abhängig. In der jüngeren Vergangenheit haben wir ein Setting verlassen, das vielen "in Fleisch und Blut" übergegangen ist. Auch Testberichte reagieren darauf, indem eine weitere Dimension (Leistungsaufnahme) in der Tiefe geöffnet wird, die bislang weniger intensiv verfolgt wurde - möglicherweise war sie kein weitläufig relevantes Limit. Der Vergleich und die Bewertung von Produkten gestaltet sich damit nun (eben in dieser Dimension und allen Faktoren, die daran hängen) eben schwieriger bzw. muss differenzierter erfolgen, weil auch der Einsatz dahingehend diverser wird.

Abrundende Zusatzbemerkung: Gerade im o.g. Notebookbereich ist das schön zu beobachten, da hier die Konfigurierbarkeit für den Endkunden stark eingeschränkt ist, der Hersteller aber tun kann, was er für richtig hält. Hier ist man auf umfangreiche Test-/Vergleichstabellen angewiesen - wohlgemerkt auf Geräteebene, nicht auf Prozessorebene. Da kann im Sinne der Überschaubarkeit nur froh sein, dass das bei großen Rechnern anders ist und die Konfigurationen deutlich stärker standardisiert und damit vergleichbar sind. Nichtsdestotrotz gibt es auch hier Faktoren, die vom konkreten System abhängig sind und hochindividuell sein können - womit wir z.B. wieder beim Eingangs erwähnten Kühlsystem sind. Die Individualisierung wird hier eben nachgelagert. Sie nimmt dem vorgelagerten Produktvergleich Komplexität weg - muss aber bei dessen individueller(!) Interpretation berücksichtigt werden.

Sich einfach nur zu beschweren, dass Powerlimits angehoben werden, wird dem allem nicht gerecht. Die Produkte müssen im Nennbetrieb (und zu mehr oder weniger schwierigen Vergleichszwecken) getestet werden, um überhaupt einmal zu sehen, was das erreichbare Maximum ist - völlig klar und legitim, da ist mMn. nichts gegen zu sagen. Die Zeiten, in denen man automatisch davon auch Gebrauch machen will, sind offensichtlich aufgrund anderer Einflüsse aber längst vorbei - eben weil dieser Faktor (Leistungsaufnahme) inzwischen andere Kriterien massiver beeinflusst und hier das Ausschöpfen von Nennwerten vor diesem Hintergrund vermehrt nicht mehr auf Platz 1 angesiedelt ist. Dem kommt ergänzend entgegen, dass wir den Betriebszustand nun einfacher austarieren als bisher - wir können deutlich simpler als früher die Wahl treffen, wo (völlig ohne Leistungssteigerung außerhalb offizieller Spezifikationen) ein Betriebspunkt liegen soll und bislang offen gebliebene Spielräume werden durch Turbo-Modi etc. weitestgehend automatisch genutzt. Auch das ist am Ende des Tages für mich ein Fortschritt.
 
  • Gefällt mir
Reaktionen: Corpus Delicti
MalWiederIch schrieb:
Phoenix sollen dann 12 Kerne im Desktop werden wenn ich mich richtig erinnere?
Ich bin mehr auf die iGPU scharf wie Harry :)
Da ich schon mit meinem 4350G Far Cry 5 in 720p ohne ruckeln zocken kann, ist die iGPU im 7640 für mich ein Quantensprung mit AV1 Unterstützung und auch mal Zocken. Ich spiele die Spiele deutlich Zeitversetzt, also wenn diese schon alt sind.
 
Steini1990 schrieb:
Ich frage mich wirklich wo beim Stromverbrauch bei den Consumer-CPUs einmal das Ende erreicht sein wird bevor es nur noch mit sehr viel Aufwand gekühlt werden kann. Mir scheint das da nicht mehr sehr viel Luft nach oben ist.
Das ist doch mitunter jetzt schon der Fall. Schau dir doch die 13700K und 13900K an. Selbst unter den Intel vorgegebenen PLs bekommst du in Cinebench und Co. schon teilweise Probleme.

Meiner Meinung nach ist das eh alles nur noch ein sinnbefreites "Was können wir maximal aus dem aktuellen Siliziumschrott rausholen" was Intel hier veranstaltet. Das ist ja aber nicht erst seit gestern so. Eigentlich schade, aber solang die Leute es mitmachen, läuft aus Companysicht halt alles nach Plan. Als AMD mit den ersten Ryzem endlich wieder qualitativ nachzog dachte ich jetz kommt endlich mal wieder was dickes von Intel.

Aber Pustekuchen. Oh ja nun haben wir E und P Cores, das war aber auch die einzige Verschlimmbesserung bisher.
 
  • Gefällt mir
Reaktionen: Anon-525334
tox1c90 schrieb:
Hier jedoch, ist die Performancesteigerung signifikant größer als die gesteigerte Leistungsaufnahme. Das ist also keine Brechstange, sondern Effizienzsteigerung. Dreht man das Powerlimit auf den Wert der Vorgängergeneration, bleibt ein deutliches Leistungsplus.
Das stimmt so nicht, wenn z.B. AMD 200% mehr Leistung bekommt mit 20% mehr Energie und Intel nun gleich ziehen will "um jeden Preis" und auch die 200% erreicht aber mit 150% mehr Energieverbrauch und dann aber fast ne Wasserkühlung benötigt oder nen Riesen Luftkühler, dann wäre das trotzdem die Brechstange.

Das Idiom sagt, man benutzt extreme Methoden (extrem stark verbrauchende Heizkörper können darunter fallen) um ein Ziel zu erreichen selbst wenn sie mehr effizient wurden.

Der Vergleich waere wie wenn du sagen wuerdest, aber die Brechstange war doch im Angebot und hab noch nen Tankgutschein dazu bekommen, aber du hast trotzdem die Brechstange benutzt.
 
MGFirewater schrieb:
A) wird daddeln nicht das Haupteinsatz für 20 kerne und mehr sein. Ein 5800x reicht noch jahre zum daddeln bei deultich weniger stromverbrauch.
Bereits der 5800X3D ist um 25% abgeschlagen im CPU Limit in dem man sich mit einer 4090 doch häufiger befindet. Kam von der 11. Generation und gerade mit DLSS, was für mehr als 60FPS mehr als mir lieb ist benötigt wird, sieht man einen deutlichen Unterschied sowohl in avg als auch 99th percentile FPS.
MGFirewater schrieb:
c) reicht einem normalen heim-User eine 4 kern-cpu mit 8 threads für youtube, excel und webbrowser.
Bestimmt?
MGFirewater schrieb:
viele hier glauben wirklich das daddeln mit ner 4090 und einer "ks" cpu "standard" ist.
Wer hat das behauptet?
MGFirewater schrieb:
so ne cpu braucht jemand der rendert, der adobe premiere nutzt oder eben andere avx2 business-anwendungen.
Der holt sich garantiert keinen KS P/L-technisch.
 
bin bei der News echt am überlegen ob ich nicht nächstes Jahr doch auf nen 13600K oder 13700 non K mit meinem DDR4 Speicher wechsle und auf nen entsprechenden Preisverfall warte
 
MGFirewater schrieb:
c) reicht einem normalen heim-User eine 4 kern-cpu mit 8 threads für youtube, excel und webbrowser.

viele hier glauben wirklich das daddeln mit ner 4090 und einer "ks" cpu "standard" ist.
Das sag ich doch immer
und ich gehöre nicht zum c) mache auch noch einfache private Bild und Video Bearbeitung ... !

Das heist dann jetzt ein Core i3 mit 4 Kernen + HT ist der Standard,
wie mein Core i3 12100F :)

frankkl
 
Aduasen schrieb:
Gefällt mir.
Ich würde aber gern bei Luftkühlung bleiben.
Dann wird mein neuer PC eher einen 14700K als einen 14900K bekommen.

eine Regression von 2 Kernen 4 gens later (bezogen auf den 10850K in Deiner Sig). Intel könnte sich keinen besseren Kunden wünschen.
 
Zuletzt bearbeitet:
frankkl schrieb:
Das sag ich doch immer
und ich gehöre nicht zum c) mache auch noch einfache private Bild und Video Bearbeitung ... !

frankkl
Gibt doch auch einen i3-13100 und somit für jeden etwas dabei?
Bei AM5 geht es mit dem 7600X los.
Ergänzung ()

Dittsche schrieb:
eine Regression von 2 Kernen 4 gens later. Intel könnte sich keinen besseren Kunden wünschen.
Welcher Vorteil versprichst du dir von 2 P-Cores mehr? 4 E-Cores haben mehr Leistung als ein P-Core - ein 14700K ist dementsprechend in Anwendungen wie auch Spielen meilenweit von einem 10850K entfernt.

Kunden die für deutliche Mehrperformance aufrüsten. Intel könnte sich keinen besseren Kunden wünschen?
 
mit diesem lauhen LAUCH-Aufguss will Intel gegen AMDs X3D Chips anstinken? ich meine die probieren es ja nicht mal. Fehlt noch der Sockelwechsel. Diese 3-5. klassigen Produkte sind was fürs Grabbelregal. Wo sind wir jetzt? 10nm+++++++++++++++++++++++++++++++++++++++++ oder "Intel 7" da gackern ja die Hühner....
 
  • Gefällt mir
Reaktionen: Anon-525334 und HaRdWar§FreSseR
Dittsche schrieb:
mit diesem lauhen LAUCH-Aufguss will Intel gegen AMDs X3D Chips anstinken? ich meine die probieren es ja nicht mal. Fehlt noch der Sockelwechsel. Diese 3-5. klassigen Produkte sind was fürs Grabbelregal. Wo sind wir jetzt? 10nm+++++++++++++++++++++++++++++++++++++++++ oder "Intel 7" da gackern ja die Hühner....
Das hast du aber mitbekommen?:

Insgesamt war der Umsatz bei Intel nur leicht geringer. Ganz im Gegenteil bei AMD: Hier war das Minus sehr deutlich, Ryzen-Prozessoren verkauften sich extrem schlecht. Der daraus resultierende Rückgang beim Marktanteil ist deshalb keine Überraschung.
https://www.computerbase.de/2023-08...rkt-schrumpft-und-waechst-auf-kosten-von-amd/

3% vorne sein in Spielen ist nicht alles, haben wir das mit AM4 nicht gelernt? Gerade bei nich geringeren Unterschieden in der Leistung wie heute zählt P/L und da ist ein 500€ UVP 8-Kerner mit der Rohleistung eines i5 nicht wirklich angebracht …
 
  • Gefällt mir
Reaktionen: MrHeisenberg und HaRdWar§FreSseR
Was Intel da abzieht, ist einfach nur noch lächerlich, ich werde jetzt nach Jahren Intel-nutzung wieder auf AMD wechseln, mein letzter AMD Prozessor war ein Phenom x2.
Mal sehen, ob es ein 7800x3D oder doch der 7900xd3D wird einen passenden Untersatz (ROG Strix X670E-A Gaming) WiFi habe ich eben nach dieser Nachricht bestellt.
 
  • Gefällt mir
Reaktionen: Anon-525334 und Dittsche
Klar sind 260W bei 100% Dauervolllast im endlosen Turbomodus bei 5.5GHz schon ordentlich. Doch wer lastet das schon dauerhaft so aus? Mich würde mehr interessieren wie es bei idle oder 30-40% aussieht.
 
cb-leser schrieb:
Abrundende Zusatzbemerkung: Gerade im o.g. Notebookbereich ist das schön zu beobachten, da hier die Konfigurierbarkeit für den Endkunden stark eingeschränkt ist, der Hersteller aber tun kann, was er für richtig hält. Hier ist man auf umfangreiche Test-/Vergleichstabellen angewiesen - wohlgemerkt auf Geräteebene, nicht auf Prozessorebene. Da kann im Sinne der Überschaubarkeit nur froh sein, dass das bei großen Rechnern anders ist und die Konfigurationen deutlich stärker standardisiert und damit vergleichbar sind.
Schöne Wall of Text und dazu die prägnante "Zusatz"-Bemerkung. Danke. Gibt es noch andere Ebenen? Soundkarten- oder Grafikkartenebene? Ich dachte bisher, dass Geräteebene alle Geräte abdeckt.
 
Irgendwie nichts neues an der intel Front....bissle mehr MC Leistung für mehr Verbrauch. Wow.
Und nur weil jetzt aber der Stromverbrauch minimal effizienter wurde, heißt das nicht dass das absolut effizient ist :D das vergessen hier wohl manche ganz gerne...

Und weil viele sagen sie möchten die beste Gaming CPU....naja so ein 14700k wird in games wohl max. 3-5% schneller als der 13700k. Aber wegen den aufgestockten E-Cores auch stromhungriger....
7800X3D (~60W) vs 14700K (~120W-130W?; 13700K ca ~110W).
Ist halt mal nur halb so effizient wie der dann dennoch schnellere 7800X3D.

Aber ja, man kann sich die CPU dann natürlich dennoch schön reden, weil die Intel Gamer ja dann plötzlich alle E-Cores.ohne Ende brauchen....für ihr Gewissen :p

Naja, Zen5 wirds richten und dann muss ARL zeigen was der kann.
Bis dahin wird alles grob beim alten bekannten bleiben.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Dittsche, HaRdWar§FreSseR und Verak Drezzt
MalWiederIch schrieb:
weshalb stören dich die 0,008€ Mehrkosten je Stunde

Wie kommst Du darauf, dass es mir im besonderen um das bisschen Strompreis ginge?

Es geht um Effizienz, das Ding sinnvoll zu kühlen, leise zu halten. Und vor allem darum, nicht sinnlos Energie zu verprassen, der Umwelt zu Liebe. In der heutigen Zeit ist das ein Unding.

Auch abseits der X3D CPUs macht AMD die deutlich bessere Figur beim Stromverbrauch und bei der Abwärme.
 
  • Gefällt mir
Reaktionen: CableGuy82, Schokolade, Anon-525334 und 4 andere
HaRdWar§FreSseR schrieb:
Was Intel da abzieht, ist einfach nur noch lächerlich, ich werde jetzt nach Jahren Intel-nutzung wieder auf AMD wechseln, mein letzter AMD Prozessor war ein Phenom x2.
Mal sehen, ob es ein 7800x3D oder doch der 7900xd3D wird einen passenden Untersatz (ROG Strix X670E-A Gaming) WiFi habe ich eben nach dieser Nachricht bestellt.
Die Tests zum 7900X3D hast du aber gelesen?
400€+ für die Leistung eines i5 auszugeben für 3% mehr in Spielen würde ich mir auch sehr genau überlegen … 0,008€ sparen im CPU Limit sind da auch nicht wirklich das Argument bei 10% Mehrkosten in der Anschaffung …
 
Kilikicker schrieb:
4,2% mehr Singlecore-Performance bei einem Taktanstieg von 3,8% finde ich dann doch überraschend.
Die Kunst ist es ja bei weniger Verbrauch mehr zu leisten, so kann das jeder machen wie Intel.
 
MalWiederIch schrieb:
der nicht nur 10% günstiger, sondern auch 50% mehr Rohleistung bietet
Ich hab für meinen x3D durch eine Gutschrift lediglich 370 gezahlt.

Und die 50% mehr Rohleistung: wo wird diese in mehr Leistung umgewandelt?
Also abseits Produkt genutzter Software?

Ggfs. Kenne ich nicht die richtigen Benchmarks.
Aber beide liegen recht nah beieinander mit Vorteilen für den x3d?

Ja natürlich hat der 13700 eine etwas bessere IPC und mehr (Atom) Kerne.
 
  • Gefällt mir
Reaktionen: HaRdWar§FreSseR
Zurück
Oben