News Intel Core i7-14700K: Für bis zu 21 % mehr Leistung benötigt man 13 % mehr Energie

  • Gefällt mir
Reaktionen: Syrato
lynxx83 schrieb:
ich musste schmunzeln, @Volker & @SVΞN und eure gewählten Überschriften zum gleichen Thema heute,
hier auf CB und drüben bei pcgh... so unterschiedlich, und doch irgendwie.. richtig.. hattet ihr euch abgesprochen? ;)
Das ist der Volker Intel bias von dem ich spreche 😀
 
Ich verstehe das ganze Gemecker nicht.Wer Leistung und Sparsamkeit haben will,kann sich
doch z.B. den 13900t kaufen.Für die Anzahl Kerne und Rechenleistung sind doch 35-60 W
optimal.Die CPU natürlich mit einer 4090 zu betreiben verbietet sich dann wohl.Aber kann
man ja trotzdem machen.
 
  • Gefällt mir
Reaktionen: Kandalfus
Garack schrieb:
Ich hab ne 4090 die ist sweet im spot, säuft so 250 W im mittel aller games bisher
Meine 4090 lass ich sogar auf 200W laufen jetzt im Sommer. Leistungsverlust etwa 10% zu @stock. Dafür bleibt sie ruhig in jeder Lebenslage
Ergänzung ()

Xedos99 schrieb:
Ich verstehe das ganze Gemecker nicht.Wer Leistung und Sparsamkeit haben will,kann sich
doch z.B. den 13900t kaufen.Für die Anzahl Kerne und Rechenleistung sind doch 35-60 W
optimal.Die CPU natürlich mit einer 4090 zu betreiben verbietet sich dann wohl.Aber kann
man ja trotzdem machen.
Siehe mein Post. Ein besseres Perf/Watt Verhältnis bekommt man höchstens mit einer 4070 noch hin. Stromverbrauch in Euro ist mir da relativ, ich will das die Kiste leise bleibt. Eine 200-250W CPU wird aber selbst mit nem großen noctua nicht wirklich leise. Aber man kann es ja nach eigenem Gusto einstellen, von daher ganz entspannt. Intel hat gerade gute Konkurrenzfähigke CPUs. Ist doch auch wieder schön.
 
Also refresh des refreshes des refrehes vom 12er.

Für AMD (AM4 3D + AM5 er) Benutzer also nicht mal ein bischen interessant.:D
Hätte wieder gerne was neues von Intel gesehen, zumindest mehr PCI lanes, aber das wird wohl nur mehr bei sau teurer Hardware (Server, HEDT).

Ich bin auf AM5 hauptsächlich wegen der NVMes (4x drin) und des Stromverbrauches gewechselt, da hat AMD noch immer die modernere Hardware im Programm.
 
  • Gefällt mir
Reaktionen: ComputerJunge
Richtig interessant wäre ein Benchmark mit festgepinnter Leistung auf verschiedenen Stufen, also alle aktuellen (und ein paar ältere als Referenz) CPUs bei sagen wir 35,65, 100, 150 und 200 Watt.

Und das dann als Kurvenschar dargestellt.
 
  • Gefällt mir
Reaktionen: Anon-525334, vascos und Wintermute
Xedos99 schrieb:
Ich verstehe das ganze Gemecker nicht.Wer Leistung und Sparsamkeit haben will,kann sich
doch z.B. den 13900t kaufen...
Einmal T Cpu im Desktop gehabt, wegen "Stromsparens", NIE wieder !
Ja, war wie viele Tests bewiesen haben, eine Intel Lüge.

Da wurde nur der Höchsttakt beschnitten und meine35W CPU durfte 110W ziehen....
 
wern001 schrieb:
Stromverbrauch ist den Herstellern doch total egal! Hauptsache mehr Performance um jeden Preis. Wie das ganze absurd geworden ist, sieht man am besten bei den Grafikkarten
Wir sind wieder in den Vor-Zen-Zeiten angekommen.
Intel erhöht nir noch Marginal und steigert den Verbrauch ins unermessliche, das können sie seit Pentium 4 ja gelernt haben.

Die Frage ist ob AMD es ist die die nächste Iteration wieder starten? Wieder von den mobilen Ablegern lernen und effizienter werden?

Wo ist der Zen Entwickler gerade? Der spielt ja gerne den Architektur Messias. Ich glaub der hat schon Jahre voraus seine Architekturen geplant bis zur Rente und kassiert von beiden Seiten 😁.
Aktuell war er ja bei Intel richtog?
 
Für alle die einen 14700K gespechtet haben vermutlich super. Alle anderen bekommen wie erwartet nix wirklich geboten. Kann man auch seinen 13900K(S) um 0,2Ghz pimpen und hat dasselbe, evtl. bei 10-20W mehr Verbrauch.

Irgendwie nicht spannend, aber alles im Rahmen dessen was bisher bekannt war. Egal, diesen Herbst wird eh alles von Apple das spannendste Zeug, da dürfte ne Menge neuer Kram kommen und nächstes Jahr im Sommer dann Zen 5. Bis dahin nix neues an der Front. :D
 
RogueSix schrieb:
Das war mit Abstand die lauteste Komponente, aber seit ich das ASUS Netzteil drin habe... ein Traum.
Und da kommen wir langsam zum Kern des Pudels. Mit einem großen Gehäuse und guten Airflow kriegst Du Deine 4090 und den 13900K ganz sicher gekühlt. Aber miss mal den Energieverbrauch an der Steckdose, kann ja das ganze System sein. Wenn Du die CPU und die 4090 nicht einbremst, zieht der Rechner kurzzeitig bestimmt 800 W. Und dadurch wird es schön warm.

Ja, die 4090 leistet bei 180 W Verbrauch mehr in 4K als die 4070, das habe ich schon verstanden. Aber wie gesagt: Im Default Modus heizen Deine Komponenten ordentlich. Ich würde die 4090 von der Größe her auch gar nicht in mein ITX System kriegen. Und mein 650 W Netzteil will ich auch noch nicht tauschen.

Ich gönne Dir die Hardware sehr, für mich ist das aber nichts mehr. Insgesamt zu teuer, dann begnüge ich mich in 4K lieber mit hohen Details statt Ultra und eben nur 40 FPS mit dem einen oder anderen kleinen Ruckler.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: vascos und Wintermute
Ich zieh sicher 800W an der Steckdose aber mit 2 Monitoren + anderen Krempel^^
 

Anhänge

  • Unbenannt.png
    Unbenannt.png
    167,7 KB · Aufrufe: 126
user_zero schrieb:
Den Hebel holst Du auch an anderer Stelle. Alleine eine Frame Limiter, um in der Gsync Range zu bleiben + DLSS knallen den Verbrauch nach unten.

Was die reinen CPUs angeht, bleibe ich bei meiner Aussage. Bei Intel die Vcore adaptiv anpassen und die LLC anpassen. Schwupps stehen da ca. 30W weniger auf der Uhr unter Last.

Intel spielt das hier seit Jahrzehnten sehr sicher. Daher die hohen Spannungen und der Verbrauch.

Wenn Intel den Verbrauch um 60W unter Last reduzieren könnte (ggf. den Takt reduzieren) dafür mehr L2 und L3 Cache verbauen würde, hätte AMD richtig schnell ein echtes Problem.

Vom Ansatz her finde ich j big.little echt spannend und gerade im Multicore extrem gut skalierbar.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: BorstiNumberOne und Wintermute
ddoren schrieb:
Die Liefern beide, wenn es ums Zocken geht
Je nach Spiel aber unterschiedlich performant bei unterschiedlicher Effizienz. Und das entfacht nicht nur Fanboy Diskussionen sondern eben auch technische fachliche Kontroversen.
 
Also 21% im Best Case wenn die E Cores relevant sind. Ansonsten sprechen wir hier wohl eher von 3-5%. Sehe ich persönlich eher ernüchternd. Abseits von extremen Mehr-Kern Szenarien.
 
  • Gefällt mir
Reaktionen: CableGuy82 und HaRdWar§FreSseR
Kaufe demnächst eh keine Intel CPUs mehr...
 
Simanova schrieb:
So richtig verstehe ich Intels Ansatz nicht. Wenn man viel Leistung / Watt will, reduziert man den Takt und fügt weitere Kerne hinzu. Das wäre dann optimal für Workstations.
Du hastebs doch erkannt. Was fehlt zum Verständnis?

Simanova schrieb:
Wenn Intel eine Gaming CPU will, dann muss maximaler Takt auf 8 Kernen und ein großer Cache her. Kein Mensch braucht 16 E-Cores für Gaming. Völliger Schwachsinn - da würden 4 E-Cores dicke ausreichen.
Will Intel nicht. Sie wollen eine Allround-CPU. Und das haben sie. Mehr als 8 Kerne nutzt kaum ein Spiel sinnvoll aus.
Simanova schrieb:
PS: Und wieder nur 32MB Cache im Top Modell.
L3? Sind 36 MB.
Es ist das gleiche Silicon. Natürlich wird es dann beim Topmodell keine Änderung geben.
 
  • Gefällt mir
Reaktionen: ThirdLife
Taurus104 schrieb:
Also 21% im Best Case wenn die E Cores relevant sind. Ansonsten sprechen wir hier wohl eher von 3-5%. Sehe ich persönlich eher ernüchternd. Abseits von extremen Mehr-Kern Szenarien.
Und... Da reicht ein 7950x @142 Watt im Eco Mode, um im multicore auf Augenhöhe zu sein...
 

Anhänge

  • Screenshot_20230813-175532.png
    Screenshot_20230813-175532.png
    348,7 KB · Aufrufe: 134
  • Gefällt mir
Reaktionen: CableGuy82, HierGibtsNichts und HaRdWar§FreSseR
iNFECTED_pHILZ schrieb:
Das ist der Volker Intel bias von dem ich spreche 😀
Da ist der Bias wohl eher bei Sven. Die 30 W sind der Unterschied unter Vollast und nicht Single Thread. Die Überschrift ist also komplett falsch. Typischer clickbait.
 
  • Gefällt mir
Reaktionen: Philste
Kann mir einer sagen, welche Veränderung Besserung der Core i9-14900K hat, ich werde nicht schlau aus dem Prozessor. Haben die einfach den Namen veränder oder mehr.
 
Zurück
Oben