News Intel Core i7-14700K: Für bis zu 21 % mehr Leistung benötigt man 13 % mehr Energie

lynxx83 schrieb:
ich musste schmunzeln, @Volker & @SVΞN und eure gewählten Überschriften zum gleichen Thema heute,
hier auf CB und drüben bei pcgh... so unterschiedlich, und doch irgendwie.. richtig.. hattet ihr euch abgesprochen? ;)
Sowas haben @Volker und ich noch nie getan. :D

Ich habe aber bei ihm gelernt. ;)

Liebe Grüße Sven
 
  • Gefällt mir
Reaktionen: Alesis
Termy schrieb:
Der Verbrauch ist halt schon einfach übel - vor allem, wenn man bedenkt, dass der 14700 ja nichtmal das Topmodell ist und vor allem allem, wenn man 5800x3D bzw 7xx0x3D zum Vergleich ranzieht...

Ich würde mir wirklich wünschen, dass alle (Intel, AMD abseits x3D, NVidia) ihre Produkte mehr im Sweetspot betreiben würden als nur nach dem längsten Balken zu streben...
Ich hab ne 4090 die ist sweet im spot, säuft so 250 W im mittel aller games bisher
 
Ich bin dann mal gespannt, ob es auch einen Nachfolger zum i3-13100 geben wird.
 
RogueSix schrieb:
Genau das ist, wie ich geschrieben habe, zumindest bei der RTX 4090 eben NICHT der Fall :) . Da heizt nichts "die Hütte" auf. Die RTX 4090 hat wie alle GPUs ein Temperaturlimit, wo dann eh Ende wäre, aber außer mit FurMark o.ä. kommst Du da nie hin.

In normalen Spielen ist die RTX 4090 im Gegenteil wegen ihres brachialen Potentials viel kühler als die meisten Grafikkarten, weil sie sich schlicht und ergreifend langweilt und weil das Kühlsystem ebenso fast schon überdimensioniert ist.
Es muss schon sehr viel passieren bis die RTX 4090 mal Richtung 80°C marschiert. Und dabei nutze ich das "Silent BIOS" meiner Grafikkarte, also meine Karte darf auf Kosten der Lautstärke heißer werden und sie wird trotzdem nie wirklich heiß.
Er schreibt von Hütte aufheizen und du davon dass deine Hardware kühl ist, weil die Kühler der 4000er Generation so groß sind. Das sind ja zwei unterschiedliche Themen, der Rechner gibt die Wärme an das Zimmer ab, heizt also die Hütte auf. Im Sommer ist das halt nicht geil wenn man die Hütte aufgeheizt hat, auch wenn die Hardware kühl bleibt weil die Kühlung gut ist. Es ist also DOCH der Fall.
 
  • Gefällt mir
Reaktionen: TheManneken und Kandalfus
wern001 schrieb:
das erstellen der Miniaturansicht läuft nur auf einem Kern
Wirklich? Das schockiert mich jetzt. Ist ja nicht so als hätten wir schon seit 2006 Multi-Core Prozessoren im Consumermarkt. Da merkt man das Microsoft sich nicht einmal mehr bemüht.
 
BrollyLSSJ schrieb:
Ich bin dann mal gespannt, ob es auch einen Nachfolger zum i3-13100 geben wird.
Steht doch im Artikel. 200MHz mehr Turbo-Takt.
 
Werbung für "Stromfressende CPU's" ; ???????????????????????? Hier sollte man sich seinen Teil über den "Zweck" denken
 
  • Gefällt mir
Reaktionen: HaRdWar§FreSseR
Steini1990 schrieb:
Wirklich? Das schockiert mich jetzt. Ist ja nicht so als hätten wir schon seit 2006 Multi-Core Prozessoren im Consumermarkt. Da merkt man das Microsoft sich nicht einmal mehr bemüht.

bei kleinen Bildern fällt das nicht auf, aber wenn man jpgs mit 10-30 mb hat ist das laden arsch laaaangsaaaamm.
Auch das Windows eingebaute zip läuft lief ewig nur auf einem Kern
Ebenfalls laufen viele Illustrator und Photoshop Funktionen nur auf einem Kern
 
Interessant könnte vllt. noch der 14500 werden, sollte dieser ein Update auf den alten Raptorlake + 200MHz bekommen. Dann wäre der Abstand zum 14400 noch ein stück grösser beim Takt und bei entsprechendem Preis vllt. ein guter Einstieg.
 
@Pro_Bro

Interessant, dass Du besser weißt als ich, was in meiner "Hütte" so los ist und wie aufgeheizt die ist :D .

Im Übrigen kann ich Deiner Logik nicht folgen. Kühlere Komponenten bedeuten natürlich weniger Abwärme, die dann über die Lüfter nach draußen gepustet wird.
Dank RTX 4090 bleibt die Temperatur in vielen Spielen deutlich unter 70°C. Oft komme ich nicht mal oder nur so gerade eben aus dem Zero Fan Mode raus, z.B. bei AC Valhalla oder Diablo IV mit allem auf max/ultra.

Mein jetziges System ist auf jeden Fall viel kühler und produziert viel weniger Abwärme als mein vorheriger i9-9900K mit RTX 3090. Das lag u.a. aber auch am Gehäuse. Das vorherige gedämmte beQuiet DarkBase 900 war ein Backofen.
Beim LianLi habe ich mir das Front Mesh Kit dazu geholt. Ich habe zwei 140er Frontlüfter und zwei 140er im Boden plus zwei 140er im Deckel und einen 120er hinten raus plus natürlich noch die drei 120er von der AiO zur Seite raus. Für (leisen) Airflow ist also gesorgt.
 
RogueSix schrieb:
Im Übrigen kann ich Deiner Logik nicht folgen. Kühlere Komponenten bedeuten natürlich weniger Abwärme, die dann über die Lüfter nach draußen gepustet wird.
Da bist du aber mal fett auf dem Holzweg! Jede RTX 4090 GPU hat dieselbe Verlustleistung an Wärme! Und wenn ich einen dicken Kühler drauf mache dann habe ich einen kühlen Chip, aber nur weil die Wärme über den Kühler an die Umgebung weiter geleitet wird!
Das gibt dann schon durchaus Sinn mit geheizter Bude und so!
 
  • Gefällt mir
Reaktionen: Pro_Bro, catch 22 und Kandalfus
Schade, dass es Intel einfach nicht schafft, die Leistungsaufnahme zu reduzieren. So, wie in alten Zeiten, beispielsweise beim i7-4790K , der war das Topmodell, hatte eine niedrigere TDP (88 Watt) als heute üblich (>250 Watt) und hat sie auch eingehalten.

Eigentlich hätte ich gedacht, dass zu dem Zeitpunkt, als Intel endlich (!) vom 14nm Prozeß weitergegangen ist, dass nun auch die Leistungsaufnahme wieder unter Kontrolle kommt, aber das Ergebnis kennt hier ja jeder. Falsch gedacht :(

Aber vielleicht ist es gerade auch gar nicht Intels Ziel, die TDP wieder deutlich zu reduzieren?
 
Naja, nen 4790K kann man da auch schlecht vergleichen, 4C/8T sind halt kein Vergleich mit der Menge an Kernen heute und Taktfrequenzen von jenseits der 5Ghz. Zu mal es damals es bei Intel auch gar nicht für nötig hielt jahrelang mehr als 4 Kerner zu entwickeln, nachdem AMD lange keine Konkurrenz war nach dem Bulldozer Desaster! Wenn ich überlege das AMD mit dem Phenom 2 1090T , Jahre vor Intel einen 6 Kerner hatte!
 
  • Gefällt mir
Reaktionen: Kandalfus
Faust2011 schrieb:
Schade, dass es Intel einfach nicht schafft, die Leistungsaufnahme zu reduzieren. So, wie in alten Zeiten, beispielsweise beim i7-4790K , der war das Topmodell, hatte eine niedrigere TDP (88 Watt) als heute üblich (>250 Watt) und hat sie auch eingehalten.

Eigentlich hätte ich gedacht, dass zu dem Zeitpunkt, als Intel endlich (!) vom 14nm Prozeß weitergegangen ist, dass nun auch die Leistungsaufnahme wieder unter Kontrolle kommt, aber das Ergebnis kennt hier ja jeder. Falsch gedacht :(

Aber vielleicht ist es gerade auch gar nicht Intels Ziel, die TDP wieder deutlich zu reduzieren?
Das waren eben auch nur 4 Kerne. Haswell-E brachte es mit X99 auf 8 Kerne und 140 Watt. Dafür war aber auch der Takt wesentlich niedriger. Was macht man also? Übertakten! Ich habe z.B. diese Woche noch günstig vom 5820k auf einen 5960X gewechselt. 3 GHz Basis und 3,5 GHz max. Boost. Da das natürlich etwas dünn ist, darf er bei mir bis 4,3 GHz auf allen Kernen takten (ähnlich wie der 4790k). Da gönnt er sich aber auch 280 Watt in Prime95. Die Leistung bekommt man nunmal nicht geschenkt.
 
Hallo zusammen

In meinem Rechner werkelt derzeit ein i9-13900KS. Ist mittlerweile etwas näheres bekannt, ob der i9-14900K einen optimierten Memory Controller besitzt. Diverse Beiträge deuten zwar darauf hin, aber offiziell ist ja noch nichts. Wäre schön, falls ich meine G.Skill 7800 (oder die G.Skill 8000er) mit maximalem Takt einsetzen könnte. Derzeit laufen sie auf meinem ASUS-Brett mit 7200MHz und XMP Tweaked, was nochmals den Speicherdurchsatz um rund 16.5% erhöht.

cachemem3.png


Gruss
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: t3chn0
Kandalfus schrieb:
Das waren eben auch nur 4 Kerne. Haswell-E brachte es mit X99 auf 8 Kerne und 140 Watt. Dafür war aber auch der Takt wesentlich niedriger. Was macht man also? Übertakten!
Ja, ich kenn die Geschichte mit dem Haswell-E, den hatte ich selbst auch. Zu der Zeit damals gab es noch das "Enthusiast Segment". Das waren allerdings nur die aufgeblasenen Mainstream-CPUs, insbesondere der Memory-Controller (Quad-Channel for the win! :D). Damit hatte man zwar massig Leistung, aber die Architektur war weder neu noch besonders auf Effizienz getrimmt.

AMD hat aus meiner Sicht bzgl. Effizienz weiterhin das bessere Produkt. Intel muss da die Kurve kriegen. Das big.LITTLE Konzept man ein Schritt in die richtige Richtung sein, aber am Ziel ist Intel damit (noch) nicht.
 
Wird eine Wasser Kühlung mitgeliefert? Wann Designen sie ein neues Layout anstatt immer mehr Strom reinzupumpen?
 
HyperSnap schrieb:
Lächerlich finde Ich immer diese Aussagen und dann ne 3090 oder 4090 im System haben.
Kann man super undervolten. Ist sehr effizient!
Ich bin auf die Tests gespannt, wie warm die Dinger werden usw..
Ergänzung ()

minimii schrieb:
Ich geb mal meinen x3D streicheln.

Für reines Gaming In Sachen Effizienz ein Traum.
Teilweise nur 50-60W Verbrauch.
Und schön geköpft, so kühl!
Wie warm werden 13700/13900, wenn man die köpft?
 
So richtig verstehe ich Intels Ansatz nicht. Wenn man viel Leistung / Watt will, reduziert man den Takt und fügt weitere Kerne hinzu. Das wäre dann optimal für Workstations.

Wenn Intel eine Gaming CPU will, dann muss maximaler Takt auf 8 Kernen und ein großer Cache her. Kein Mensch braucht 16 E-Cores für Gaming. Völliger Schwachsinn - da würden 4 E-Cores dicke ausreichen.

PS: Und wieder nur 32MB Cache im Top Modell.
 
Zurück
Oben