i9 14900K als Upgrade vom i9 12900K Hitzeentwicklung Powerlimit - Adaptive+Offset

derfernseher schrieb:
Nun frage ich mich, ob der i9 14900K nicht auch so zu bändigen ist? Er ist doch mehr oder weniger ein verkappter i9 13900KS, daher kann vielleicht jemand auch aus Erfahrung sprechen, ob die CPU bei reinem 4K Gaming, wirklich ins Thermal Throtteling kommt (evtl. sogar das Powerlimit höher gesetzt werden muss?) oder doch ihre Power ausfahren kann?
Ja geht. Hardwareluxx hat die Cpu mit reduziertem Powerlimit in Spielen getestet und die Ergebnisse sprechen für sich. Man sieht schön wie der 14900K sich abmüht, dabei massiv Strom verbrennt und im Endeffekt quasi nichts dabei rum kommt. Gemessen wurden dort maximal 210W, wenn die Cpu "offen" ist.

Wenn man sich jetzt mal zu Gemüte führt, das bei 90W Powertarget 126fps anliegen, bei 210W aber nur 150fps... Also +20% fps bei +130% Leistungsaufnahme... Der einzige Grund das zu fahren wären die min. FPS von 110. Die erreicht man aber auch bereits bei 125W Powertarget. Die Cpu komplett von der Leine zu lassen macht halt null Sinn.

1697610650649.png


https://www.hardwareluxx.de/index.php/artikel/hardware/prozessoren/62079-der-raptor-brüllt-erneut-core-i5-14600k,-core-i7-14700k-und-core-i9-14900k-im-test.html?start=17
 
  • Gefällt mir
Reaktionen: derfernseher, danyundsahne und sebbolein
Drewkev schrieb:
@.Sentinel.
Was hat denn nun der Cinebench damit zu tun? Die 341 Punkte kann man ja schon als Messtoleranz zählen.
Er ist ein Indikator für die nachwievor mit wichtigste Stellgröße im Gaming. Singlecore- Leistung.
Und nein- Das ist variierend nach Messmethodik keine Messtoleranz...

Du hast in Game- Engines oftmals "stalls", die am Renderprozess hängen. Wenn der Renderprozess die anderen Worker wegen Überlastung nicht mehr synchronisieren kann, dann hast Du über alle genutzten Kerne hinweg ein Absacken der Leistung. Oftmals rühren daher die gefüchteten Dips, da sich eine Kaskade an Wartezyklen aufbauen kann, bis alle Threads wieder "eingefangen" sind.
Bei Jedi Survivor 2 und allen anderen modernen Titeln, die mit Stutter zu kämpfen haben, tauchten die Dips bei Release nicht deshalb auf, weil die 7900XTX oder die 4090 nicht genug shader- Leistung liefern hätten können....
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: derfernseher
@.Sentinel. ach Single Core Leistung = FPS speziell in 4K ? nein

P.S. 14900k vs 13900k .... gib dem ganzen 1 % mehr an Leistung und gut ist.

 
derfernseher schrieb:
ich interessiere mich für den ‚Hitzkopf‘ i9 14900K. Es geht mir um den Einsatz im Gaming mit meiner 4090 RTX und das bei 4K!
Da ist der 14900K die dafür (ich muss es leider so sagen) dümmste Idee die man kaufen kann.
Mag für Starfield zwar am besten sein, aber sonst lohnt sich das Ding nicht die Bohne.

Einen optimierten 13700K kann ich persönlich gerade noch so empfehlen, alles da drüber ist einfach zu viel.
Da kann man besser AMD nehmen.
 
derfernseher schrieb:
Adaptive+Offset (-0.140) benutzt habe inklusive Powerlimitreduzierung (P1=125/P2=170).
Mit den Einstellungen hättest du das auch mit dem Noctua geschafft.
 
xxMuahdibxx schrieb:
@.Sentinel. ach Single Core Leistung = FPS speziell in 4K ? nein

P.S. 14900k vs 13900k .... gib dem ganzen 1 % mehr an Leistung und gut ist.

Die ersten Sekunden in Deinem Video zeigen genau das INSTANT auf:
1697611413060.png


Schau Dir die Perzentile an und die Spikes, die Du bei 9900K und 10900K noch hast und die erst ab dem 12900K verschwinden....

Es geht hier, wie sonst auch immer um die eigenen Ansprüche und man muss halt wissen, ob einem eine Glättung den doch stattlichen Betrag wert ist.
Was aber definitiv heutzutage nicht mehr der Fall ist ist, dass für extreme Dips, Framepacing Probleme und Stutter die GPU alleinig verantwortlich wäre.
 
  • Gefällt mir
Reaktionen: derfernseher
.Sentinel. schrieb:
Schau Dir die Perzentile an und die Spikes, die Du bei 9900K und 10900K noch hast und die erst ab dem 12900K verschwinden....

den der TE ja hat und somit HEY reicht.

P.S. Vollzitate bei der Anzahl an posts ... sorry unverständlich.
 
xxMuahdibxx schrieb:
den der TE ja hat und somit HEY reicht.
Das kann letztendlich nur der Threadersteller wissen, ob es ihm das Wert ist dort eben weniger Schnell in kommenden Titeln in Grenzen zu laufen.
Das Video habe ich ins Zitat (2 Sätze!) aus Gründen des Bezugs absichtlich mit reingenommen.

Ich widerspreche nur den Aussagen, dass die CPU bei 4K sowieso eine untergeordnete Rolle spielen würde, wie ich es in letzter Zeit leider öfter lesen muss.
Das ist gerade im Hinblick auf moderne Engines einfach falsch. Ob jetzt der Sprung von 12900K auf 14900K alles rausreisst oder die unterschiede bringt, die sich der Threadersteller hier erhofft, steht auf einem anderen Blatt.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: derfernseher
Wart mal noch etwas, vielleicht kommt ja ein 14900ks. ^^
 
  • Gefällt mir
Reaktionen: danyundsahne
Ich stelle mich hier mal auf die Seite von Sentinel. Am Beispiel Starfield habe ich folgende Erfahrungen.
Ich spiele mit einer 4090 TUF, einem 12700F in einer Auflösung von 7680x2160. Und ja, die GPU ist immer guuut ausgelastet, die CPU läuft aber auch bei rund 70%. Wenn es zu Rucklern kommt, denn rutscht die GPU Last etwas (ca. 60-70%), dafür springt die CPU weiter hoch 90%+.

Ich für meinen Teil warte mal noch ab bis die non-K Varianten kommen und werde dann sicher auch auf die 14er Generation wechseln, ob dann K oder non-K hängt dann vermutlich vom Preis ab.


Rein vom Gefühl her versucht man hier gerade Intel zu bashen in Form von "sind ja nur paar % mehr Leistung", auf der anderen Seite werden die AMx Sockel geheiligt, weil hier mehr CPUs unterstützt werden. Die aber jeweils generationübergreifend auch immer nur ein paar % mehr Leistung haben (gut die AMD 5000 hatten einen grösseren Sprung) --- Why?
 
  • Gefällt mir
Reaktionen: derfernseher und .Sentinel.
@Geisterwolf auch darüber nachgedacht das die CPU vom TE auch schneller ist und somit das was bei dir passiert bei ihm nicht soo gravierend sein wird ?
 
Geisterwolf schrieb:
...habe ich folgende Erfahrungen...
Meine Erfahrung (also das was ich tatsächlich sehe und spüre wenn ich selbst spiele) sagt, dass des 12700 mit Starfield in meiner grossen Auflösung ziemlich überfordert ist.
Du darfst gerne vorbeikommen und dir das anschauen. Du darfst dann gerne Tests machen und publizieren. Mich interessiert nur das flüssige Gaming und kann das ablesen was HWInfo und Task Manager auswerfen, in dem Zeitpunkt wenn es nicht flüssig ist.
(Mit meinem anderen Hauptspiel World of Tanks langweilt sich selbst ein 12100)

Ja, ich kann auch nicht untermauern, dass es bei mir mit einer 14700 besser wird, aber mit dem 12700 wird es sicher nicht besser, weil was soll besser werden, wenn man nichts macht?

Muhadib, jein. Er schreibt ja nur 4K. Ich selbst sehe mich aber nicht befähigt in wie fern es sich unterscheidet ob er mit 60Hz, 1440Hz oder 300Hz spielt. Das wird wohl grösstenteils die GPU mehr belasten, mehr Last auf GPU zieht im Grunde auch mehr Last auf CPU nach sich.
 
  • Gefällt mir
Reaktionen: derfernseher
.Sentinel. schrieb:
Ich widerspreche nur den Aussagen, dass die CPU bei 4K sowieso eine untergeordnete Rolle spielen würde
Die Aussage wurde nur in der Form nie wirklich getroffen. Es wurde ausgesagt, dass ein Upgrade vom 12900K auf den 14900K in 4k relativ unsinnig ist, weil gerade mal ein Unterschied im Bereich der Messtoleranz raus kommt.

Geisterwolf schrieb:
Ich spiele mit einer 4090 TUF, einem 12700F in einer Auflösung von 7680x2160. Und ja, die GPU ist immer guuut ausgelastet, die CPU läuft aber auch bei rund 70%. Wenn es zu Rucklern kommt, denn rutscht die GPU Last etwas (ca. 60-70%), dafür springt die CPU weiter hoch 90%+.
Auch hier wäre der Mehrwert durch das Upgrade sehr überschaubar. Aber ja, solche konkreten Ruckler lassen sich dadurch vermutlich schon etwas reduzieren. Gerade von einem 12700 auf einen 14700 wird sich vermutlich aber auch mehr tun als von einem 12900K auf einen 14900K.
Da bleibt dann nur die Frage, ob das Upgrade einem das Geld wert ist. In deinem Fall ist wahrscheinlich mehr spürbare Leistung als im Falle des TEs zu erwarten. Und das für ~300 € kann dann schon i. O. gehen.
Aber keine irgendwie spürbare Mehrleistung für über 500 €?
 
  • Gefällt mir
Reaktionen: Gagapa
Sandro_Suchti schrieb:
Auch du darfst gerne Quellen verlinken die das untermauern/beweisen, der andere Herr hat es bisher nicht geschafft.
Ich habe den Effekt bereits an der Quelle des Diskussionspartners aufgezeigt, die eigentlich als Gegenbeweis dienen sollte. Es weist genau das nach, wovon ich hier die ganze Zeit spreche.
https://www.computerbase.de/forum/t...erlimit-adaptive-offset.2165290/post-28716238

Aber hier gerne noch ein Beispiel etwas weiter im besagten Video, welches eigentlich beweisen sollte, dass die CPU bei 4K nicht limitieren würde (des Gegenteil wird offensichtich):
1697615484364.png

Man achte auf die Frametimes die sich von Prozessorgeneration von links nach rechts sichtbar glätten (ja- auch wenn man den 12900K gegen den 13900K stellt) und die Perzentile, also die Ausreisser die den höchsten Einfluss auf ein "flüssiges" Spielerlebnis haben.

Hier beim gleichen Video mal in Vergrößerung 12900K gegen 13900K bei Read Dead Redemption 2:
1697617137955.png


Jetzt wäre es eher mal an der Zeit von der Gegenseite zu beweisen durch Messungen, Tests, Links, dass die Prozessorleistung bei 4K keinen Einfluss auf Traversalstutter, Shader compilation Dips, Frametimes, Frame- Pacing und Konsorten haben. Es hat schon seinen Grund, warum GPU Tests bei jeder Fachzeitschrift in der Regel mit der stärksten am Markt erhältlichen CPU durchgeführt werden.
Dies würde man nicht tun, würde man nicht Gefahr laufen, dass auflösungsunabhängig die GPU sonst eingebremst werden könnte.

wrglsgrft schrieb:
Die Aussage wurde nur in der Form nie wirklich getroffen.
Das ist nicht richtig. Es wurden generalisierende Aussagen getroffen wie z.B.
In 4k limitiert die 4090 sowieso zuerst.
Die Aussage ist nicht richtig, weil es viele Stellfaktoren gibt, die vor einem Limit der GPU zu Engpässen und Stalls führen können. Deswegen bin ich in diese Diskussion überhaupt erst eingestiegen.

Ich habe mich nie dazu hinreissen lassen, eine Bewertung bezüglich dieses Upgrades abzugeben.
Die war vom Threadersteller auch garnicht gefragt. Die Sinnhaftigkeit des Upgrades muss einzig und allein dieser selbst bewerten.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: derfernseher
Drewkev schrieb:
@kicos018
Nun, auch das gehört zu einer Beratung dazu.
thealex schrieb:
@kicos018
Darf man deshalb nicht darauf hinweisen, dass sein geplantes "Upgrade" unterm Strich keines ist? Ggf. ist ihm das ja nicht bewusst.
Klar, wenn ein Großteil der Antworten aber "lass es, Leistungszuwachs zu niedrig" sind, obwohl der TE explizit nach Erfahrungswerten zu den Temperaturen fragt, ist es ne schlechte Beratung.
 
  • Gefällt mir
Reaktionen: derfernseher und .Sentinel.
Zurück
Oben