Intel Core i9 9900k Stromverbrauch

Normal ist der nicht wenn sich das Bios des Mainboards an die Hersteller-"empfehlungen" hält die ein Langzeitlimit von 95W für den Prozessor vorsieht. Dies kann aber manuell eingestellt werden.
 
Billige Boards haben 95 Watt. Dann brennt nichts durch. Bessere Boards gehen auf 200 Watt TDP und nur Highendvarianten gehen auf 300 Watt bzw. unlimited.
Meistens setzten die Boards allcore auf enabled ab Werk. Also die Werkseinstellungen sind nicht immer die Intelvorgaben.
 
Es wäre interessant zu wissen, wie lange der Allcore -Turbo laut Intel-Spezifikation gehalten werden darf, unabhängig von Boardqualität und Kühllösung.

Wenn hier beides stimmt pendelt er sich ja bei ca. 160W und 80 Grad ein und hält den Turbo zeitlich unbegrenzt. So habe ich es eingestellt.

Meine eigentliche Frage:

Gibt es ein offizielles Zeitlimit seitens Intel, dass klar und nicht „wischi waschi“ irgendwo niedergeschrieben ist?

Was soll dann geschehen? Basistakt?

Wie sind hier die offiziellen Vorgaben?
 
Willi-Fi schrieb:
Schau halt die Benchmarks zwischen 9900k und 2700x an und der eigentliche Stromverschwender ist der 2700x. Besitzer von Ryzen CPUs gelten in Fachkreisen nicht ohne Grund als umweltfeindlich. Der Ryzen ist sowas von ineffizient.
Huch was redest du für einen Quatsch. Nachdem ich weitergelesen hab, hab ich es verstanden. Alles was du zum vorbringen hast ist einfach nur bullshit bingo. Gut tas man im forum Leute ignorieren kann. Bist der 2te.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Stuxi
Ich meine die "Empfehlung" von Intel war 125W für 8 Sekunden, dann runter auf 95W
 
Willi-Fi schrieb:
Schau halt die Benchmarks zwischen 9900k und 2700x an und der eigentliche Stromverschwender ist der 2700x. Besitzer von Ryzen CPUs gelten in Fachkreisen nicht ohne Grund als umweltfeindlich. Der Ryzen ist sowas von ineffizient.

Musst du eigentlich immer gegen AMD deinen unglaublichen Schwachsinn abliefern? Ein 9900k kann einfach mal rund das doppelte des 2700X verbrauchen und ist dabei nichtmal doppelt so schnell.
 
  • Gefällt mir
Reaktionen: Stuxi
Kommt aber ausser bei Prime nie vor🤣
 
'Xander schrieb:
Kommt aber ausser bei Prime nie vor🤣
und ? deine CPU wird also nie voll ausgelastet , bei AVX Nutzung geht der Takt also nicht nach unten ?

Ich verrate dir mal ein Geheimniss .... , der Ryzen 3xxx wird wohl bei AVX Nutzung nicht runtertakten müssen ..., zumindest wenn die Kühllösung mitspielt ...

https://www.anandtech.com/show/1357...-4-an-interview-with-amd-cto-mark-papermaster

IC: With the FP units now capable of doing 256-bit on their own, is there a frequency drop when 256-bit code is run, similar to when Intel runs AVX2?

MP:
No, we don’t anticipate any frequency decrease. We leveraged 7nm. One of the things that 7nm enables us is scale in terms of cores and FP execution. It is a true doubling because we didn’t only double the pipeline with, but we also doubled the load-store and the data pipe into it.

IC: Now the Zen 2 core has two 256-bit FP pipes, can users perform AVX512-esque calculations?

MP:
At the full launch we’ll share with you exact configurations and what customers want to deploy around that.

mal ganz davon abgesehen das der Ryzen 3xxx 8 Kerner 30 % weniger Strom ziehen wird ...
 
Ach Mk

Wer sagt denn, dass mein 9900K bei AVX heruntertaktet?

Und immer deine Zukunftsaussichten...abwarten...

Ich lebe im Jetzt - und jetzt encodiere und rendere ich mit Programmen, die AVX nutzen und zwar bei 160W bei 4,7 allcore.

Immer dieses Beharren auf einen realitätsfernen Primeverbrauch.

Darf ich mal fragen, was du mit deinem Ryzen 3000 überhaupt machen willst, Programmtechnisch- ausser Prime?

Gruss
 
  • Gefällt mir
Reaktionen: kisser
'Xander schrieb:
Wer sagt denn, dass mein 9900K bei AVX heruntertaktet?
Gruss
Der AVX offset im Bios .... , natürlich kannst du den auf Null setzen , dann hängt deine CPU halt im Temp Limit und drosselt wenn du AVX Software benutzt .... , denn nur da macht sich der Offset bemerkbar , aber keine Angst , bei " Spielkindern = Gamer " trifft das nur selten zu ...
 
Komischerweise hab ich als Anwender nicht einmal eine Gpu verbaut.
Dank iGPU nicht nötig.
Allerdings hab ich auf meinen Rechnern auch keine Spiele installiert.
Aber wenn 80Grad beim Rendern, etc. Bei dir Temperatulimit bedeuten, kann ich dir nicht mehr weiterhelfen.

Für was benutzt du deinen AMD-Heilsbringer eigentlich, die Frage hast du mir auch nicht beantwortet, würde mich aber tatsächlich interessieren.

Gruss
 
Du meinst meinen 1700x 8 Kerner , der zu der Zeit bei Intel rund 1000 Euro für 8 Kerne , zudem noch auf der HEDT , gekostet hätte ?
zum encodieren brauche ich Rechenleistung mit Handbrake , ansonsten die normale privat Nutzung ...

natürlich versuche ich immer das maximum aus meinen preiswerten Komponenten rauszuholen wie zb NVME

Natürlich kommen dann Typen angelatscht die behaupten Bootable NVME Raid bringe nichts , mag sein oder nicht , es funktioniert jedenfalls auf meine B450 Board für 115 Euro
Dann nutze ich natürlich noch Store MI = von meine 860 Evo Sata SSD heb ich 256 GB abgetreten und mit meiner alten 2 TB HDD verkoppelt , funktioniert gut ..https://www.computerbase.de/2018-07/amd-storemi-fuzedrive-test/



769898
 
Dann haben wir mit Handbrake schon mal ein Programm gemeinsam.
Handbrake nutzt doch AVX?!
Hier bin ich mit 4.7 Allcore dabei bei 160W+-10W Schwankungen.
Also bei weitem kein Primeverbrauch.
Haupteinsatzgebiet ist Allerdings 80% V-Ray und ein Bisschen Arnold.
Hier braucht er im Schnitt 10W weniger als bei Handbrake.

Was zieht deiner unter Handbrake?
Settings sind bei mir von DVD auf 1080P, x265, fast decomb, quality 22.

Habe festgestellt, dass x264 oder ohne upscaling auf 1080P eher 20W weniger sind.

Gruss
 
frag mich in 2 Monaten nach dem reinen CPU upgrade auf den 3700x 12 Kerner nochmal , dann hab ich die aktuellere CPU ... , die zudem weniger als der 9900K und vermutlich dasselbe wie der 8086K aus deiner Sig , eventuell weniger, kosten wird ...
 
👍Ok

03.06 ist notiert.

Bis dann

Edit:
Ach ja der 8086K...den wollte ich halt haben...✌🏻
 
Mich nervt einfach die Tatsache, dass Leute hier im Forum glauben, dass AMD irgendwo besser sei als Intel. Und selbst Logik oder Testergebnisse werden solange ignoriert und gedreht bis sie passen.

Intel > AMD

Und mit Ryzen 2 kann AMD in allen Punkten mit Intel gleichziehen. Der 10 Kerner von Intel ist eine Reaktion und dürfte Intel knapp an die Spitze setzen.

AVX nutzt jeder Grafiktreiber. Daher ist der Offset auf Null, auch wenn die Anleitungen -2 empfehlen.
 
@Willi-Fi
??
was hat denn jetzt der AVX offset bei Intel CPU s mit dem GraKa Treiber zu tun ? Der Offset bei Intel CPU s soll eine Überhitzung verhindern wenn man übertaktet , bei Skylake-X kann da der Takt bis unter dem Basistakt absinken . Der Offset steht bei Intel MoBo s im UEFI und ist Stadardmäßig nicht auf 0

Einen solchen Offset gibt es nicht bei AMD , hab zumindest noch nie eine Bios Einstellung dazu gesehen ...

beim Skylake X sieht man es am deutlichsten , da ist der Offset wenn alle Kerne beim 9980 XE genutzt werden sogar 1 Ghz
ohne AVX = Last auf allen Kernen = 3,8 Ghz
mit AVX 512 = last auf allen Kernen =2,8 Ghz , bei AVX2 = 500 Mhz
https://www.hardwareluxx.de/index.p...aum-verbesserungen-fuer-avx2-und-avx-512.html

769951


769952


769953


für den 9900K gibt es garantiert ebensolche Tabellen , nur hat dieser nur 8 statt 18 Kerne , deswegen ist der Offset niedriger
 
Zuletzt bearbeitet:
Nein gibt es nicht

Edit:
Willi-Fi schrieb:
Mich nervt einfach die Tatsache, dass Leute hier im Forum glauben, dass AMD irgendwo besser sei als Intel. Und selbst Logik oder Testergebnisse werden solange ignoriert und gedreht bis sie passen.
Fast wie im Bundestag🤣
Willi-Fi schrieb:
Ausser einmal kurz- bei der Netburst- Misere.
 
Zuletzt bearbeitet:
@MK one

Der Grafikkartentreiber triggert den AVX Offset. Wieso weiss niemand. Deswegen steht er besser auf 0 oder Auto je nach Board. Warum aber ein AVX Programm auf 150 Watt kommt und Prime mit AVX auf 300 Watt kann mir niemand erkären?

@'Xander

Nortwood war cool, Prescott heiss, Dothan toll und mit Coreduo kam der Durchbruch. Die Umstellung von Single auf Dual Core und Quad Core brachte Intel wieder nach Vorne.
 
Zurück
Oben