Das hatte ich auch schon versucht heraus zu finden, mir ist aber nicht ganz klar was bei dem Brett mit Default Settings eigentlich Sache ist.
Bei Cinebench komme ich auf 2049 Score im ersten Run, 155 Watt Package, 72°C und 100% Lüfter bis er mit jedem weiteren Run dann zu ~1940 Punkte abdriftet, bei ~60°C dümpelt und 4200 MHz Takt.
Zocke ich jetzt und lass nen Stream laufen mit nem übertriebenem Preset und laste die Kiste 100% aus, dann komme ich auf weitaus höhere Temperaturen (nach paar Stunden 86°C), aber er taktet immer die 4700 MHz durch und frisst sonst auch gerne mal so ~125Watt.
Ich blick da nicht wirklich durch von welchen Werten ich jetzt ausgehen darf, zumal es auch jedes mal anders zu sein scheint, Tagesformabhängig fast schon.
Ist für mich jetzt etwas problematisch, wo ich bei Gigabyte das Auto OC direkt zu Gesicht bekam und ne Vcore hatte die auch unter Last im Betrieb vorzufinden war und dann den Takt einfach hoch treiben konnte bis nix mehr ging bzgl. Temps oder Stability, sitz ich jetzt auf dem Asus fest und weiß eig. nicht mal was ne Vcore überhaupt anliegt - weil der Wert im Bios und der unter Last scheint sich schon sehr stark zu unterscheiden und dann auch noch pro Tag.
Gestern nix höheres als 1.279v gesehen, dann wie aufm Screenshot zu sehen mal 1.314v.
Dieses Verhalten mit den Temperaturen, Taktraten und Lastszenarien lässt mich echt nicht durch blicken.
Frage mich womit ich jetzt überhaupt testen kann bei 100% Auslastung wie Cinebench, wenn das aber dann den Takt runter zieht obwohl die Temperaturen bestens sind
Edit: Habs mal mit Prime und small FFTs probiert, ca. 10 Sekunden liegen 4600,4700 MHz an - CPU schiesst auf 182W und 80°C, danach taktet er runter auf 3400,3500 und 1.0x V und gemütlichen 60°C , bei 95Watt Package.
Bin genauso schlau wie vorher