Leistungsaufnahme vs. erbrachte fps - 4090

@Sandro_Suchti
Evtl. bin ich einfach nicht in der Lage, das verständlich zu erklären. Ich hab's ja sogar schon aufgezeichnet. Mehr kann ich dazu nicht beitragen, sorry. Ich weiß auch nicht, was du meinst mit "...spielt keine Rolle für das Powerlimit" ... erneut, ich habe alles sauber aufgezeichnet, wie ich es hier nun schon mehrfach versucht habe zu erklären. Das muss dann auch reichen.
 
DJMadMax schrieb:
Ich weiß auch nicht, was du meinst mit "...spielt keine Rolle für das Powerlimit" ...
Daran scheitert es schon? Uff und ich dachte, du hättest wenigstens ein bisschen Ahnung. Aber wenn du nichtmal weißt dass Grafikkarten ein Powerlimit haben, dann wundert es mich nicht das deine Beiträge in diesen vier Seiten echt gar keinen Sinn ergeben.

DJMadMax schrieb:
Evtl. bin ich einfach nicht in der Lage, das verständlich zu erklären.
Alles gut, das passiert jedem mal :)
Ich habe übrigens das gleiche Netzteile wie OP, auch mit dem Adapter und meine 4090 schluckt sehrwohl über 400W wenn ich es herausfordere. So viel dazu.
 
@Sandro_Suchti
Natürlich weiß ich, dass Grafikkarten ein Powerlimit besitzen. Und selbstverständlich sollte deine 4090 mit demselben Netzteil wie das vom TE und mit demselben Adapterkabel auch ihre bis zu 450 Watt ziehen können, das habe ich doch nie bezweifelt.

Unterstell mir doch nicht solch einen Quatsch.
 
DJMadMax schrieb:
@Sandro_Suchti
Evtl. bin ich einfach nicht in der Lage, das verständlich zu erklären. Ich hab's ja sogar schon aufgezeichnet. Mehr kann ich dazu nicht beitragen, sorry. Ich weiß auch nicht, was du meinst mit "...spielt keine Rolle für das Powerlimit" ... erneut, ich habe alles sauber aufgezeichnet, wie ich es hier nun schon mehrfach versucht habe zu erklären. Das muss dann auch reichen.

Das einzige Problem ist, dass du nicht verstehst, dass wir hier keine 8 Pin Stromstecker haben wo es eine Limitierung von 150 Watt gibt. Darauf basiert deine ganze Argumentation und dann wäre sie auch zu einem großen Teil korrekt. Aber auch wenn man es 5x erzählt, argumentierst du wieder so, als ob da genau diese Kabel bzw. Adapter vorliegen.

Am Netzteil sind andere Steckverbindungen und an der GPU ebenso. Bei den mitgelieferten Adaptern bei den GPUs haben wir die 8 Pin Stromstecker in der Mitte vor dem Adapter und damit auch diverse Probleme. Die fallen hier aber komplett weg. Im Grunde ist das Kabel wie ein natives 12VHPRWR aus Sicht der GPU. Das Ding ist voll belegt und sagt, du kannst 600 Watt nehmen!

Entsprechend gibt es auch keine Probleme mit dem Kabel. Das wäre sonst heute, hier, sicherlich nicht zum ersten mal aufgetreten.
 
Ayo34 schrieb:
Das einzige Problem ist, dass du nicht verstehst, dass wir hier keine 8 Pin Stromstecker haben wo es eine Limitierung von 150 Watt gibt.
Der Stecker ist adaptiert, aber im Grunde ist es doch nichts anderes! Das be quiet!-Netzteil hat ab Werk auch Adapter auf 4x PCIe 6+2 beiliegen, der Strom wird doch nicht aus der Luft gesaugt. Und an den Steckerleisten des be quiet!-Netzteils wird es auch weiterhin die Sense-Pins geben. Ihr könnt ja gerne mal eine Pinout-Doku des Netzteils raussuchen, ich habe leider keine gefunden und selbst über das Adapterkabel schweigt sich be quiet! leider aus.
Ergänzung ()

@Sandro_Suchti
Es geht darum, dass evtl. einer (oder zwei) der Sense Pins keinen Kontakt haben, evtl. nicht richtig aufgesteckt sind, whatever. Wir haben das doch selbst hier im Forum (und auch weltweit in allen möglichen Foren) schon zichmal gehabt, dass der Stecker (egal ob PCIe 6/8 oder 12VHPWR) nicht richtig aufgesteckt war. Nur darum und um nichts anderes geht es seit Anfang an.

Ich dachte, das sei mit dem Bild, das ich dahingeschmiert habe, letzten Endes klar geworden: Sense wird nicht erkannt, Power Draw wird eingedämpft. Einfacher geht's gar nicht.

EDIT:
DJMadMax schrieb:
hast du die Grafikkarte auch EXAKT SO angeschlossen, wie es von be quiet! (nicht Be Quite :D ) vorgegeben ist? Du hast hier ein Multirail-Netzteil, das ist wirklich wichtig. Nicht, dass am Ende aufgrund der Sense Pins nur zwei Stromleitungen erkannt werden und daher auch nur 2x 150 Watt statt 3x 150 Watt gezogen werden.
Ich zitiere mich hier aus Seite 1 noch einmal. Da steht nirgends, dass er weder das Kabel, noch das Netzteil verwenden kann. Das war übrigens noch bevor bekannt war, dass der TE ein 12VHPWR-Kabel verwendet (das aber, nun zum drölften Mal, auch unvollständig und somit nicht vollkontaktet aufgesteckt sein kann).
 
Zuletzt bearbeitet:
Also meinst du das Kabel ist defekt? :confused_alt:
 
@DJMadMax
Du sagst aber doch selber dass Grafikkarten gar nicht starten wenn ein Stecker nicht richtig sitzt (und das ist auch mein Wissensstand)?

DJMadMax schrieb:
Wir haben das doch selbst hier im Forum (und auch weltweit in allen möglichen Foren) schon zichmal gehabt, dass der Stecker (egal ob PCIe 6/8 oder 12VHPWR) nicht richtig aufgesteckt war.
Ja richtig, und das war unter anderem deshalb ein Problem weil die Grafikkarte TROTZDEM den Strom gezogen hat. Das ist noch ein Gegenargument für dein "Eindämpfen".
 
DJMadMax schrieb:
Wir haben das doch selbst hier im Forum (und auch weltweit in allen möglichen Foren) schon zichmal gehabt, dass der Stecker (egal ob PCIe 6/8 oder 12VHPWR) nicht richtig aufgesteckt war.
Ja schon, nur was hat das mit den Powerlimits - die über die Anzahl der erkannten 8-Pin PCIe Stecker bzw. Sense-Pins bestimmt werden - zu tun? Gesoffen haben die Grafikkarten den Strom trotzdem, egal ob locker oder nicht, weil sie nicht wussten bzw. erkannt haben dass er locker ist, und genau das war ja eines der Hauptprobleme.

Oder meinst du die Grafikkarte des TEs hätte dadurch aktuell ein Powerlimit von 300W statt 450W, wenn der Stecker korrekt säße?
 
DJMadMax schrieb:
Ich dachte, das sei mit dem Bild, das ich dahingeschmiert habe, letzten Endes klar geworden: Sense wird nicht erkannt, Power Draw wird eingedämpft. Einfacher geht's gar nicht.
Ayo34 schrieb:
Also meinst du das Kabel ist defekt? :confused_alt:
Ah i see.
Aufgrund von "falschem Anschluss" ans PSU wäre eine Möglichkeit, dass die Sense Pins nicht richtig von der GPU erkannt werden und diese deshalb weniger fordert, bzw. durch fehlende "Rückmeldung" das Netzteil nicht mehr liefert..wie auch immer die Regelung funktioniert.
Ob die GPU dann trotzdem mit 100% Auslastung angeszeigt wird, weiss dann vermutlich aber auch keiner von euch?
Wenn ich dich nun richtig verstanden habe, mach Sinn, könnte man aber testen indem man halt den MSI Kombustor oder Furmark rennen lässt.
 
Palim Palim,
Gut ist, es wurden zwei Probleme gelöst, aber es gibt noch offene Fragen.

Problem 1 war genau und nur bei Forbidden West, ein Idiot (nennen wir ihn mal ich) hatte das Upscaling deaktiviert, daher nur die 45fps. Warum dei GPU aber dennoch max. 330W gezogen hat mir bleibt weiter unklar. Nun mit aktiviertem DLSS-Quality läuft das Spiel mit 65-80fps. Wenn ich zusätzlich die Frame Generierung noch mit anschalte, sind es 90-100fps. - so weit so gut. Beispiel Screenshots im Anhang.

Problem 2 ist Helldivers, da ist einfach die CPU überfordert, die meistens Thread dümpeln bei 30-40% rum, 5 Threads sind aber bei 80%+, was die GPU dazu veranlasst auf 60-70% Auslastung zu sinken (abgelesen gpuz) am zweiten Monitor.

An anderen Beispielen konnte ich feststellen, dass meine Art der Frame Limitierung offenbar suboptimal ist. Windows auf 60Hz zu bergrenzen und dann vSync zu nutzen gefällt wohl nicht jedem Spiel (Far Cry 6). Wenn ich Windows 120Hz setze, vSync deaktivert lasse, dafür im nvidia Treiber "Max Frame Rate" auf z.B. 80 setze, dann haben das alle geprüften Games begriffen, ohne dass es "doofe" Drops gab.

Was mir nun noch unklar ist, ist der Furmark Run. Aber das wirds vielleicht doch zu technisch (für mich), aber warum ist das Board Power Draw bei 380W, obwohl die GPU bei 100% läuft. Müssten 100% nicht 450W sein (84,2% TDP Eintrag)? Und auch die 110°C Hotspot sind eher so semi geil. (nd wurde bei Forbidden West auch 107°C heiss)
 

Anhänge

  • furmark_run.png
    furmark_run.png
    2,1 MB · Aufrufe: 32
  • hfw_run1.png
    hfw_run1.png
    1,3 MB · Aufrufe: 35
  • hfw_run2.png
    hfw_run2.png
    315,8 KB · Aufrufe: 32
Geisterwolf schrieb:
65-80fps. Wenn ich zusätzlich die Frame Generierung noch mit anschalte, sind es 90-100fps
Soweit ich mitbekommen habe ist es bei Nvidia ziemlich normal, das die FPS mit FG nicht einfach verdoppeln, wie man es bei AMD Typischerweise vorfindet.
Von daher halte ich das dort für normal im Rahmen, das es Nvidia ist. Einen Vergleichswert von anderen habe ich dabei nicht.

Furmark ist "speziell" und hat eine Geschichte, die du nicht nachspielen willst. Das Programm wird vom Treiber erkannt und entprechend werden typischerweise die Karten anders als bei Spielen reagieren.

(Defekte GPUs durch Furmark - nicht schuld von Furmark, sondern von Fehlerbehafteter Limitierung der GPUs, die haben sich selbst gekocht)

Edit:
und in dem Furmark Screenshot ist doch auch zu sehen, das die Karte einfach Heiß läuft, es gibt eben mehr als nur ein Limit...

43°C Zwischen Hotspot und durchschnittstemperatur... das ist schon mega viel.
 
Zuletzt bearbeitet:
screenshot anbei
 

Anhänge

  • nv_bios.png
    nv_bios.png
    35,6 KB · Aufrufe: 42
109 Grad Hotspot sind viel zu viel. Die Hotspot-Temp liegt zwar immer etwas über der gemessenen GPU-Temp, aber 109 Grad ist vermutlich Thermal Throttling.

Ist irgend etwas an der Karte modifiziert? Wie siehts im Gehäuse aus? Fotos möglich?

PS: Hast du die Verkabelung nochmal sorgfältig geprüft?
 
Falls es thermal throttling ist sollte man das in hwinfo sehen.
 
  • Gefällt mir
Reaktionen: DJMadMax
Zurück
Oben