Neue RTX 3080 12GB erreicht ihren boost Takt nicht.🙁

0ssi schrieb:
Das sagt nur Jemand der seine GPU noch nie richtig ausgelastet hat. :daumen:

Anhang anzeigen 1233326

Trotz UV im PL und weiter unter dem Takt, der sonst in Software anliegt,
die in Undervolting Threads als fĂŒr gut zum Testen befunden wird. :heilig:
bist du eigentlich schonmla auf die idee gekommen, das deine karte ohne UV in DERSELBEN situation VIEL MEHR STROM VERBRAUCHEN wĂŒrde :daumen:
(wenn sie denn könnte ...)

was willst du mir damit zeigen? das eine karte mit UV auch strom verbraucht.?

(wobei in deinem fall, die karte ja nichtmal richtg hoch taktet, also nichtmal den UV SPOT erreicht, dann hat dein beispiel also gar nichts mit UV zu tun, oder wo greift da jetzt UV deiner meinung nach?)

und nur der auschnitt alleine zeigt gar nichts.

wenn du nen reinen stromfresser als anwendung benutzt wie furmark, dann spielt das alles keine rolle, takt spielt keine rolle, UV spielt genau deswegen auch keine rolle etc.

im furmark (und Àhnlichen programmen) zieht die karte IMMER den maximal möglichen strom
es ist kein test den du benutzen kannst um verbrauch im UV zu ermitteln, weil die karte IMMER ins PL geht.

das hat aber NICHTS mit auslastung der karte zu tun, die karte wird dabei nicht ausgelastet sondern nur BELASTET, ---->die taktet nichtmal anstÀndig hoch<------- im furmark sondern verbraucht nur max strom



da musst du schon transparenter werden, und mal sagen welches programm diene karte angeblich so stark auslastet ;)

deine karte taktet doch nichtmal richtg hoch in deinem Screen, wie kommst du darauf das deine UV settings hier einfluß haben, wenn du NICHTMAL AUF DEN UV SPOT ĂŒberhaupt kommst? dann bleibst du doch noch in der normalen standardkurve die vorher definiert ist.

"schaut her, schaut her, im furmark (o.Ă€.) geht die karte nichtmal auf max takt und stĂ¶ĂŸt trotzdem ins Powerlimit"

ah so, ja is klar. genau. super.

und das willst du benutzen um zu zeigen das man mit UV genausoviel strom verbraucht :daumen:
obwohl das total unlogisch ist, was dir eigentlich selber auffallen mĂŒsste
ErgÀnzung ()

Tornavida schrieb:
Am effektivsten zur Stromeinsparung sind immer noch eine Verringerung des Taktes und des PL.

sicher nicht. UV heißt nĂ€mlich nichts anderes als das man WENIGER spannung benutzt als DEFAULT vorgesehen ist, egal an welcher stelle man den takt cappt - und DAS spart strom und sonst NICHTS

(nur) den takt (=spannungskurve) zu SENKEN ist sowieso das sinnloseste was man tun kann, dadurch verliert man nur leistung bei GLEICHEM verbrauch (spannunsgkurve wird abgesenkt, dadurch weniger takt bei gleicher spannung, quasi das gegenteil von UV)

dann besser NUR das PL senken, takt niemals senken.
(wenn ich aber anfange zu glauben das PL senken gleichbedeutend mit STROMSPAREN wÀre, dann kann ich auch legit behaupten das man mit karte deaktivieren strom sparen kann. oder direkt den PC auslassen, das spart auch strom. oder eine 3050 benutzen anstatt eine 3080. das ist zwar absolut richtig, aber reichlich trivial. wobei UV als konzept an sich auch nicht weniger trivial ist, aber hier spart man den strom bei leistungserhalt. anstatt einfach nur den max verbrauch zu cappen.)


takt wird nur gesenkt wenn die karte abstĂŒrzt weil mit der kurve etwas nicht stimmt
hat aber mit stromsparen nichts zu tun.
 
Zuletzt bearbeitet:
Melu76 schrieb:
was willst du mir damit zeigen? das eine karte mit UV auch strom verbraucht.?
Dass man bei richtiger Belastung also z.B. 4K Gaming mit Undervolting nicht zwangslÀufig Strom spart.
Man bekommt einfach nur etwas mehr FPS weil die Karte spÀter ins Powerlimit lÀuft und das wars. :daumen:

Um im gezeigten Beispiel von TW3@4K Strom zu sparen, mĂŒsste ich entweder das Powerlimit begrenzen
oder den Takt auf 1500Mhz begrenzen oder die Framerate auf z.B. 60FPS limitieren aber wer macht das !?
 
Melu76 schrieb:
Nö. Je nach dem, was genau eine Applikation auf der GPU rechnet, wie sie auf Caches zugreift, wie schnell sie Befehle abwechselt etc kann alles auch die Leistungsaufnahme beeinflussen, selbst wenn Takt, Spannung etc fix sind
ErgÀnzung ()

Melu76 schrieb:
furmark zÀhlt nicht, weil furmark was anderes macht, der zieht max strom ohne die GPU auszulasten)
Ah, also weißt du selbst, dass sowas geht. ZĂ€hlt aber nicht, weil....eh...weil halt.
 
Über Furmark brauchen wir nicht zu reden. Da ist seit Pascal eine Art Schutzfunktion drin.
Entweder durch die Software selbst oder durch Nvidia per Treiber weil sie Angst haben. :evillol:
 
Klar, zeigt aber sehr einfach, dass es nicht nur auf Takt+Spannung+Last% ankommt, sondern auch genau auf die Art der Last, Zugriffsmuster, etc.
 
Stimmt, ohne die "Sperre" hÀtten wir die ultimative GPU Belastung. Aber wenn diese wie Prime bei CPU's
zu praxisfern ist dann bringt es uns auch nicht viel also muss man halt so viele Spiele wie möglich testen.
 
0ssi schrieb:
Dass man bei richtiger Belastung also z.B. 4K Gaming mit Undervolting nicht zwangslÀufig Strom spart.
Man bekommt einfach nur etwas mehr FPS weil die Karte spÀter ins Powerlimit lÀuft und das wars. :daumen:

Warum lĂ€uft die Karte ins Powerlimit? Darum ging es ja ursprĂŒnglich.

wenn ich bei mir 150W PL einstelle lÀuft meine karte mit UV auch ins PL, ....
( wobei ich da vermutlich nichtmal auf den UV spot komme. also im grunde kein UV betreibe)

wenn du bei dir den mit UV eingestellten takt erreichst liegt der mehrverbrauch woanders.
die spannung ist ja gecappt und darf auch nicht höher gehen als mit UV eingestellt.

und du bekommst mit UV auch nur dann MEHR FPS wenn du höher taktest als default, ansonsten bekommst du auch nicht mehr FPS -- das hat auch wieder nichts mit UV an sich zu tun.

UV = weniger spannung als default und GECAPPT an einem bestimmten Punkt (und das ist ZWANGSLÄUFIG weniger verbrauch als bei einer nach oben hin offenen kurve - es sei denn du erreichst auch hier das cap)

und in welchem limit du drin bist zeigt die z.b. GPU Z an, und da sollte man mit UV nicht drin sein.
und wenn du drin bist, ist dein PL nicht ausreichend.
ErgÀnzung ()

Powl_0 schrieb:
Klar, zeigt aber sehr einfach, dass es nicht nur auf Takt+Spannung+Last% ankommt, sondern auch genau auf die Art der Last, Zugriffsmuster, etc.

ja, aber das ist dann doch sehr praxisfern. in furmark z.b. erreicht die karte gar nicht die eingestellte spannung (= takt) aber verbraucht soviel strom wie das PL hergibt.

das ist ja nicht mehr aussgekrÀftig, weil die karte etwas völlig anderes tut als FPS zu erzeugen.
 
Zuletzt bearbeitet:
0ssi schrieb:
Stimmt, ohne die "Sperre" hÀtten wir die ultimative GPU Belastung.

was heißt "ultimativ". es wĂ€re eine sicherheitslĂŒcke.

man hĂ€tte eine belastung die das PL ignoriert und somit die zwangslĂ€ufig an die grenzen des netzteiles und der kĂŒhlung stĂ¶ĂŸt, was potentiell großen schaden anrichten könnte
ErgÀnzung ()

Powl_0 schrieb:
Jo, in der Art der Last.
sofern es keine praxisferne anwendung ist, die in einem sinnlosen loop nur verbrauch um des verbrauchs willen erzeugt, wird diese art der last endlich sein ;)
 
Melu76 schrieb:
aber das ist dann doch sehr praxisfern
Furmark speziell ja. Aber das soll doch nur zur Veranschaulichung dienen. Selbst zwischen verschiedenen Spielen kann es massive Unterschiede geben, wie stark sie das PL auslasten, eben weil die Art des Renderings schon stark beeinflussen kann, welche Einheiten wie stark ausgelastet werden.

Wie tief wird die Pipeline ausgelastet? Wie viel Leerlauf haben die Kerne durch Branching? Wie ist das Zugriffsmuster auf die Caches? Etc.

Es gibt Spiele, die meine 6900XT selbst im GPU Limit nichtmal auf 250W bringen, wĂ€hrend andere direkt ĂŒber 300W laufen,...bei gleichem Takt und gleicher Spannung!
 
aber es ist wahr:

Anwendungen wie furmark widerlegen meinen punkt das man mit UV nicht ins PL lÀuft wenn nur das PL hoch genug ist.

insofern: i stand corrected

das hatte ich nicht bedacht. das der verbrauch völlig unabhÀngig vom spannungslimit sein kann.
 
Melu76 schrieb:
wird diese art der last endlich sein ;)
Auch die Furmark Last ist endlich.

Aber auch solche "elektrisch intensiven" Berechnungen kann man in produktiver Form nutzen. Such lang genug und es gibt sicher irgendeine wissenschaftliche oder professionelle Anwendung oder ein Spiel mit speziellem Rendering, was Àhnlich hart reinhaut wie Furmark.

(Lost World war da auch ein nettes Beispiel. Klar, die 3090er starben da durch Konstruktionsfehler...aber diese Fehler wurden erst durch das spezifische Power Profil eines bestimmten Spiels provoziert.)
 
Melu76 schrieb:
was heißt "ultimativ". es wĂ€re eine sicherheitslĂŒcke.

man hĂ€tte eine belastung die das PL ignoriert und somit die zwangslĂ€ufig an die grenzen des netzteiles und der kĂŒhlung stĂ¶ĂŸt, was potentiell großen schaden anrichten könnte
Sicher ? Wie soll das technisch gehen ? Das PL wird hardwareseitig sein also mehr Strom ziehen geht nicht
und das wird auch nicht der Sinn der Sperre sein sondern wie Powl bereits sagte, gibt es unterschiedliche
LastzustÀnde und wenn Furmark einen Teil der GPU unnötig stark belastet dann möchte Nvidia das nicht.

Weil auch Hardware altert und bei hoher Belastung eben schneller. High End Hardware wird anfÀlliger.
Womit testet du denn deine GPU und in welcher Auflösung ? Gib mal ordentlich Last drauf per DSR. :evillol:
Nvidia Systemsteuerung, DSR Faktoren, zB 4.00x aktivieren und dann gibts im Spiel höhere Auflösung.

dsr.JPG
 
bei mir lÀuft die 3080 12gb Tuf bei 925mv 1950 MHZ, hÀngt aber auch vom spiel ab, mal etwas weniger MHz aber meistens der angegebene Takt, der Te wundert sich das er bei 1800 Mhz rumgurked bei 380-400+ W, der lÀuft doch 24/7 ins Powerlimit
 
Zuletzt bearbeitet:
  • GefĂ€llt mir
Reaktionen: Florian1989
0ssi schrieb:
Womit testet du denn deine GPU und in welcher Auflösung ? Gib mal ordentlich Last drauf per DSR. :evillol:
Nvidia Systemsteuerung, DSR Faktoren, zB 4.00x aktivieren und dann gibts im Spiel höhere Auflösung.

weil du es bist teste ich das mal ob mit höherer auflösung die mehr watt verbraucht werden.



3060 ti, PL 240

1) werkseinstellung ohne modifikationen (vorher mit WQHD ins PL gelaufen)
2) UV 1995 bei 0.918 (vorher mit WQHD 200W verbraucht)

sollte deiner Logik nach die höhere auflösung auch mit UV mehr watt verbrauchen? (werksseitig lÀuft die ja schon ins PL bei WQHD, brauchen wir also nicht testen)
ich denke nein, weil die karte bereits ausgelastet ist


ERGEBNIS:

UV:
------
bei einer auflösungskalierung von 100& werden 200 watt verbraucht
bei einer auflösungsskalierung von 200% werden 225 watt verbraucht

also, du hast recht, mit höherer auflösungsskalierung verbraucht die karte mehr saft

vermutlich verbrauchen die auflösungskalierungberechnung die energie
 
Zuletzt bearbeitet:
Ok, also fassen wir zusammen in FHD und WQHD kann man doch Strom sparen aber in UHD eher selten.

200% Auflösungsskalierung dĂŒrfte das gleiche sein wie 4xDSR nur direkt vom Spiel statt durch den Treiber.

Ich habe zur Zeit keine GPU zum testen aber du kannst den Furry Cube vom GPU Caps Viewer probieren.
Unter 3D Demos bei GL 2.1 Furry Cube und dann eine hohe Auflösung mit hoher KantenglÀttung (MSAA).
 
Melu76 schrieb:
vermutlich verbrauchen die auflösungskalierungberechnung die energie
Höhere Auflösung kann mehr Recheneinheiten parallel auslasten.

(Ist auch einer der GrĂŒnde, wieso die High End GPUs bei hohen Auflösungen oft besser skalieren)

Die Ausgabe-Skalierung selbst kostet nicht viel.
 
  • GefĂ€llt mir
Reaktionen: TheOpenfield
0ssi schrieb:
Ok, also fassen wir zusammen in FHD und WQHD kann man doch Strom sparen aber in UHD eher selten.
WĂŒrde einfach behaupten, dass man die Effizienz steigert. Auch mit einer mega effiziente Karte kann man viel Strom verheizen.
 
0ssi schrieb:
Ok, also fassen wir zusammen in FHD und WQHD kann man doch Strom sparen aber in UHD eher selten.

das war auch nur mal kurz getestet. andere spiele wĂŒrden vielleicht noch mehr verbrauchen.
und andere karten relativ zur 3060 ti noch mehr saft.

hĂ€tte ich nichtmal gedacht das höhere auflösungen mehr saft verbrauchen, das wĂŒrde natĂŒrlich erklĂ€ren wieso deiner erfahrung nach deine graka auch mit UV ins PL lĂ€uft (klar, irgendwann wĂŒrde auch da schluss sein, aber der verbrauch ohne UV ist ja auch endlich )
 
ZurĂŒck
Oben