Vorbereitend zur 5000er Generation von Nvidia eine Effizienzfrage

Don_Tralle

Lt. Junior Grade
Registriert
Okt. 2021
Beiträge
468
Ich sehe bei Tests die 4080 von der Effizienz her i.d.R. vor der 4090. Auf der anderen Seite sehe ich aber auch Diagramme, bei der eine auf ca. 300 / 350 W gedrosselte (PL oder UV/Taktlimit) 4090 mehr fps schafft bei gleichem Verbrauch als die 4080.

Bei Laptop Grakas ist die Sache klar: Die dürfen i.d.R. innerhalb eines Modells alle gleich viel Verbrauchen, nehmen wir eine 4060 / 4070 / 4080....die Kühllösung im Gehäuse packt 115W Abwärme, alle Karten dürfen 115W verbrauchen, die 4080 ist die schnellste bei gleichem Verbrauch, aber taktet am niedrigsten, logisch....
Trifft das auch bei großen Karten zu? So pauschal gesprochen? Und gilt das nur, wenn man mittels UV / Taktlimit den Verbrauch drosselt? Also wenn ich einfach nur nen fps Limiter einsetze (CB hat auch hier ne schöne Grafik mit 144 fps Limit), dann ist die Effizienz ja ähnlich bzw. die 4080 ist besser.

So wie ich das verstehe müsste die größere Karte bei niedrigerem Takt betrieben effizienter sein, und dann bei gleichem Verbrauch schneller als das kleinere Modell, stimmt diese Einschätzung?
 
  • Gefällt mir
Reaktionen: BarBaer
Verkürzt: Es gibt idR abhängig von Architektur und Fertigungsverfahren einen Sweetspot beim Takt. Danach steigt der Verbrauch deutlich stärker als die Leistung. Um die ultimative Leistung bereit zu stellen oder überhaupt Konkurrenzfähig zu sein, wird an der Taktschraube hoch gedreht (bspw Intel 10-14. Gen)

Sinn dahinter, große Dice, die man bei gleicher Leistung langsamer und effizienter betreiben könnte sind in der Produktion Sau teuer und der Ausschuss (Binning) recht groß, also lassen die Hersteller „kleine“ Chips hoch Takten. Was im Betrieb ineffizienter ist, aber für den Hersteller wirtschaftlich.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: usernamehere und kachiri
Don_Tralle schrieb:
Ich sehe bei Tests die 4080 von der Effizienz her i.d.R. vor der 4090. Auf der anderen Seite sehe ich aber auch Diagramme, bei der eine auf ca. 300 / 350 W gedrosselte (PL oder UV/Taktlimit) 4090 mehr fps schafft bei gleichem Verbrauch als die 4080.
Die 4090 taktet Stock ja quasi genauso hoch wie eine 4080. Sie ist aber auch deutlicher größer. Begrenze ich nun all diese Sachen, bekomme ich aus dem Chip im Zweifel, wie du schilderst, immer noch mehr Leistung, als aus dem kleineren Chip.
Das geht aber eben nur bis zu einem gewissen Punkt und setzt defacto auch irgendwo voraus, dass man wiederum gleiches nicht mit gleichem vergleicht. Denn auch die 4080 könnte ich noch einmal ordentlich mit UV im Verbrauch drücken ohne sehr viel Leistung liegen zu lassen, wodurch sie im Zweifel dann doch wieder effizienter wird.

Bei den mobilen Chips ist das nämlich auch gar nicht so einfach, wie du schilderst.
 
  • Gefällt mir
Reaktionen: conf_t
Du kannst aber auch eine 4080 auf 250Watt mit UV bringen hat dann kaum weniger FPS und somit steigt auch dann die Effizienz der 4080.
Du musst schon beide gleich Vergleichen.

Hat die 4090 dann bei 300/350Watt immer noch mehr FPS ja. Ist die dann Effizienzter als die 4080 bei UV keine Ahnung.

Das gleiche wird bei den 5000er sein. Wie groß wird man sehen. War auch bei den 3000er etwas anders. Aber generell kann man z.Z. sagen dass UV bei den NVIDIA karten definitiv sinn macht. Da es kaum Verlust von FPS gibt aber einiges an Wärme und Kosten eingespart werden können.
Ergänzung ()

Um auf deine Frage noch etwas mehr einzu gehen.
Klar wenn die GPU nicht so hoch takten muss muss sie auch nicht so hohe Spannung abrufen somit verbraucht sie auch weniger. Das kann man beim 144FPS limit sehen. Dennoch ist das halt nur begrenzt. Irgendwann bringt es dann auch nichts mehr. Und wenn du z.B. eine relativ kleine Karte wie 4060 mit 4090 dann vergleichst dann müsste die 4060 ja noch effizienter sein wenn du sie natürlich sinnvoll begrenzt. Aber wie gesagt geht das halt nicht immer.

Somit ist es am besten einen guten UV zu machen. Das spart z.B. 60Watt bei mir einfach mal so ohne wirklichen Verlust an FPS. Und wenn du dann noch FPS Limit einstellst von z.B. 60, 90 oder 120, je nachdem was du spielst brauchst du laum Watt. Bei einigen Spielen läuft die auf unter 100Watt und die Lüfter laufen nicht mal.
 
Zuletzt bearbeitet:
conf_t schrieb:
Ausschuss (Binning)...
kenne das eher als Ausbeute --> Yield und Binning dann als Selektion in Güteklassen
...
Don_Tralle schrieb:
So wie ich das verstehe müsste die größere Karte bei niedrigerem Takt betrieben effizienter sein, und dann bei gleichem Verbrauch schneller als das kleinere Modell, stimmt diese Einschätzung?
Radio Jerewan meint: kann sein oder auch eher nicht.

Warum sollten mehr Cores unbedingt schneller sein (das sehen wir doch bei den CPUs das manches Spiel fast nicht über die Cores skaliert)

Fast jedes Softwareproblem kommt irgendwann in die Sättigung, wo weitere Worker keine Zuwächse sondern Durchsatzreduktionen bringen - di Kommunikaton zwischen Prozessen (Daten!) und micht unednliche Teilbarkeit der Probleme wird oft vergessen.
 
ok, zusammenfassend um das einfach mal zu vereinfachen: wenn ich die 4080 dann auch mit uv betreibe...ebenso die 4090.....angenommen ich drossle beide auf 250 Watt.....Sweetspot der 4080 und eben gleicher Verbrauch der 4090 (ist dann stark gedrosselt, ist klar, aber nur zum Vergleich): Wer wäre wohl schneller? Müsst dann ja trotzdem die 4090 sein, da die vermutlich niedriger taktet bei 250 W und demnach effizienter arbeitet? Also nur zum Verständnis, so wie ich es vorhin bei den Laptop GPU´s beschrieben hatte.....wenn ich beide durch PL oder UV auf den gleichen Verbrauch bringe, schadet dann der größere Chip samt mehr Ram ect. oder hilft der, weil weniger Takt dank mehr Recheneinheiten ect....Wer wäre schneller?


CB hat zwar Diagramme mit der 4090 auf ??? 320 Watt??? (weiß nicht genau wieviel) aber im gleichen Diagramm taucht dann die 4080 wieder mit stock Einstellungen auf.....Dann gibts das Diagramm mit 144 fps Limit...aber ich finde halt keines mit gleichem Verbrauch. Würde mich echt interessieren, auch wenn so ne Tabelle mit z.B. 150W / 200W / 250W / 300W für ne 4090 wenig alltäglich wäre, dennoch frage ich mich aktuell wer nicht unlimitiert am effizientesten ist, sondern per Gesamtstromaufnahme.
 
Die Antwort ist: Es KOMMT DRAUF AN.

Die Diagramme zur Effizienz in den Tests hier sind eigentlich immer Stock zu sehen und da gibt es halt zwei Diagramme. Einmal mit (144 FPS) und einmal ohne Framelimit.
Und im Framelimit holt der größere Chip bei der Effizienz häufig etwas raus. Wobei es auch hier wieder auf das Spiel ankommt. Wenn ich auch für die 144 FPS die volle Leistung des größeren Chip brauch, wird sie dadurch natürlich nicht effizienter.

Auch muss man beim größeren Chip ja auch bedenken, dass das alles drumherum ja auch mehr Strom zieht. Die GPU kann bei relativ identischen Voraussetzungen also gar nicht "effizienter" werden, weil der "Grundverbrauch" ja immer irgendwo da bleibt.
 
Zurück
Oben