Test TDP-Skalierung analysiert: GeForce RTX 4090 vs. 4080 Laptop GPU bei 60–150 Watt

Blops234 schrieb:
Das Powerlimit lässt sich doch relativ leicht selbst einstellen.
Ja, aber nur die wenigsten basteln da selbst rum.
Ergänzung ()

Helge01 schrieb:
Gibt es doch. Meine RTX 4080 hat bei einem Powerlimit von 70% ca. 5% weniger Leistung bei 100W weniger Verbrauch.
Cool, welche ist das? Wusste nicht, dass es Hersteller gibt, die sowas anbieten. Hab ich auch gar nichts darüber gelesen, hätte vermutet dass zumindest Computerbase dann einen Artikel bringt.
Ergänzung ()

Ayo34 schrieb:
Musst aber erstmal ein extra Programm installieren und dann die TDP einstellen. Warum nicht einfach ein Eco-Bios und ein Performance-Bios.

4080 Eco - max. 220 Watt - + passende Lüfterkurve
4080 Performance - max. 320 Watt - + passende Lüfterkurve

Standardmäßig ist der Eco Mode angestellt und wer Performance-Mode will, der kann den Schalter betätigen. Würde wohl für 99% der Leute Sinn ergeben.
Genau sowas wünsche ich mir!
 
gartenriese schrieb:
Genau sowas wünsche ich mir!
Das Power Limit kann man einfach im MSI Afterburner einstellen. Noch mehr geht so:
https://www.hardwareluxx.de/community/threads/nvidia-rtx4000-undervolting-sammler.1325830/
Ich würde mir ja wünschen, dass Undervolting wie bei AMD über den Treiber und einfach nur mit zwei bis drei Slidern ginge ... (Maximaler Takt, maximale Spannung, Power Limit in %)

Geht mit jeder Karte. Im Bericht von Jan ist auf den Screenshots der MSI Afterburner auch zu sehen ...
 
  • Gefällt mir
Reaktionen: Darkseth88
Danke, schon interessant! Wobei ich mich denen anschließe, die sich hier auch fragen, welcher 4080 oder 4090 Laptop die theoretisch mögliche TdP gut kühlen kann. Nicht daß ich immer nach "more power!!!" schreie, aber wenn man derartiges Geld für einen Laptop ausgibt, will man doch wenigstens die Möglichkeit haben, die Leistung auch abzurufen. Sonst ist's ja ähnlich als ob man einen Porsche Turbo kauft und dann auf Notlaufreifen (Donuts) unterwegs ist.

Und, hier mein (ernstgemeinter!) Wunsch für diese Angabe in solchen Test: fps pro decibel. Gerade derartige Notebooks werden oft auch ganz schön laut, wenn man die volle Leistung abruft. Ich hatte Mal so ein Teil ("Desktop Replacement"), und das wurde heiß und laut. Und ja, ich weiß daß die Frequenz des Lüftergeräusches auch viel ausmacht und man dann auch mit Kopfhörern spielen kann, aber Kreissäge macht auch dann keinen Spaß.
 
Ayo34 schrieb:
Musst aber erstmal ein extra Programm installieren und dann die TDP einstellen. Warum nicht einfach ein Eco-Bios und ein Performance-Bios.

4080 Eco - max. 220 Watt - + passende Lüfterkurve
4080 Performance - max. 320 Watt - + passende Lüfterkurve

Standardmäßig ist der Eco Mode angestellt und wer Performance-Mode will, der kann den Schalter betätigen. Würde wohl für 99% der Leute Sinn ergeben.

Dafür sind eher die Custom Hersteller in der Verantwortung, mir wäre neu das NVIDIA bei Ref. Karten zwei verschiedene BIOS-Schalter ausliefert. Oder irre ich mich da? Sehe da aber auch gar kein Problem nen Tool zu installieren und das Powerlimit einzustellen, ist sogar bequemer als immer wieder an den Schalter zu müssen..
 
Da kann ich mich nur anschließen. Super Test und trifft genau die Infos die ich zu den mobilen Grakas brauche. Bei Ampere habe ich mich noch blöd gesucht um alles raus zu finden, nur um dann festzustellen, das einige Angaben wenn sie schon da waren, trotzdem nicht mal richtig waren. Mein Dell hat z.B. laut Datenblatt 90W, im Treiber werden aber 125W ausgelesen.
 
gedi schrieb:
Wieviel Geld habt ihr von NV für dieses lächerliche Leistungsrating erhalten, so dass in den 20-30s die Geforce besonders gut dasteht?
Was ist los? NV Hater? :D
 
Sehr erstaunlich, was die Ada-Generation leisten kann und das recht effizient.

Ich erinnere mich noch an die Horrorszenarien vor Veröffentlichung der Desktop-Karten : „….Verbraucht 900W!!…mindestens!!“ 🤣🥳
 
Sind die alten 3080 Laptop so schlecht, dass sie gar nicht mehr in der Liste stehen, oder habe ich etwas übersehen?
Mich würde ein direkter Vergleich zur 3080 sehr interessieren, sowohl bei max. TDP, als auch max. TDP von 3080 und reduzierte TDP der 4080/90, so dass sie den gleichen Benchmarkscore wie die 3080 hat.
 
@Jan kann man hier nicht die Watt/max leistungs Einstellung direkt über das nvidia overlay alt + z nehmen wie beim Desktop auch?Ich stelle bei meiner 4080 darüber den max verbrauch ein z.b. reichen mit 80 % der max Leistung und über eine kleine bat datei lese ich dann aus wieviele Watt das sind.
 
  • Gefällt mir
Reaktionen: [wege]mini
Also so eine super Analyse darf gerne in jedem Test Desktop und Mobile dabei sein in Zukunft .
Da es sicherlich richtig Zeit kostet könnte man es sich auch mit einem Undervolting Special gut kombinieren.

Also es gehört auch nur die effizenteste Architektur in Notebooks da sieht AMD vermutlich gegen NVidia sehr schlecht aus auch bei den Brot und Butter Modellen.


@Jan Unter der Prozent -Tabelle 2. Absatz : Leistungsgefälle
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Jan
Na das sind aber mal effiziente Karten. Nur brechen die Frametimes deutlich stärker als die Frames ein, das sollte man bedenken. Trotzdem noch sehr gut !

Bei den Desktop 300+ Watt Monstern ist ja nicht möglich die Karten nur auf 60 - 100 Watt zu begrenzen. :)Weniger wie 50 % geht ja in den meisten Fällen nicht.
 
IronAngel schrieb:
Bei den Desktop 300+ Watt Monstern ist ja nicht möglich die Karten nur auf 60 - 100 Watt zu begrenzen. :)Weniger wie 50 % geht ja in den meisten Fällen nicht.

doch das geht. minimum sind i.d.r. 100w
das war bei allen bisherigen generationen so. da ich keine ada habe, kann ich dazu nichts sagen, sollte mich aber wundern wenn es anders wäre.

meine 3080 kann ich mit (-73%) 27% PL fahren.
gewöhnlich fährt die aber mit 130w bei mir.
reicht oftmals aus.
 
  • Gefällt mir
Reaktionen: IronAngel und [wege]mini
Melu76 schrieb:
gewöhnlich fährt die aber mit 130w bei mir.

Da kann man doch bestimmt mit gutem Luftstrom im Gehäuse, die Lüfter auf der GPU aus lassen. :D

Und Greta freut sich. :evillol:

Und der Geldbeutel. :heilig:

In der Theorie, sollten bis 75 Watt alle Desktop Karten noch brauchbar gut skalieren. Manche haben bei knapp um die 100 Watt schon diesen "drop", die meisten schaffen aber auch mit 75 Watt noch gute Werte.

Irgend wann kommt aber ein Punkt, der von der Qualität des Siliziums beeinflusst wird, was du gekommen hast, und da fällt der Takt überproportional viel zur Einsparung an Strom.

Niemand braucht 1.5Ghz bei 70 Watt, wenn er 2.0 Ghz bei 75 Watt haben kann. (als Beispiel).

"Oben rum" gibt es diese Grenze auch. Die Chips skalieren bis zu einem gewissen Verbrauch ganz gut, danach verballert man nur noch sinnlos Strom, oder man kann die Temperatur SIGNIFIKANT senken. so 100-200 Kelvin nach unten, helfen da Wunder.

Die meisten Tools sind mMn gut gemacht und gerade der Afterburner zeichnet sich hier mit super Leistung aus. Mal schauen, wie es aber mit diesem Projekt weiter geht. Erst mal hat der Macher ja Probleme, weil er in Russland lebt und dort ein Embargo herrscht.

mfg
 
@Jan

Ist es irgendwie möglich die Cyberpunk Testsequenz nachzuspielen ? Habe eine 3060 Mobile "undervolted" und würde gerne den realen FPS/Watt Fortschritt zwischen den Generationen herausarbeiten.
 
Mika46 schrieb:
Habe eine 3060 Mobile "undervolted"

Wo bist du gelandet? Meine läuft mit UV und 80Watt mit OC. :evillol:

Da ich mit 60 FPS Limit auf 1080p zocke, braucht er meist nicht einmal den vollen Takt und dümpelt dann so mit 50-60 Watt vor sich hin.

Da gehen die Lüfter äußerst selten an :heilig:

mfg

p.s.

Für maximalen Takt, den der Chip her gibt, brauche ich dann 97 Watt am Chip für 8 Mhz mehr.

Klingt voll vernünftig. :evillol:

Da oben, hört dann die Qualität von Samsung auf, selbst bei den besten Chips, die vom Wafer fallen.

p.s.s.

Noch ein kleiner Exkurs in Technik.

Undervolting und Leistung gehören zusammen. Einfach nur den Regler für Leistung runter zu ziehen, bringt häufig aber nichts.

Als erste muss die "vcore" (v für Voltage, daher undervolting) runter, da die maximalen Ampere, die gezogen werden können, sehr häufig fest sind. Daher vcore runter und den Takt beobachten. Einige Karten machen mit weniger vcore einen höheren Takt bei gleichem Verbrauch.

Wenn man ein gutes Exemplar erwischt hat und die maximalen Taktraten nicht signifikant fallen, trotz geringerer vcore (der interne Turbo hilft hier imens) kann man auch mal versuchen, den Takt zu erhöhen, mit abgesenkter vcore und gleicher Verlustleistung. Die Ampere Zahl bleibt ja gleich.

Irgend wann hat man ein Gefühl dafür, was für eine CPU/GPU man bekommen hat. Sie sind alle unterschiedlich und manche sind "oben rum" richtig geil, andere performen "unten rum" richtig geil. Selbst die Wärmeentwicklung der verschiedenen Halbleiter bei gleicher Leistung, die durch sie gepumpt wird, ist unterschiedlich, bei gleichem Takt.

Und dann testet man, schreibt gerne Messreihen auf, findet den "sweet spot" für seine Hardware und versteht, warum das nicht für jede einzelne CPU/ GPU gemacht werden kann.

Gerne wird das Spiel als "silicon lottery" bezeichnet.
 

Anhänge

  • gpu.jpg
    gpu.jpg
    493,2 KB · Aufrufe: 185
  • tflop.jpg
    tflop.jpg
    554,1 KB · Aufrufe: 175
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Spike Py
HanneloreHorst schrieb:
Die Benchmarks zeigen sehr anschaulich , gibts du der Grafikkarte mehr Watt, dann gibts in etwa dieselbe Anzahl an Leistung,

HanneloreHorst schrieb:
gibst du 5 mal mehr Watt kriegst du 5 mal schnelleres Rendering.

Wenn ich mir die Tabellen hier angucke, ist exakt das Gegenteil der Fall.
Es skaliert schlecht nach oben, was die Effizienz angeht.

4080 Mobile mit 60 Watt = 100% Leistung
4080 Mobile mit 175 Watt = 156% Leistung

D.h. fast die dreifache Menge an Energie für 56% mehr Leistung.
 
  • Gefällt mir
Reaktionen: Spike Py, fabeltierkater und [wege]mini
Mika46 schrieb:
@Jan

Ist es irgendwie möglich die Cyberpunk Testsequenz nachzuspielen ? Habe eine 3060 Mobile "undervolted" und würde gerne den realen FPS/Watt Fortschritt zwischen den Generationen herausarbeiten.
Ich kann dir auf der 4080 im Benchmark Werte liefern. Welche settings? :)
 
Zurück
Oben