Test GeForce RTX 5090 & 5080 Laptop im Test: Benchmarks mit „Max-P“ und TDP-Skalierung von 80-150 W

Jan

Chefredakteur
Teammitglied
Registriert
Apr. 2001
Beiträge
16.448
  • Gefällt mir
Reaktionen: Hurricane.de, PietVanOwl, Sweepi und 5 andere
Ich habe 4 Jahre Lang Grün studiert. Aber ein wenig mehr Grünton Variation wäre super.
1743171542261.png
 
  • Gefällt mir
Reaktionen: Simon1511, 7H0M45, Asmir0000 und 15 andere
Noch mehr Ergebnisse, nice :)

Dafür, dass sich die 5090M in 3D Mark deutlich von der 4090M absetzen kann, bleibt vom Abstand in den Gaming-Benchmarks aber nichts mehr davon übrig... wo hier wohl der Frosch im Hals steckt?

Jetzt noch ein Strix Halo zum Vergleich wäre Sahne.
 
  • Gefällt mir
Reaktionen: Verak Drezzt
@Rickmer
Genau wie bei der "normalen" 5090.
Die ganze 5000er Serie enttäuscht auf ganzer Linie, nur mit DLSS und MFG reißt man da was raus.
 
  • Gefällt mir
Reaktionen: AQi666, Haldi, anarchie99 und eine weitere Person
Rickmer schrieb:
wo hier wohl der Frosch im Hals steckt?
150 vs 175 Watt. Die 3DMark-Balken gehen ja nur bis 150 Watt. Da verliert die 4090 ihren Vorteil. Die 5080M ist mit 175 Watt genauso schnell wie die 5090M mit 150 Watt. Oder annähernd.
Das sind halt nicht gleiche Bedingungen. Gerade in dem engen Korsett dürften die Chips einfach power limitiert sein.
 
  • Gefällt mir
Reaktionen: schneeland
Null IPC gain. Alles bei RTX 5000 kommt nur über die höheren TGP. Die gibt es im Laptop quasi nicht und daher auch keine Mehrleistung.
Ergänzung ()

kachiri schrieb:
Da verliert die 4090 ihren Vorteil. Die 5080M ist mit 175 Watt genauso schnell wie die 5090M mit 150 Watt. Oder annähernd.
Das kommt hin, war bei der RTX 4000 auch schon so, und das obwohl auf dem Papier die 90er schon einen ordentlichen Vorteil haben müssten.

"Die RTX 4080 Laptop GPU benötigt ziemlich genau 20 Watt mehr, um dieselbe Leistung wie die RTX 4090 Laptop GPU zu erreichen."
https://www.computerbase.de/artikel...-4080-laptop-gpu-gaming-notebooks-test.83196/
 
  • Gefällt mir
Reaktionen: Sebbi
Danke für den Test. Schiele auf den neuen Asus NUC mit 5080m Gpu. Bei den Games vermisse ich leider den Vergleich mit den kleineren 4000er Laptop Gpus z.b 4070.
 
Bin gerade spontan in einen Excel Topf gefallen:


ConfigGPUCudaCoresIndexScoreScore@100WattScore/5WattIndexmW/CudacorerIndexWatt
4060@ 35W:​
AD107​
3.072​
29%​
5386​
15388​
769​
76%​
11.39​
79%​
35​
4070@ 35W:​
AD106​
4.608​
44%​
6205​
17728​
886​
88%​
7.60​
119%​
35​
4070@ 40W:​
AD106​
4.608​
44%​
7201​
18003​
900​
89%​
8.68​
104%​
40​
4080@ 60W:​
AD104​
7.424​
71%​
11710​
19516​
976​
97%​
8.08​
112%​
60​
4090@ 80W:​
AD103​
9.728​
93%​
14532​
18165​
908​
90%​
8.22​
110%​
80​
5080@ 80W:​
GB203​
7.680​
73%​
15119​
18898​
945​
94%​
10.42​
87%​
80​
5090@ 95W:​
GB203​
10.496​
100%​
19139​
20146​
1007​
100%​
9.05​
100%​
95​


Score@Watt: linear hochgerechnet vom niedrigsten Watt Wert, um einen Effizienzindex zu schaffen (nicht die wirkliche Performance @100Watt)

Erkenntnisse
  • wenig überraschend: Der niedrigste Wert ist bei allen Karten der Effizienz-Sweetspot, Ausnahme: Die 4070, die gewinnt von 35 -> 40 W 996 Punkte hinzu, also mehr als 886.
  • Generell: je weniger mW/CudaCore, desto effizienter.
  • Blackwell auf den ersten Blick doch ein Stück effizienter als Ada
  • Die 5090 ist am effizientesten, knapp gefolgt von der 4080.
  • Die 5080 ist trotz deutlich mehr mW/CudaCore im Vergleich zur 4080 (10.42 zu 8.08) nur leicht ineffizienter (94% zu 97%).

Die Metrik ist nicht perfekt, z.b. jagen die 4090@80W und die 4080@60W ähnlich viel Strom je CudaCore durch die GPU und sollten daher in der Effizienz näher aneinander liegen.

mutmaßliche Quellen von Ungenauigkeit:
  • Jede GPU in anderem Laptop, vermutlich leicht unterschiedliche Implementation der TDP Begrenzung (also 80W in Laptop A sind wahrscheinlich nicht exakt 20W mehr als 60W in Laptop B)
  • mW/CudaCore ignoriert andere Energienutzer wie Speicherinterface

Bin gespannt, wie andere Blackwell GPUs sich eingliedern werden.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: DenB, Quidproquo77, Haldi und eine weitere Person
verstehe auch nicht weshalb die GPU Hersteller da meinen für ihre Notebook Chips, dGPU Bezeichnungen zu verwenden und den ahnungslosen Kunden zu suggerieren vergleichbare Desktop Leistung in einem Notebook zu bekommen, wenn ein 5090 Notebook Chip gerade so die Leistung einer 4070Super dGPU hat

wenn diese am Ende überhaupt bei rumm kommt, aufgrund mangelnder Kühlung eines 150-175W Chips, sollen se halt die Namen von den dGPU Chips entkoppeln und sich was neues ausdenken, oder halt angeben dass es nur die Leistung einer 4070S/5070 dGPU hat und alles darunter dann entsprechend mit einer 5060(Ti), 5050(Ti), 5040(Ti) etc. angeben

finde das Täuschung am Kunden, aber auch überhaupt solche Chips mit bis zu 175W in einem Notebook zu verbauen, wo nach 1-2 Jahren Nutzung schon die Leistung gedrosselt wird aufgrund der mangelnden Kühlung durch Staub im Gerät etc. wenn es nicht direkt schon von Haus aus ne unterirdische Kühlung hat, wo der Chip direkt mal ins Tjunction inkl. CPU rennt
Ergänzung ()

und dann bezahlt man noch das doppelte für so ein Teil von der Leistung eines vergleichbaren Desktop PC's, wäre man mit einem Arbeitsnotebook und einem mATX System mit einer 5070/9070 und nem portablen Bildschirm zum zocken, besser bedient und wenn man denn ersteres überhaupt benötigt
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Strahltriebwerk und Haldi
Ich finde es gut das die Spreizung runter geht - wenn Leute mit irgendeinem Prospekt ankommen und fragen "du kennst dich doch aus, ist der gut? hat sogar ne xxxx drin, damit kann ich zocken ne?" gibt es ggf. weniger enttäuschte Gesichter, weil die Differenz nicht mehr so groß sein kann.

Die letzten Jahre hat kaum ein Einzelhändler die TBP dazu geschrieben. War oft ein Akt irgendwo die Daten her zu bekommen und komischerweise waren es nicht nur die "sparsamen" (=Langsamen) die es nicht deklariert haben, sondern auch teils ganz anständige Modelle.

Die sollten verpflichtend einführen das GPU's nur noch im Format Modellnummer-Watt (z.B. 5080-95W oder 5080-135W) in die Specs geschrieben werden dürfen.
 
Zurück
Oben