Banger
Fleet Admiral
- Registriert
- Aug. 2010
- Beiträge
- 39.451
Meine Kommentare während des Lesens des Artikels. Zitate aus dem Artikel.
Huch, gleich mal 120€ oben drauf?
Bis zu 3-fache Leistung klingt auch fett, wenn ich ganz unten die 3060TI stellvertretend für meine 2080S nehme. 4080/16 könnte dann knapp über 3090TI liegen und4070 4080/12 dann zwischen 3080TI und 3090?
Auch gute Temperaturen für die Referenz. Also hier wieder die für einen ineffizienten Samsung-Prozess-Shrink kalkulierten Kühler. Da kann man hier im Gegesatz zu Ampere auch zur Referenz greifen, ohne dass man drauf angewiesen ist, auf der Speicherrückseite Wärmeleitpads zu verbauen.
Und wie kriegt man das Video dazu, dass es als HDR läuft? Bei mir nicht der Fall, wenn HDR in Windows aktiviert wird. HDR-Video läuft weiterhin als Nicht-HDR.
Dann sollten die 4080/16 und 12 sich mit rund 300 und rund 260W begnügen im GPU-Limit. Je nach Lastspitzen müsste mein Netzteil theoretisch die 16er auch schaffen, wenn das blöde Netzteil doch nur den 3. 8-Pin hätte.
😡
Ist es nun technisch möglich, dass DLSS3 mit der neuen Funktion auch auf Ampere geht?
Damit dann auch Titanic - Honor & Glory. ^^
Wäre dann kein Beinbruch gewesen, die TDP leicht zu senken. Ansonsten kann man sich den einstelligen Zuwachs zurück holen, indem man die Spannung senkt.
Jo.
Dann werden wohl 4080/16 und 12 die perfekten WQHD-Karten, wenn man alles auf Max. knallen will. Bei meinem GTA5 mit meinen Einstellungen für ~150FPS wird dann selbst die 4080/12, die maximal 4070(TI) heißen sollte, dann maximal 50% laut Glaskugel ausgelastet werden, bzw. ich könnte da noch MSAA anschalten. Spannender wird es bei Grafikhuren-ShadernTM in Minecraft, denn sowas wie Seus HRR3 mit Fake-Raytracing krüppelt schon ordentlich auf einer 2080S. Und bei Transport Fever 2 wäre es interessant, ob das mit mehr Grafikkartenspeicher besser läuft, bzw. ob der Speicher dann komplett genutzt wird, bis auf 500GB. Da ist die Frage, ob das Spiel den Speicher wirklich braucht oder ihn einfach noch reserviert.
Die GeForce RTX 4080 mit 12 GB und eine schnellere RTX 4080 mit 16 GB für 1.099 respektive 1.569 Euro UVP sollen im November folgen.
Huch, gleich mal 120€ oben drauf?
Performancerating 3.840 × 2.160
Bis zu 3-fache Leistung klingt auch fett, wenn ich ganz unten die 3060TI stellvertretend für meine 2080S nehme. 4080/16 könnte dann knapp über 3090TI liegen und
Temperaturen im Detail
Die GeForce RTX 4090 Founders Edition bleibt in allen Lebenslagen eine kühle Grafikkarte. Beim Spielen beträgt die Edge-Temperatur gerade einmal 69 °C, womit Nvidias neues Flaggschiff kühler als alle getesteten Founders-Edition-Modelle der GeForce-RTX-3000-Serie ist – trotz höherer Leistungsaufnahme. Und auch die Asus GeForce RTX 3090 Ti TUF OC wird um 4 °C abgehängt.
Wenig verwunderlich, ist auch die Hotspot-Temperatur auf der Founders Edition niedrig: Mit 79 °C reicht es abermals für den Spitzenplatz unter den GeForce-Beschleunigern, die GeForce RTX 3070 FE erreicht mit 81 °C die zweite Position. Auch der GDDR6X-Speicher bleibt mit 78 °C kühler als auf anderen Grafikkarten von Nvidia, auch wenn die Asus GeForce RTX 3090 Ti TUF OC mit 80 °C nahe dran ist. Bei den FE-Modellen der GeForce RTX 3080 und der GeForce RTX 3080 Ti wird der Speicher dagegen mit 100 respektive 102 °C deutlich wärmer.
Auch gute Temperaturen für die Referenz. Also hier wieder die für einen ineffizienten Samsung-Prozess-Shrink kalkulierten Kühler. Da kann man hier im Gegesatz zu Ampere auch zur Referenz greifen, ohne dass man drauf angewiesen ist, auf der Speicherrückseite Wärmeleitpads zu verbauen.
Beim Abspielen eines HDR-Videos schneidet die GeForce RTX 4090 mit 53 Watt dann klar besser als die älteren Ableger ab.
Und wie kriegt man das Video dazu, dass es als HDR läuft? Bei mir nicht der Fall, wenn HDR in Windows aktiviert wird. HDR-Video läuft weiterhin als Nicht-HDR.
Leistungsaufnahme in Games
In Spielen benötigt die GeForce RTX 4090 die maximal erlaubten 450 Watt im Werkszustand meistens nicht. Selbst im durstigen Doom Eternal bleibt das Flaggschiff mit 432 Watt leicht darunter. Der Wert liegt absolut betrachtet weiterhin sehr hoch, aber eben nicht so hoch, wie es vormals kolportiert wurde und mit Blick auf Ampere zu erwarten war: Die GeForce RTX 3090 Ti genehmigt sich bei deutlich geringerer Leistung mit 463 Watt sogar mehr als offiziell spezifiziert (450 Watt).
Dann sollten die 4080/16 und 12 sich mit rund 300 und rund 260W begnügen im GPU-Limit. Je nach Lastspitzen müsste mein Netzteil theoretisch die 16er auch schaffen, wenn das blöde Netzteil doch nur den 3. 8-Pin hätte.
Mit der GeForce-RTX-4000-Serie geht Nvidia nun den nächsten Schritt und stellt DLSS 3.0 vor. Das läuft im Gegensatz zu den ersten beiden Hauptversionen nicht mehr auf allen GeForce RTX, sondern nur noch auf der neuen Generation.
😡
Ist es nun technisch möglich, dass DLSS3 mit der neuen Funktion auch auf Ampere geht?
Sämtliche Spiele und Engines, die DLSS 3 in Zukunft erhalten werden (Stand 11. Oktober 2022)
- Unreal Engine 4 & 5
Damit dann auch Titanic - Honor & Glory. ^^
350 statt 450 Watt: Im Durchschnitt kaum schneller
Das Ergebnis ist eindeutig: Viel schneller wird die GeForce RTX 4090 durch den Sprung von 350 Watt auf 450 Watt (nicht immer ausgereizt) im Testparcours auf dem Core i9-12900K nicht. Im Durchschnitt legt Nvidias neues Flaggschiff dadurch nur um 3 Prozent zu. Ausnahmen bilden Spiele, in denen die RTX 4090 die 450 Watt ausreizt, der Einschnitt auf 350 Watt also groß ist. Aber selbst dann bleibt der Zuwachs einstellig.
Wäre dann kein Beinbruch gewesen, die TDP leicht zu senken. Ansonsten kann man sich den einstelligen Zuwachs zurück holen, indem man die Spannung senkt.
Die Messreihen zeigen, dass Nvidia mit der Entscheidung, die GeForce RTX 4090 auf dem TDP-Niveau der GeForce RTX 3090 Ti zu belassen, über das Ziel hinausgeschossen ist. Maximal 400 Watt hätten gegenüber 450 Watt quasi keinen Leistungsverlust, 350 Watt einen im Durchschnitt nur messbaren gebracht.
Jo.
Das Spielen in Ultra-HD-Auflösung mit mindestens 60 FPS ist die Paradedisziplin für die GeForce RTX 4090. Für geringere Auflösungen ist die Grafikkarte dagegen viel zu leistungsstark, selbst mit sehr schnellen Prozessoren. Dann wird die GPU in den meisten Spielen selbst vom Core i9-12900K im Testsystem ausgebremst. In 4K sind 60 FPS für die GeForce RTX 4090 ein Kinderspiel, auch mit maximalen Details inklusive Raytracing.
Dann werden wohl 4080/16 und 12 die perfekten WQHD-Karten, wenn man alles auf Max. knallen will. Bei meinem GTA5 mit meinen Einstellungen für ~150FPS wird dann selbst die 4080/12, die maximal 4070(TI) heißen sollte, dann maximal 50% laut Glaskugel ausgelastet werden, bzw. ich könnte da noch MSAA anschalten. Spannender wird es bei Grafikhuren-ShadernTM in Minecraft, denn sowas wie Seus HRR3 mit Fake-Raytracing krüppelt schon ordentlich auf einer 2080S. Und bei Transport Fever 2 wäre es interessant, ob das mit mehr Grafikkartenspeicher besser läuft, bzw. ob der Speicher dann komplett genutzt wird, bis auf 500GB. Da ist die Frage, ob das Spiel den Speicher wirklich braucht oder ihn einfach noch reserviert.