Test Nvidia GeForce RTX 5090 im Test: DLSS 4 MFG trifft 575 Watt im 2-Slot-Format

Überraschend schneller aber mit nenn haken den keiner bemerkt hat.
zwar haben die reviewer das whitepaper aber es ist noch nicht öffentlich verfügbar daraus die Bilder deuten es an Nvidia hat die sm so umgebaut das folgendes drin ist
128 hybrid fp32/int32 Einheiten mit 4 sfu 4 tensor 4 tmu kernen das neue ist das es alles hybrid alu sind womit die software hier entscheidet was wieviel arbeitet nimmt man die bisherige 64+64 wovon 64 hybrid sind konnten dort 3/4 der 64alu für fp32 genutzt werden was aber in der Regel nur 64fp32+ 24 hybrid =88fp32 waren da 40int32 laufen mussten jetzt dürfte das besser ausgelastet werden womit ich mit 96fp32 rechne was die Zahlen auch hergeben.
Da es aber dynamisch angepasst wird kann es auch bei nur den 64fp32 enden in legacy code wie dx9 oder ogl was bei ada und ampere auch so war. bsp farcry 2 von 2009 pascal gp106 vs ampere ga106 +30% bei faktisch doppelten alu.
Wenn dx12_1 ft lvl 9_10_11 genutzt wird erhöht sich das auf die min fp32 von ada und ampere was 80fp32 (64fp32 +16 min fp32 per hybrid ) wären dazu kommt der verdacht das die rop da diese nicht angestiegen sind die Bildausgabe per default hochskaliert sprich 88% Renderscale.
Das wird man erst bei den Neuen Treibern erst merken.
Sprich nur dx12_2 können die 96fp32 nutzen per sm und dies mit den auto upscaled dann die 33% erreichen (2,2ghz) pathtraced test von pcgh.
Erst der Test zur rtx5080 nächste Woche wird Klarheit bringen da man dort nicht power limitiert ist
Diese sku hat 360w tbp und nur 84sm was den Takt auf grob 2,7ghz prügeln wird.

Womit folgendes erreicht wird
rtx5080 vs rtx4080
dx12_2 +36% (sofern kein PL greift)
dx12_1 +13%
dx9 ogl +24%

Am schlimmsten trifft es die rtx5070 (2,5ghz)
rtx5070 vs rtx4070
dx12_2 +19%
dx12_1 +0%
dx9 ogl +9%

Cpu limits ausgenommen gpu load bei 95-99%
Der Samsung sf4 node der vermutlich genutzt wird für den gb205 ist etwa 20% ineffizienter als der tsmc n5
Sollte dennoch tsmc n5 genutzt werden wäre die tbp der sku viel zu hoch da hätte es auch die 220w tbp gereicht.

Den ohne den auto upscaler komme ich auf maxed 16-20% gb202 vs ad102
Die hier grob +25% kommen wohl sehr wahrscheinlich vom cpu limit daher sage ich ja beim rtx5080 Test wird Klarheit kommen was den zutrifft

Ich hätte echt gedacht das man die Aufforderung die gpu load anzugeben bei einen HIGH END gpu Test mal durchdringt.
Die Daten sind da ist ja nicht mehr 2009 wo man nur fraps hatte.
 
Ihr habe keine Chance 🤣,neues Personal eingestellt für den Release

Screenshot 2025-01-24 130919.png
 
  • Gefällt mir
Reaktionen: Hells_Bells und Laphonso
Fighter1993 schrieb:
Einfach weil die 4090 und 5090 dieses liefern.
Für die 1,5% der Spieler? Geh ich nicht von aus. Aktuelle Spiele fangen seit ca. 2 Jahren an erst mehr als 8GB zu brauchen. Der Grund liegt da eher bei der Konsolen Generation, die eben einfach mehr (unified) RAM haben als die alten. Da die neue Konsolengeneration frühestens 2026 erwartet wird dürdte man mit 16GB VRAM im Gaming noch gut die ersten Jahre der neuen Konsolen Generation mitnehmen können, erst recht durch Upsampling Technologien.
 
adfsrg schrieb:
Danke, ich stand wohl echt auf dem Schlauch. Manchmal bringe ich die Begriffe ein wenig durcheinander. Ich meinte nicht SuperSampling im Allgemeinen sondern Oversampling aka OGSSAA im Speziellen.
OG heißt ordered grid. Das ist Supersampling mit doppelter Auflösung in beide Richtungen.

Wenn Du damals die Diskussion beim Multisampling mitbekommen hast, dann weißt Du, dass OG nicht besonders gut für Anti-Aliasing ist.

Das Nyquist Theorem hilft Dir hier nicht. Denn das sagt ja aus, dass Du die doppelte Abtastfrequenz brauchst, um eine gegebene Auflösung korrekt wiederherstellen zu können. D.h. wenn ein Bild mit einer gewissen analogen Frequenz aufgenommen wurde, musst Du es mit der doppelten(!) Auflösung in Pixel rendern und darstellen, damit Du keinen Fehler erzeugst.

Der Monitor macht ja genau das Gegenteil beim SS: Er stellt das Bild mit der halben Auflösung pro Achse dar.

Und außerdem wollen wir keine begrenzte Auflösung. Das gewünschte Bild hat eine unendliche Auflösung, Du wirst immer Alias-Effekte sehen, so lange Du ein Raster hast. Das Auge ist da echt gemein beim Auflösen solcher Details in Bewegung (Flackern, Alias-Flimmern).

D.h. je mehr Sample desto besser. Und am besten eben nicht "Ordered" sondern in verteilten Winkeln um den Pixel herum.
 
  • Gefällt mir
Reaktionen: Laphonso
Laphonso schrieb:
Aber das ist schon eine Wette, dass es nicht ggf. genau 1 oder 2 Games gibt dieses Jahr, bei denen ultramaxed 4K Settings dann 17-20 GB VRAM "fordern".
Die gabs doch letztes Jahr schon. Ich denke nicht, dass sich das dieses Jahr veringern wird, auch wenn Nvidia angekündigt hat das DLSS4 weniger VRAM braucht.
 
  • Gefällt mir
Reaktionen: Laphonso
Grestorn schrieb:
Welche Artefakte hat man denn bei dem Spiel? Moiré? Smearing? Ghosting?
Beide Bilder wurden während einer schnellen Kameradrehung aufgenommen:
TLoU - DLSS Quality.jpg
TLoU - DLAA.jpg
 
  • Gefällt mir
Reaktionen: alkaAdeluxx und Wau
Shio schrieb:
Die gabs doch letztes Jahr schon.
Hast Du recht, ich hätte "weitere" schreiben sollen neben Indy u.a.
 
  • Gefällt mir
Reaktionen: Shio
Hier wird so getan als ob der einzige Unterschied zwischen 4090 und 5090 die Performance und der Verbrauch ist.^^

Also das stimmt so nicht, nur weil aktuelle oder ältere Spiele die neural Shader (noch) nicht nutzen, wird sich das vermutlich dann bei von Nvidia gefeaturten Titel ändern.^^

Und zumindest andere sind von dem Feature begeistert, warten wir mal ab wie das bei dem nächsten großen Spiel sein wird welches dies unterstützen wird.^^

Bis jetzt hat es mich noch nicht überzeugt, aber so zu tun als gäbe es das nicht ist auch schon fast leichte Realitätsverweigerung.^^
 
Zuletzt bearbeitet:
Grestorn schrieb:
Reicht mir ja, ich bestelle gleich bei Release zum UVP.
Nur wirst du vermutlich keine bestellen können, da direkt weg.^^
 
Laphonso schrieb:
Pauschal ist die Aussage 16 GB VRAM für 4K seien zu wenig sicher Quatsch.
Pauschal sicherlich in Bezug auf wie viele % der Spiele bei 4K Ultra einknicken, nur weil der VRAM zu klein ist. Aber: erstens ist es den meisten Käufer völlig egal, wenn von 30 Spiele nur deren 2 ein Problem haben, es aber genau diese zwei Spiele sind, die man gerne zockt (zocken will) und zweitens ist es halt pauschal schon zutreffend, dass 16GB für eine 1500-2000€ GPU im Jahr 2025 einfach schlicht und ergreifend lächerlich sind. Man steckt Unmengen Entwicklungskosten in AI Helferchen, kleinere Fertigungsgrössen, Herstellverfahren und und und. Aber beim "einfachsten" Faktor VRAM geizt und knausert man und bleibt auf dem Level von 2020 stehen. Verstehe ich schlicht nicht. Ehrlich. Hat sich ja wohl noch keiner je beschwert, dass eine Karte zu VIEL VRAM hat. Und man könnte es sogar als "Gratis-Argument" nutzen, um einen Aufpreis ggü. der Vorgängergeneration einfach so mal schon zu rechtfertigen. Aber nein, irgend ein Entscheidungsträger bei nVIDIA trinkt wohl Lack ;-)
 
Gravlens schrieb:
aber so zu tun als gäbe es das nicht ist auch schon fast leichte Realitätsverweigerung.^^
Die Frage wird eher sein ob es zu Lebzeiten der 5090 noch relevant wird oder nicht. Ich tippe mal auf nein, wird es nicht. RT war für die 2000er auch eher irrelevant und die 6090 klopft vielleicht schon Ende nächstes Jahr an die Tür. 🤷‍♂️
 
  • Gefällt mir
Reaktionen: GrooveXT
Capthowdy schrieb:
Beide Bilder wurden während einer schnellen Kameradrehung aufgenommen:
Hilf mir, wo genau muss ich hinsehen?

Generall: Gerade bei Bewegungen wird man den Nachteil bei DLSS sehen, weil eben weniger (im Extremfall nur ein) Frame für ein Detail verfügbar ist. Also man hat dann eher Alias Kanten und leichte Detail-Unschärfe. Das ist genau der Punkt, wo DLAA im Vorteil ist. Allerdings sind solche Dine in Bewegung auch deutlich schwerer zu sehen, was ja der Effekt ist, wieso DLSS von vielen so geschätzt wird.

Aber für Smearing und Ghosting ist DLAA genauso anfällig wie DLSS.
 
Die wissen schon warum sie die 4090 vom Markt genommen haben
 
  • Gefällt mir
Reaktionen: Gaspedal und the_IT_Guy
Capthowdy schrieb:
Nur wirst du vermutlich keine bestellen können, da direkt weg.^^
Na, man kriegt schon noch eine zum UVP, auch wenn ich etwas warten muss. War bei der 4090 nicht anders.

Und dieser Thread sorgt wie gesagt dafür, dass ich a) eine Karte doch recht schnell ergattern kann und b) meine 4090 noch gut verkaufen kann.

Also vielen Dank an alle, die hier ihrer Enttäuschung so lautstark Luft machen :)
 
  • Gefällt mir
Reaktionen: nutrix
Capthowdy schrieb:
Nur wirst du vermutlich keine bestellen können, da direkt weg.^^
Das einige hier wirklich denken eine FE zu bekommen, und alle die ihre 4090 verkauft haben. Bei vielen werden wir hier viele Lange Gesichter sehen wenn sie nach 2 Monaten immer noch keine Grafikkarte haben. Sofern sie wirklich auf die FE bestehen. Bei Costums könnte das anders aussehen.
 
Grestorn schrieb:
Hilf mir, wo genau muss ich hinsehen?
Uff, dein Ernst? Schau dir Joel und den hinter ihm stehenden Automaten mal an, wie kann man das nicht sehen? Du musst das schon in voller Größe anschauen.

Edit: hier nochmal im Detail:
TLoU - DLSS Quality-2.jpg
TLoU - DLAA-2.jpg
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: alkaAdeluxx
adfsrg schrieb:
bei dem einfachen SuperSampling mag das stimmen, aber gemäß Nyquist-Shannon-Abtasttheorem reicht die doppelte Frequenz (hier Pixel je Richtung) aus um ein Signal exakt zu rekonstruieren (genau genommen nicht =2 sondern >2). Es kann also gar nicht besser werden als 2xOGSSAA.
Huiuiuiui, da wurd aber was verwechselt. Das Nyquist-Shannon Theorem sagt nur, dass es theoretisch möglich ist Signals eindeutig zu Rekonstruieren, solange sie unterhalb der halben Abtastfrequenz liegen. Darüber kommt es eben zu Aliasing. Das heißt aber Absolut NICHT, dass 2x2 OGSSAA das auch schafft.
 
  • Gefällt mir
Reaktionen: Grestorn
Grestorn schrieb:
Also vielen Dank an alle, die hier ihrer Enttäuschung so lautstark Luft machen :)
Überschätze das mal nicht, die Karten werden trotzdem weg sein. Ich rechne nicht damit eine zu bekommen, aber wir werden sehen. :D
 
  • Gefällt mir
Reaktionen: Grestorn
blackiwid schrieb:
Fortschritt gibt bei der 5090 ja noch am ehesten da macht auch Framegen noch am ehesten Sinn um 70-80fps auf >200 für das Oled Display hoch zu pumpen. Ohne das der Lag zu schlimm wird.
Da bin ich anderer Meinung. Denn die klassen unter der 5090 können genauso von MFG profitieren, sie brauchen lediglich die Grafik presets so anpassen das sin mind. 60 native fps haben. Und im WQHD bereich gibts viel mehr 240hz Bildschirme. Besonders viele die schon bei Gamern stehen.

erst recht die FHD Gamer die sich eine 5060 kaufen , werden davon profitieren. 240hz und mehr ist dort nicht selten. besonders wenn es 320hz sind macht FG/MFG richtig spass mit 80nativen fps.
 
Zurück
Oben