Test Nvidia GeForce RTX 5090 im Test: DLSS 4 MFG trifft 575 Watt im 2-Slot-Format

Axyl schrieb:
2329€ UVP, Lastspitzen von bis zu 655w...
Ich hab mich beim lesen des Artikels an manchen Stellen gefragt, ob ich mich mal selbst kneifen sollte um sicherzustellen, dass ich auch wirklich wach und bei vollem Bewusstsein bin.
Die Entwicklung der letzten Jahre lässt mich teils nur noch kopfschüttelnd zurück

Erst gab es virtuelle Geschlechter und Gratis Sternchen in Texten. Jetzt halt so was und generierte Frames. What's Next😂
 
  • Gefällt mir
Reaktionen: Gullveig
NV hat geliefert! Genau das was ich von NV erwartet habe. Passiert nicht oft das so sehr ins schwarze treffe. :daumen:
 
Ich habe nun so viele Tests gesehen und verstehe die Varianze nicht. Bei Roman knallt die 5090 die 4090 bei Cyberpunk in 4K direkt mal 46 % avg fps in raw raster weg und hat die MIN fps, welche die 4090 im avg nur schafft.
:freak:

Wir können dann in einem Jahr mit der 10800x3D CPU nochmals testen, damit sich die 5090 entfaltet oder wie....?


1737660980775.png
 
  • Gefällt mir
Reaktionen: Quidproquo77
nuestra schrieb:
Mit mfg der größte fps Sprung ever

Nö, da es nur Software basiert ist, die am Ende irgendwelche Fake Frames ausspuckt.

Wenn es danach geht, kannst du den längeren Fake Frame Balken doch auch jetzt schon haben, einfach in LoseLess Scaling 6x einschalten, damit Zerstört die 4090 jede 5090.

Wenn dir Interpolierte Fake Frames ausreichen, go for it.
 
  • Gefällt mir
Reaktionen: lynx007
Geil, als 4090 Besitzer sage ich nur:
Kauft euch alle die 5090, ich überspringe die Gen, oder warte auf deutlich günstigere Preise. Echt kein Mehrwert/Euro, sondern nur mehr Leistung für mehr Euros, nein Danke :D
 
  • Gefällt mir
Reaktionen: Moritz Velten, 1776, lynx007 und eine weitere Person
Denke im gesamten wird die 5080 oder die 5070TI interessanter
 
nuestra schrieb:
Fast alle reviewer sind super begeistert von der Karte nur die Kunden nicht ;)
Klar ist ja auch technisch interessant mit neural textures/shaders usw und Hardware mfg.

Bei einem Ferrari review sagt der tester auch nicht alles kac*e weil teuer...
 
  • Gefällt mir
Reaktionen: dohderbert
Kuestennebel79 schrieb:
Werden die Render FPS gedrosselt (mehr Latenz) oder weniger AI Fames generiert?
Zumindest beim bisherigen DLSS 3 FG wurden die Render-FPS reduziert, um dann mit den generierten am FPS-Limit zu landen. Pro nativem Frame werden bei FG immer 1 Frame und bei MFG eben immer 3 Frames generiert. Bei einem FPS-Limit ist also einzig die Render-FPS die Variable.
 
  • Gefällt mir
Reaktionen: Baal Netbeck
TheInvisible schrieb:
Klar ist ja auch technisch interessant mit neural textures/shaders usw und Hardware mfg.

Bei einem Ferrari review sagt der tester auch nicht alles kac*e weil teuer...
Ja der Ferrari ist ja auch geil genauso wie die 5090 ti super
 
MSI-MATZE schrieb:
Denke im gesamten wird die 5080 oder die 5070TI interessanter
Abwarten ... könnte mir vorstellen, dass die 5000er Serie nicht so der Knaller wird ...
 
nuestra schrieb:
Mit mfg der größte fps Sprung ever
Nö, nichtmal das.

Der prozentuale fps-Sprung von RTX 3090 Ti ohne FG zu RTX 4090 mit 2xFG war größer als der fps-Sprung von RTX 4090 mit 2xFG zu RTX 5090 mit 4xFG.
 
  • Gefällt mir
Reaktionen: nuestra und shaboo
Ich habe nun beschlossen in den Club der Idle-Kreuzritter beizutreten. Wer eine 5090 zusammen mit einer AM5-Plattform betreibt, um dann den ganzen Tag auf dem Desktop rumzuklicken, wird sich an den dramatischen Betriebskosten verheben. Da kommen ja noch mal sieben Watt dazu, ausgehend von einer 4090!

Also das kann ich so nicht kaufen, alles andere ist kein Problem, aber da hört es auf!
 
  • Gefällt mir
Reaktionen: wtfNow, Pisaro, Teropet und eine weitere Person
mibbio schrieb:
Zumindest beim bisherigen DLSS 3 FG wurden die Render-FPS reduziert, um dann mit den generierten am FPS-Limit zu landen. Pro nativem Frame werden bei FG immer 1 Frame und bei MFG eben immer 3 Frames generiert. Bei einem FPS-Limit ist also einzig die Render-FPS die Variable.
Das wäre ja ein Vorteil, dass man sozusagen nur 2 und nicht 3 AI Frames bekommt, also das justieren könnte. Aber ich denke, dass würden die Spiele nicht unterstützen.

Für mich bleibt übrig, es lohnt sich nicht wirklich mit einem 165Hz Screen.
 
Wurzel schrieb:
Abwarten ... könnte mir vorstellen, dass die 5000er Serie nicht so der Knaller wird ...
Aber auf eine 4080Ti ob sich das noch lohnt von einer AMD 6800XT
 
MSI-MATZE schrieb:
glaube jetzt kann die 5080 attraktiver werden
Glauben dürfen Sie daran! :daumen: Ob das so eintrifft halte ich bei den schon bekannten Spez und Marktstiation als überaus zweifelhaft.
"Leerlaufrunde" dank AMD und Intel, wer hätte das gedacht.
 
Bisschen ernüchternd ist das ja schon, dass der Zuwachs bei der Rohleistung so gering ist und es keinen Shrink für die Effizienzsteigerung gibt. Aber hat sich ja neulich schon in dem einem Video von Der Bauer angedeutet. Diese Karte sollte besser eine 4090TI sein.

Zudem sind die Speichertemperaturen ein Nogo, vorallem bei diesem aufwändigen Kühler und sie es bei der GPU ja hinbekommen. Im Sommer dann 100°C auf dem Speicher vermutlich überschritten. @Wolfgang: Könnt ihr die Graka mal öffnen und prüfen, ob man das verbessern kann? Also wie bei der 3090 weitere Pads hinzufügen oder evl. minderwertige Pads durch hochwertige oder hochwertiges Putty ersetzen. Andernfalls kann man dann wieder nur Custom kaufen, wenn man keine Angst haben will, dass die Graka schlechend den Speichertod stirbt.

Und auch ziemlich schäbig, dass man kein Multiframegen (MFG) auf der 4000-Serie bekommt. :kotz: Der mistige DX12-Wrapper von Witcher 3 frisst auch Leistung. Nativ kommen auf meiner 4080 etwa 50-60FPS raus, auf 1440P mit fast allem auf Max, außer Unschärfezeugs und Vignette etc. Mit Framegen sind es 80 bis 100 etwa (und ggf. nun leicht mehr durch die Optimierung) und mit DLSS Qualität 100-150 im Dreh. DLSS Qualität macht das Bild aber schon schlechter. (Bei Demo 401, Titanic HG finde ich DLSS besser umgesetzt. Dies ist ein Unreal-Engine-Programm.) Und Artefakte bei Witcher 3 durch Framegen sind kein Problem mehr für mich, da hilft es, die unnötigen Unschärfesachen abzuschalten. Und wenn Nvidia dann auch mal bei meiner Karte das Multiframegen geben würden, könnte ich dann quasi ohne DLSS-Nutzung wohl nahezu die 260Hz meines Monitors ausnutzen (per Treiber/Nvidia-App hinzugefügt). Und nach meiner Logik wird ggf. schlechtere Latenz wieder bisschen abgemildert, weil der Monitor dann bei 260Hz selbst weniger Inputlag hat als bei geringerer Frequenz.

Edit:

5090 -> 4090TI
5080 -> 4080TI
5080TI (die Graka mit 24GB, die zwischen 5080 und 5090 fehlt) -> 4080TI Super oder 4085
;)
 
  • Gefällt mir
Reaktionen: dohderbert und Baal Netbeck
Zurück
Oben