Test Nvidia GeForce RTX 5090 im Test: DLSS 4 MFG trifft 575 Watt im 2-Slot-Format

AnkH schrieb:
es aber genau diese zwei Spiele sind, die man gerne zockt (zocken will)
Ja, genau das meinte ich. Ist ein komisches Gefühl, wenn ich bei einer 80er "flagship" Nvidia GPU der neuen Generation zu dem Preis ernsthaft "schon" anfangen muss, die TExturenklasse um 1 zu reduzieren.
Mich würde es abfxcken :D Aber daher schmeisse ich ja auch so viel Geld wieder auf die 4090Ti. Also 5090.

AnkH schrieb:
und zweitens ist es halt pauschal schon zutreffend, dass 16GB für eine 1500-2000€ GPU im Jahr 2025 einfach schlicht und ergreifend lächerlich sind.

Ich glaube, dass hier 99% zustimmen, auch wenn es nur in 1 % der Games ein Problem wird.
Da geht es um das Pinzip und Nvidias penetrantes Upselling mit der einzigen Option 4090 (EOL) oder eben der 5090 ("Du willst das Maximum an VRAM? Gerne, das macht 2329+ pathtraced multiskalierte einzelne Euronen an der Kasse, bitte, danke").

Denkt an 2022, da hatten wir die Diskussion auch bereits, ob da 16 GB VRAM für die 4080 angemessen sind. "Ja, dann kauft doch die 4090". Deja Vu.....
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: AnkH und nutrix
Knobi Wahn schrieb:
Die Einordnung von Computerbase aufgrund der Nvidia Benchmarks kennst du?
Kommt letztendlich auf die Taktraten drauf an. Nehmen wir mal an sie schafft es nicht wie die 5090 30% schneller, sondern nur 15% schneller zu sein, wäre die 4090 etwa 10% entfernt.
 
Grestorn schrieb:
Das Nyquist Theorem hilft Dir hier nicht. Denn das sagt ja aus, dass Du die doppelte Abtastfrequenz brauchst, um eine gegebene Auflösung korrekt wiederherstellen zu können. D.h. wenn ein Bild mit einer gewissen analogen Frequenz aufgenommen wurde, musst Du es mit der doppelten(!) Auflösung in Pixel rendern und darstellen, damit Du keinen Fehler erzeugst.
Du musst es nicht in der doppelten Auflösung rendern und darstellen. Wenn du beides verdoppelst, dann ist die Renderauflösung ja nicht mehr doppelt so hoch wie die Ausgabe und du bist wieder am Anfang.

Ich versuch mal ein einfach nachzuvollziehendes Beispiel:
Beim Film verwendet man ja 4K-UHD-Kameras für 2K-FHD Filme und für 4K-UHD-Filme verwendet man 8K-UHD-Kameras - also abgesehen von Billigproduktionen. Das ist exakt das gleiche Prinzip.
 
Laphonso schrieb:
Ja, genau das meinte ich. Ist ein komisches Gefühl, wenn ich bei einer 80er "flahship" Nvidia GPU der neuen Generation zu dem Preis ernsthaft "schon" anfangen muss, die TExturenklasse um 1 zu reduzieren.
Mich würde es abfxcken :D Aber daher schmeisse ich ja auch so viel Geld wieder auf die 4090Ti. Also 5090.



Ich glaube, dass hier 99% zustimmen, auch wenn es nur in 1 % der Games ein Problem wird.
Da geht es um das Pinzip und Nvidias penetrantes Upselling mit der einzigen Option 4090 (EOL) oder eben der 5090 ("Du willst das Maximum an VRAM? Gerne, das macht 2329+ pathtraced multiskalierte einzelne Euronen an der Kasse, bitte, danke").

Denkt an 2022, da hatten wir die Diskussion auch bereits, ob da 16 GB VRAM für die 4080 angemessen sind. "Ja, dann kauft doch die 4090". Deja Vu.....
Wir brauchen mehr ram
 
Eines hat dieser Test beeindruckend gezeigt: Ohne einen Technologienodesprung sollte man sich keinerlei Erwartungen machen, es sei denn, die vorherige Generation hat einen so unglaublichen Bottleneck, dass man durch Fehlerbehebung viel rausreißt.
Wenn man zynisch sein will, spricht das dann allerdings weniger für die grandiose Arbeit des Designteams der Current Gen, sondern eher für die Fehlschläge des Designteams der letzten Gen. Oder im PR Sprech: "Wir haben viel gelernt."
 
Capthowdy schrieb:
Beide Bilder wurden während einer schnellen Kameradrehung aufgenommen:
Anhang anzeigen 1573911Anhang anzeigen 1573912
Ich bin echt irritiert. DLAA sah bei mir wie DLSS aus. Möglicherweise muss man einmal das Spiel neustarten wenn man von DLSS auf DLAA wechselt. Hatte zuletzt mit der normalen Kantenglättung gespielt, weil ich regelmässig daneben geschossen habe. Wenn ich wieder an den PC komme, werde ich mir das nochmal anschauen. Generell verwende ich nämlich immer lieber DLAA.
 
Dedenne1987 schrieb:
Möglicherweise muss man einmal das Spiel neustarten wenn man von DLSS auf DLAA wechselt.
Hm, also bei mir muss ich nicht neu starten, der Unterschied ist direkt sichtbar. :confused_alt:
 
EdgarTheFace schrieb:
Würde es Sinn ergeben, für die Creator- und sonstigen AI-Workloads lieber einen 9950X zu testen als einen 9800X3D? Speziell bei Topaz Labs Video AI sieht das Ergebnis so aus als wenn die CPU einfach am Limit ist.
Der 9800X3D ist in einer Workstation wahrscheinlich seltener verbaut, wenn man MultiCore-Last erzeugt.
Es ist nicht praxistauglich, mitten im Test die CPU zu wechseln. Die CPU ist im Topaz Test aber auch nicht das Problem, hier braucht es schlicht wie bei allen AI-Anwendungen eine Anpassung der Software an die Blackwell-Architektur.
Laphonso schrieb:
Der 9800x3D wird hier bereits zu langsam sein, um die 5090 zu fluten, und wer das lustig findet, darf gerne bei den 10800x3D Tests meinen Beitrag hier zitieren, wenn sich alle wundern, warum der Vorsprung der 5090 zur 4090 bei den gleichen RT Szenarien mit derselben CPU doch "unerwartet" größer wird, vor allem deutlich im min-fps Korridor.
Der 9800X3D limitiert in Ultra HD kein bisschen, auch bei den RT-Tests nicht. Da würde sich mit einem 10800X3D nichts ändern.
 
  • Gefällt mir
Reaktionen: eXe777, EdgarTheFace, Gravlens und 2 andere
shadACII schrieb:
Das Nyquist-Shannon Theorem sagt nur, dass es theoretisch möglich ist Signals eindeutig zu Rekonstruieren, solange sie unterhalb der halben Abtastfrequenz liegen. Darüber kommt es eben zu Aliasing. Das heißt aber Absolut NICHT, dass 2x2 OGSSAA das auch schafft.
Ok, du hast mit deiner Aussage Recht, wenn 1 nicht die Hälfte von 2 ist. Ich hab Recht, wenn 2 das Doppelte von 1 ist. Wer von uns holt den Taschenrechner raus und kontrolliert es?
 
Capthowdy schrieb:
Die Frage wird eher sein ob es zu Lebzeiten der 5090 noch relevant wird oder nicht.
Das ist richtig, das hängt dann natürlich von Nvidia ab, aber wenn das stimmt was in der Präsentation von Jensen behauptet wurde kann man damit in Zukunft für Spiele auch erheblich die Leistung verbessern.^^

Aber ich weiß auch nicht wie leicht dies zu implementieren ist, nur komplett ignorieren würde ich es jetzt auch nicht.^^
 
adfsrg schrieb:
Nein, stimmt nicht. Deiner Logik folgend wäre auch eine PS5 mit ihren mickrigen 16,7 TFLOPS günstiger als eine PC mit 5090.

Verstehe eher deine Logik nicht. "Günstig" zu bemessen an der Leistung jahrelang alter Hardware macht in meinen Augen keinen Sinn. Demnach kosten Grafikkarten bei den nächsten neuen Fertigungsprozessen irgendwann vermutlich 30k. Und wir verdienen noch genau so viel. Aber ist ja dann günstig weil die Leistung pro FPS ja auch gleichermaßen gestiegen ist - verstehe ich das richtig?

Lassen wir das, du hast da ein ganz andres Mindset da werden wir nicht grün und ich stimme da einfach nicht zu.
 
Also ich überlege jetzt schon stark, ob ich meine tolle 4090 behalte, denn es gibt weitere Aspekte, die wiederholt nervig sind bei der 5090.

1. Coil Whine/FPS-Rasseln. Ich hatte es geahnt und es wird wieder zur Lotterie, wenige Karten und Rückläufer-Wiederverkäufe. 2. Die FE ist auch diesmal nicht die geilste Karte, da wird es die eine oder andere Custom geben, deren Kühlkonzept deutlich effizienter ist wie meine aktuelle Aero. Ich bin nicht begeistert, meine CPU anzupusten. Dennoch reizt mich die Neue, leider muss ggf. noch ein neues Netzteil her. Die Idle-Werte sind deutlich schlechter als bei der RTX 4090 und UV wurde noch nicht ausreichend getestet. Für mich heißt das Fazit: ggf. abwarten, auch auf die Gefahr hin, dass Trump mit seinen Strafzöllen nochmal die Preise explodieren lässt. Dann wird es halt die nächste Generation, denn die 4090 lebt länger als gedacht.
 
Wolfgang schrieb:
Der 9800X3D limitiert in Ultra HD kein bisschen, auch bei den RT-Tests nicht. Da würde sich mit einem 10800X3D nichts ändern.
Das heißt mit einem 5800x3D bekommt Ihr die gleichen Benchmarks mit der 5090 in dem Parcours? also inkl. der fps Korridore?
...
;-)
 
Capthowdy schrieb:
Uff, dein Ernst? Schau dir Joel und den hinter ihm stehenden Automaten mal an, wie kann man das nicht sehen? Du musst das schon in voller Größe anschauen.
Oh Wow.

Ja, hab ich echt als Teil des gewollten Bilds gesehen. Ist ja wie ein Suchbild... :)

Ich bin ehrlich überrascht, dass DLAA diesen krassen Fehler nicht auch erzeugt. Der Fehler ist hier klar eine fehlende Vektorisierung des Spiels.

Hast Du mal versucht, die DLSS DLL gegen eine neuere Version zu tauschen? Am einfachsten geht das mit del DLSS Swapper, wenn Du es nicht manuell machen willst.
 
  • Gefällt mir
Reaktionen: Capthowdy
Taxxor schrieb:
Ich hoffe, dass die 6000er Serie den Fokus erst mal wieder auf weniger Verbrauch legt

Ich kann mir nicht vorstellen das einer der Hersteller besonderen Fokus auf Energieverbrauch legt, egal bei welcher. Das Ergebnis an leistung zur vorherigen Generation mit neuer technik ist gibt den verbrauch vor. Es geht um dgpus, da ist der verbrauch nebensache.
 
Puh, klar schnell(er), aber frisst quasi genau das mehr an Strom. Einfach linear, also nicht wirklich "verbessert" imo. Dazu ein absurd(, da Preisaufschlag vom Preisaufschlag für absolutes Luxuxhighendgedöns :evillol:) hoher Preis.

Wegen (Multi)Framegeneration. Im einen Spiel find ichs ok/gut (God of War Ragnarök), im anderen schliert es des Todes beim HUD bspw. (Test Drive Unlimited Solar Crown).

Gut ist eh außerhalb meiner Preisklasse, deshalb:
1737722765238.png


MfG, R++
 
Vielen Dank für den umfangreichen Test. Der hat sicher viel Arbeit gemacht.

btt: diese Karte ist ja ein eher unattraktives Gesamtpaket. Viel weniger Mehrleistung als ich erwartet habe, zu einem sehr hohen Preis.
Die Leistungsaufnahme ist auch echt übel.
Im Zusammenspiel mit dem restlichen System, kann man da ja nur vom auf Kante genähten verhindern des thermischen Kollaps sprechen.

Die Softwarefeatures klingen sehr interessant.
 
@Laphonso
So rum funktioniert das Spielchen nicht ;)
Ich kann dir sagen, dass die 5090 in unserem Testparcours in Ultra HD mit einem potenziellen 10800X3D nicht schneller wird als jetzt mit dem 9800X3D. Ob nicht bereits der 7800X3D langsamer ist als der 9800X3D weiß ich aber nicht, das habe ich auch nie behauptet.
 
  • Gefällt mir
Reaktionen: chaopanda, Gaspedal, eXe777 und 2 andere
Zurück
Oben