Bericht Nvidia GeForce „Blackwell“: Neue Details und Benchmarks zu RTX 5090, 5080 & 5070 (Ti)

andimo3 schrieb:
denke, Path Tracing ist da aktiv? Aber dennoch, erstaunlich wenig. Hätte da gerne auch die Werte zu DLSS 2 oder 3 gesehen, vermutlich wäre es dann aber ca 3/4 und 1/2 des grünen Balkens, je nach Auflösung?
Genau sehr wahrscheinlich sind das die Benchmarks mit dem Pathtracing und da hätte ich mir viel viel mehr Wums gewünscht.

Um mal noch ein ganz anderes Thema anzusprechen. Nvidia und ihre Versprechen. Ich warte bis heute auf ein spielbares Racer RTX. Da hätte ich wirklich Bock drauf gehabt.
 
Ich hätte ansich Bock von der 3090 zu upgraden, notwendig isses nicht unbedingt, aber es könnt hier und da halt schon schneller gehen. Aber son richtig fetter Sprung is das alles nicht. Und mit jeder Karte außer den x90 Modellen verliere ich VRAM.
 
  • Gefällt mir
Reaktionen: BloodyLambo, al007, Averomoe und 2 andere
Crayten schrieb:
Es gibt halt keinen Grund, DLSS nicht zu nutzen, außer aus ideologischem Schwachsinn..
Du machst also FG immer an? Echt? Und dann auch noch auf Performance?
 
  • Gefällt mir
Reaktionen: Bunhy, martin_m und the_IT_Guy
Ko3nich schrieb:
Sieht ja nach einer Nullrunde aus.
nullrunde nicht ganz.
die 5090 hat schon auf dem papier einen uplift gegenüber der 4090 - die einzige frage ist wie groß das plus ausfällt. und da die 4090 ausgelaufen ist und amd das enthusiast-seeghment auslässt, haben interessenten sowieso keine alternativen.

beim restlichen 5000er lineup muss man sagen: es ist abhängig davon was man wie nutzen will. reine rasterizing leistung ohne dlss/sonstige "sonderfeatures" werden wohl kaum große zugewinne verzeichnen, abgesehen davon was die architekturoptimierungen ggf herausholen, aber eine revolution würde nicht nicht erwarten.
was reines raytracing betrifft, ist das aktuell (für mich) nur schlecht abschätzbar, denn vieviel sich hier zwischen der nvidia "gen" der hardware einheiten getan hat, ist nicht offensichtlich und auch zahlenwerte habe ich keine gefunden.
wenn man allerdings mehr und mehr auf dlss samt mfg und sonstige ai-getriebenen features in den vordergrund rückt, umso mehr kann die 5000er riege hier ihre muskeln spielen lassen, denn hier sieht man auch in den datasheets deutlich höhere rechenleistung ggü. vorgängergenerationen..
 
Wie sich die Grafikqualität bei DLSS ändert (Youtube, Video vom Kanal Digital Foundry):

NerdmitHerz schrieb:
okay da bin ich persönlich interessiert wie sich das am ende wirklich auf dem papier und dann in tests auswirken wird. denn 10 zu 16 minuten ist schon interessant.
1× nvenc = 32 Minuten
2× = 16 Minuten
3× = 10 Minuten

Wenn es dir nur die Geschwindigkeit ankommt und nicht die Farbunterabtastung, dann ist eine zusätzliche 4070 Ti Super günstiger und schneller, wenn noch genug Platz im Rechner ist. Der Use-Case hatte mich auch interessiert. :-)
 
Zuletzt bearbeitet: (Kommentar zu nvenc)
  • Gefällt mir
Reaktionen: the_IT_Guy
the_IT_Guy schrieb:
Nett, aber ohne DLSS eben noch immer keine 60FPS

Crayten schrieb:
Es gibt halt keinen Grund, DLSS nicht zu nutzen, außer aus ideologischem Schwachsinn..
Normales DLSS lass ich mir ja eingehen, wenn es gut umgesetzt ist. Aber die machen da aus nichtmal 50 FPS mit ihrem MFG 250+FPS das sind ja quasi 200 Frames ohne dass da die CPU was von gesehen hat, ohne Input etc. Ich kann mir nicht vorstellen, dass sich das gut anfühlt und/oder ohne Artefakte o.ä. läuft.
 
  • Gefällt mir
Reaktionen: Icke-ffm, Teeschlürfer, Tera_Nemesis und 3 andere
digitalfrost schrieb:
Ich hätte ansich Bock von der 3090 zu upgraden, notwendig isses nicht unbedingt, aber es könnt hier und da halt schon schneller gehen. Aber son richtig fetter Sprung is das alles nicht. Und mit jeder Karte außer den x90 Modellen verliere ich VRAM.
wir als 3090 Besitzer kriegen mit 5090 ganz genau 3x Leistung!
 
Nvidia will nicht nur die Qualität der En- und Decoder verbessert haben, darüber hinaus gibt es auch mehr davon, um die Performance weiter zu verbessern. So verfügen die größeren GeForce-RTX-4000-Karten erstmals über 2 NVENC-Einheiten zum Encodieren, manche RTX-5000-Beschleuniger haben derweil 3 NVENC-Einheiten. Es soll nicht nur die Bildqualität um 10 Prozent besser mit der neuen GPU-Architektur ausfallen (BD-BR PSNR), mit der zusätzlichen, dritten NVENC-Einheit soll die GeForce RTX 5090 ein nicht näher spezifiziertes Video in 10 Minuten encodieren, wofür die GeForce RTX 4090 16 Minuten benötigt. Darüber hinaus gibt es erstmals bei manchen RTX-5000-Grafikkarten 2 Decoder-Einheiten, die GeForce-RTX-4000-Generation beschränkt sich immer auf einen Decoder.

okay da bin ich persönlich interessiert wie sich das am ende wirklich auf dem papier und dann in tests auswirken wird. denn 10 zu 16 minuten ist schon interessant.

nicht, dass die 5090 (geplant für gaming-pc) für mein render-kram dann kreise um meine 4070ti super (ausm render-pc) ziehen würde

wobei wenn die 5090 dann die videos rendert und die 4070ti super sie aufnimmt, wird das ja wieder obsolet

ich bleib gespannt, weil das mit dem neuen encoder bekam ich schon mit

5090 (oben) vs 4090 (unten)

5090 vs 4090.png
 
Ganz tolle "Benchmarks" und Tech Wörter

vielleicht sind wir bald an dem Punkt, an dem wir überhaupt nicht mehr spielen müssen und nur noch künstlich generierte Bilder bekommen, das wäre doch super 😅

Ansonsten ist mein einziger Kritikpunkt an der aktuellen 4000er Technik leider nicht angegangen worden, coil whine bzw Spulenfiepen wird es weiterhin geben... 😕
 
  • Gefällt mir
Reaktionen: daknoll
Mimir schrieb:
Natürlich 4K + Performance Upscaling + Reflex + MFG.

Ob der Vergleich so "richtig" ist oder nicht muss jeder selbst wissen, aber im Endeffekt ist es ja auch halbwegs repräsentativ. Wenn mit Upscaling (meinetwegen auch Quality + Reflex + MFG die latenzen gut und die FPS extrem hoch sind, ist das ne gute Spielerfahrung und 1000x besser als ohne diese ganzen Features. Denn dann ruckelts eben und die latenzen gehen durch die Decke.

Warum sollte Nvidia das also auch anders bewerben?
Selbstverständlich können sie das so bewerben, das ist vollkommen legitim. Das sich das Ganze besser anfühlt als mit 30 gerenderten Frames ist ja vollkommen logisch. Das wird zeitnah ohnehin der Weg sein, um beim Raytracing zu ermöglichen.

Das ist 20ms besser als der erste erste Test von DF mit der 5080 (daher auch die Frage nach der Intensität des Upscalings). Auch wenn die 5090 natürlich über entsprechend mehr Rechenleistung verfügt, scheint Reflex 2 da vielleicht auch schon einen positiven Effekt zu haben. 20ms ist schon eine wirklich starke Steigerung. Für SP-Games ist das auf jeden Fall ein super Feature.
 
Das die HW eher eine schwache Generation wird war ja abzusehen, seitdem mehr oder weniger Bekannt war, dass sich beim Fertigungsprozess nichts tun wird. Das war in der Vergangenheit auch schon so die Regel, lediglich Maxwell fällt mir hier als Ausnahme ein.

Ich Prophezeie auch, das Neural-Shader in den kommenden Jahren lediglich einer Hand voll von NV gesponserten Titeln zu finden sein werden. Sollten diese tatsächlich in DirectX, und später dann bestimmt auch in Vulkan, zu finden sein, ist Potenzial für eine weitere Verbreitung da, wird aber stark davon abhängig sein, wie Praktikabel es für Entwickler sein wird. Sollte man für einen jeden einzelnen Neural-Shader jedes mal selbst ein Netzwerk dafür trainieren müssen, werden diese nur in AAA Spielen zu finden sein.
Und wie bei RT werden Neural-Shader den Massenmarkt fruehestens mit den Next-Gen Konsolen erreichen.
TLDR: nichts was man jetzt haben muss
 
Zuletzt bearbeitet:
GrooveXT schrieb:
Es zeigt sich immer mehr, wie gut die Ada Generation eigentlich war. Nach Pascal bisher die beste Gen finde ich (mal von ein paar Fehltritten abgesehen).
Naja, Curie und Tesla waren schon nochmal wesentlich besser.
 
Tsu schrieb:
Wie sich die Grafikqualität bei DLSS ändert (Youtube, Video vom Kanal Digital Foundry):
TLDW? Keine Lust das Video zu schauen ;)
 
  • Gefällt mir
Reaktionen: Kuestennebel79
Apocalypse schrieb:
Du machst also FG immer an? Echt? Und dann auch noch auf Performance?
Leg ihm doch keine Worte in den Mund die er nicht benutzt hat. Was soll der Quatsch?
 
  • Gefällt mir
Reaktionen: Pro_Bro, BloodyLambo, Coronium und 6 andere
Der vielfache Einsatz von Dingen wie RTX Skin, RTX Hair und RTX Neural Faces würde weiter die Vormachtstellung von Nvidia in dem Bereich sichern und letztendlich zu einem Monopol führen. Keine guten Aussichten und man kann nur hoffen dass AMD und Intel davon genauso profitieren können. Erinnert mich an den damaligen Aufkauf von PhysX.
 
  • Gefällt mir
Reaktionen: Veitograf, daknoll und II n II d II
Wechhe schrieb:
Displayport 2.1 UHBR20 ist mit 80 GBit/s spezifiziert - in der Folie steht aber 20 Gbps. Was stimmt denn nun?

20Gbps wäre enttäuschend.
20 Gbit/s mit 4 Lanes = 80 Gbit/s
 
  • Gefällt mir
Reaktionen: SaschaHa und Ray519
Bullz schrieb:
Conputerbase wird eine 5090 oder 5080 schon im Rechner haben oder ?

Das dürfen sie dir nicht sagen ;)
Ich denke aber jetzt noch nicht
 
  • Gefällt mir
Reaktionen: Bullz und Ganjafield
Zurück
Oben