Bericht Nvidia GeForce „Blackwell“: Neue Details und Benchmarks zu RTX 5090, 5080 & 5070 (Ti)

Neubauten schrieb:
Da würde mich mal interessieren, wie die Latenzen gemessen wurden und was da überhaupt zum Vergleichen steht. Upscaler + Reflex oder MFG?

Natürlich 4K + Performance Upscaling + Reflex + MFG.

Ob der Vergleich so "richtig" ist oder nicht muss jeder selbst wissen, aber im Endeffekt ist es ja auch halbwegs repräsentativ. Wenn mit Upscaling (meinetwegen auch Quality + Reflex + MFG die latenzen gut und die FPS extrem hoch sind, ist das ne gute Spielerfahrung und 1000x besser als ohne diese ganzen Features. Denn dann ruckelts eben und die latenzen gehen durch die Decke.

Warum sollte Nvidia das also auch anders bewerben?



Was mich interessieren würde: Welche dieser Neural Rendering Features funktioniert auch auf älteren GPUs oder ADA?

Neural Radiance Cache wurde doch schon in einigen Pathtracing Spielen eingesetzt, oder irre ich mich?
RTX MegaGeometry wird laut AlanWake patchnotes auch auf allen RTX GPUs laufen.

Und trotzdem wird alles in jeder Folie nur im Bezug auf "Blackwell" vermarktet. Das ist leider sehr verwirrend...


Aber egal. Ich befürchte sowieso, dass diese ganzen Neural Features erst in einigen Jahren relevant werden.
Direct Storage braucht auch EWIG, um in Fahrt zu kommen.

Pathtracing, gut, das wird von nvidia gepusht, aber im Endeffekt ist auch ja auch nur Raytracing auf "Ultra". Einfach mehr von dem, was eh schon gemacht wird.

Sowas wie Neural Materials bedeutet aber Aufwand. Aufwand von Grafikdesignern, die extra Assets für RTX Karten anpassen bzw. überarbeiten müssen. So toll ich die features auch finde, ich bezweifle, dass man sie in naher Zukunft wirklich sinnvoll nutzen kann. Bis das relevant wird sind bereits RTX6000 oder 7000 am Markt, die bei solchen Aufgaben dann eh wieder x-mal besser performen.

Zumal ich vor dem Release von Squadron 42 und Witcher 4 eh keinen Sinn darin sehe, aufzurüsten. Ich mach das lieber nach "bedarf" und abhängig von den Games.
 
Zuletzt bearbeitet:
Was auch ne nullrunde sein wird ist das videoumwandeln von h264. Es mag zwar uralt sein und ein Urgestein aber da hätte ich doch mehr erwartet. Wenn schon so viele Decoder und so dann wenigstens aufwendiger. Damit gpu umwandeln die Videos kleiner werden ohne Qualitäts Verlust. So etxta Einstellung so richtung CPU es auch hat. Dann wäre ich sogar interessiert an einer der neuen gpus aber so eben nicht. cpu kann es halt selbst eine 5090 mit 3 decoder nicht die cpu ersetzen. schnell das ist ne gpu. Die Bildqualität passt auch wenn man die selbe settings wie bei cpu setzt. Nur es kommt eben ne doppelte Größe als Video raus. Hier hätte sich nvidia mehr Mühe machen können. Man baut so rissige und große Chips aber dazu ist nvidia nicht in der Lage. nvidia du entäuscht und verarscht mich. naja dann bleibt es halt eben weiterhin only cpu.
wie gesagt es kommt auf das gesammte drauf an. gpu ist fast gleich schnell nur eben minimal schneller als aktuelle CPU. Der Abstand wurde also mit der zeit immer kleiner. Ich habe halt zu viel von ner gpu erwartet gehabt und als ich das ausprobiert hatte, kamen gemachte Gefühle dabei raus. Das ist halt dann so.
 
  • Gefällt mir
Reaktionen: feris
  • Gefällt mir
Reaktionen: Qyxes, TomAkar, Convert und 2 andere
nun haben wir wirklich das Geheimniss von der neuen NVIDIA Preispolitik gelüftet:

das ist die Leistung der neuen Generation!
 
  • Gefällt mir
Reaktionen: Sturmflut92 und Hellyeah
Ich sehe keinen Grund eine 4090 auf eine 5090 upzugraden. +25% für einen massiven Aufpreis.

Und ob Multi Frame Generation nicht zu Artefakten führt werden wir noch sehen. Wenn nicht absolut notwendig aktiviert Frame Generation doch eh keiner.

Ich werde die 5090 auslassen.

Interessant ist, ob in Zukunft spiele so designed werden dass sie nur mehr mit MFG spielbar sein werden.
 
  • Gefällt mir
Reaktionen: TomAkar und Celinna
Es gibt kein wirklichen Fertigungsvorteil gegenüber der letzten Generation und somit auch kein wirklichen Leistungssprung.
Ja, die haben hier und da an der Architektur rumgefeilt, aber für die Gamer wird nicht viel ohne DLSS4 bei rum kommen.
Für AI wird wohl nur die 5090 ein Sprung machen mit dem dazugehörigen Preisaufschlag.

Die 5000er Serie ist eher eine Zwischengeneration und was besseres wird erst mit der 6000er Serie in 2 nm kommen.
 
  • Gefällt mir
Reaktionen: Sturmflut92, feris, AI94 und 3 andere
Atnam schrieb:
Warum nicht 450w vs 450w ?
Weil die meisten Leute ihre RTX 4090 auf 300W begrenzen. Schont Ohren und Geldbeutel. Der Leistungsverlust ist minimal.
 
  • Gefällt mir
Reaktionen: feris, Marflowah, Qyxes und 4 andere
mmh, irgendwie bisher ernüchternd die Leistungsprognosen. Für nen Upgrade von ner 6800 XT/3080 lohnt sich die 5080 zwar, aber das galt dann auch schon für die 4080 😅.
 
  • Gefällt mir
Reaktionen: feris und bad_sign
Atnam schrieb:
Warum 300w vs 300w
Warum nicht 450w vs 450w ?
Von mir aus auch bei 250. 300W wären für mich nur die Obergrenze, bei der ich eine GPU dauerhaft betreiben würde. Und ist von 450/600W TDP ausgehend ein netter Teiler.
 
  • Gefällt mir
Reaktionen: Mracpad, dohderbert und MiroPoch
Relevante Infos für mich:
  • DisplayPort 2.1 @ UHBR20
  • zusätzliche Farbunterabtastung von 4:2:2
  • weiterhin irrsinnig überteuert
  • PCIe 5.0 x16
 
  • Gefällt mir
Reaktionen: Qyxes, Topi41 und fox40phil
Nvidia schreibt an mehreren Stellen, dass diverse Techniken hier ein paar MB VRAM und da ein paar MB VRAM sparen sollen. Wie viel das wohl in Realität helfen wird?
@Wolfgang sind Untersuchungen in Richtung tatsächlichem VRAM-Verbrauch von Ada vs. Blackwell geplant?

Den Vergleich von AI Performance mit Flux... mit FP4 - ja klar. FP4 nutzen mWn nur relativ wenige außer falls der VRAM ausgeht. Irgendwo unterhalb einer Q6_KM Quantization geht dann doch einiges an 'Wissen' verloren.

@Vitche da hatte wohl jemand etwas Vorwarnung um seinene eigenen Post in aller Ruhe zu schreiben^^

Atnam schrieb:
Warum nicht 450w vs 450w ?
Weil die 4090 oftmals keine 450W benötigt, was den Vergleich hinfällig macht
 
  • Gefällt mir
Reaktionen: MiroPoch, Veitograf, Che-Tah und 3 andere
Noch nie so wenig Lust auf eine neue GPU gehabt, danke NVIDIA das ihr mich wahrscheinlich diese Gen überspringen lässt. Es war nie einfacher. ^^
 
  • Gefällt mir
Reaktionen: Mracpad, mrhanky01, Qyxes und 6 andere
Rickmer schrieb:
Nvidia schreibt an mehreren Stellen, dass diverse Techniken hier ein paar MB VRAM und da ein paar MB VRAM sparen sollen. Wie viel das wohl in Realität helfen wird?
Das ist fürs erste Zukunftsmusik schätze ich. Bis das in DirectX fest implementiert ist und von einer bedeutenden Anzahl an Spielen genutzt wird dürfte noch viele Jahre ins Land ziehen.
Rickmer schrieb:
@Vitche da hatte wohl jemand etwas Vorwarnung um seinene eigenen Post in aller Ruhe zu schreiben^^
Ich hab das eben schon mit Jan für den Podcast besprochen, der gleich online geht. Da dachte ich mir, was soll's, du kannst es auch nochmal in die Kommentare hauen, ist ja durchaus interessant.
 
  • Gefällt mir
Reaktionen: Michael vdMaas, ComputerJunge, flying_ass und 9 andere
ist leider wahr! AMPERE 2.0?
 
  • Gefällt mir
Reaktionen: Simanova
Das ist doch die interessanteste Folie, die einzige OHNE DLSS. Da kann man PI mal Daumen 30% Mehrleistung ablesen. Nett, aber ohne DLSS eben noch immer keine 60FPS die man eigentlich bei Max Quality und Max RT erhofft hat.
Also Warten auf die 6090.

https://pics.computerbase.de/1/1/5/6/7/6-0c59cf69c1ae3e7b/20-2160.e248712e.png
1736951864487.png
 
  • Gefällt mir
Reaktionen: Sturmflut92, mastermc51, dohderbert und 5 andere
Vitche schrieb:
Das ist fürs erste Zukunftsmusik schätze ich.
Die AI Texturen zweifelsohne

Aber Raytracing soll 3/4 den VRAM Bedarf haben, DLSS mit dem neuen Modell soll auch ein paar hundert MB sparen...
(Wobei das neue DLSS ja auch auf den alten Karten kommen soll. Nur die Änderungen im Raytracing sind auf Architektur bezogen.)

Das klingt summa summarum aber auch heute nach genug, dass es in der ein- oder anderen Situation für die 8GB und 12GB VRAM Karten einen Unterschied machen könnte.

Oder vielleicht will ich mir das nur schön reden?
 
  • Gefällt mir
Reaktionen: stevefrogs, Apocalypse und Maxminator
was tun nun? Ich weiß: ich warte nun und beobachte wie die 5090 Preise schön auf knapp 2200 fallen - dann kaufe ich erst eine 5090

Sorry NVIDIA

Ich sehe jetzt schon, dass die Gebrauchpreise von 5090 in 1,5-2 Jahren min. um die Hälfte reduziert werden. Wahrscheinlich wird die 5090 den steilsten Preisverfall erleben.
 
  • Gefällt mir
Reaktionen: Celinna
AI AI AI AI ich kanns nicht mehr hören xD

Ob hier von der AI erstellte Texturen an wirklich gute Texturen rankommt, die mittels Photogrammmetrie erstellt wurden?

Und irgendwie finde ich geht da auch ein bisschen was von der "Kunst" verloren, wenn bald alles mögliche nur noch von der KI erstellt wird (Texturen, Materialien, Volumen etc.)


Ach und muss man jetzt alles irgendwie RTX XXX nennen? RTX Skin, RTX Hair, RTX Neural Faces ... das hat so ein bisschen was von Apple.


Ja die Gen klingt schon ziemlich unspannend. Aber irgendwie hab ich Lust auf eine 5090 :D obwohl es eigentlich gegen jede Vernunft geht... muss ich mir nach den Tests nochmal durch den Kopf gehen lassen. Mindestens 4090 Performance hätte ich halt schon gern (OHNE FRAMEGEN!!!)
 
  • Gefällt mir
Reaktionen: Mracpad, Mayima, nargorn und 2 andere
"Darüber hinaus soll Raytracing auf Blackwell 25 Prozent weniger Grafikkartenspeicher benötigen als Ada Lovelace." Aber 16 GB VRam reichen doch nicht mimimimimi
 
  • Gefällt mir
Reaktionen: Loopman und stevefrogs
Zurück
Oben