Bericht Nvidia GeForce „Blackwell“: Neue Details und Benchmarks zu RTX 5090, 5080 & 5070 (Ti)

Wolfgang

Redakteur
Teammitglied
Registriert
Nov. 2002
Beiträge
8.992
  • Gefällt mir
Reaktionen: mastermc51, CueSystem, zhompster und 28 andere
Die Änderungen an den SMs/ALUs sind interessant, weil sie im Kontext Gaming-Workload überhaupt nicht ins Bild passen. Jetzt haben wir also pro Shader-Partition 32 Shader, die neben FP32 auch INT32 können. Ampere und Ada hatten je 16 "reinrassige" FP32-ALUs und 16 FP32-ALUs, die außerdem INT32 beherrschen.

Der Gedankengang dahinter war, kommend von Turing, die Auslastung zu verbessern. Mit Turing war es nämlich noch so, dass es pro Partition neben den 16 FP32-ALUs noch 16 "reinrassige" INT32-ALUs gab, die also nur mit ganzen Zahlen umgehen konnten. Bei der Computergrafik sind allerdings überwiegend Fließkommaberechnungen gefragt. Nvidia hat damals auch Statistiken genannt, je nach Spielen lag das Verhältnis der FP-zu-INT-Rechenlast bei 4:1 bis 2:1. Dementsprechend hatte Turing zwar pro Shader/FP32-ALU bzw. gemessen an den TFLOPS eine hohe Gaming-Leistung, weil sich die Shader nicht mit Ganzzahlen rumschlagen mussten; die Hälfte der Single-Precision-ALUs lag aber rund 2/3 der Zeit brach.

Mit Ampere (und Ada) wurde das Problem aus der Welt geschafft, weil diese INT-ALUs jetzt einfach auch Fließkommaberechnungen anstellen, wenn es gerade keine INT-Rechenlast gibt. (Nebeneffekt war dann aber natürlich, dass allein dadurch bedingt das TFLOPS-zu-FPS-Scaling schlechter wurde, weil sich die damit pro SM verdoppelten "eigentlichen Shader" wieder selbst um die INT-Berechnungen kümmern müssen.)

Anyway, ich sehe nicht, wie es jetzt plötzlich für Gaming-Szenarien hilfreich sein soll, mehr INT-Rechenleistung bei pro SM nicht höherer FP-Rechenleistung zu haben. Ich glaube nicht, dass sich Spiele seither hin zu im Verhältnis höherer INT-Rechenlast entwickelt haben. Und damit ist das bezogen auf die Chipgröße eher ein Klotz am Bein. Hier dürften ausschließlich AI-Hintergedanken eine Rolle gespielt haben.

Abseits dessen ist die Skalierung der zusätzlichen Shader bei den verschiedenen SKUs interessant, da zeigt sich bei allen vier Modellen ein leicht anderes Bild. Ich deute das erst einmal so, dass gerade bei der 80 und den beiden 70ern auch die Bandbreite durchschlägt. Nichtsdestoweniger ist eine 5080, die ihren Vorgänger gerade einmal um ~ 15 % schlägt (und das mit RE4 durchaus auch in einem "nativen" UHD-Szenario mit entsprechend hoher Renderinglast), vermutlich die im Generationenvergleich schwächste 80, die Nvidia jemals konstruiert hat.

Schmankerl am Rande: Bei der Folie zur RTX 5070 Ti musste Nvidia den Balken zu Indy oben abschneiden, weil der Zuwachs ungewöhnlich groß ausfällt. Wieso? Weil die 5070 Ti mit 16 GB nicht in das harte VRAM-Limit läuft, dass die 4070 Ti hier offensichtlich sogar schon in WQHD mit DLSS SR hat. Da schmeckt die 5070 mit ebenso nur 12 GB direkt noch besser.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: flo.murr, Neo1985, Vangart und 81 andere
Ich bin gespannt. Hoffentlich gibt es vor allem leisere Karten ohne Spulenfiepen, das reicht mir schon 😅
 
  • Gefällt mir
Reaktionen: felixyz, Europa, Zockmock und 9 andere
Der Ausreißer der 5070 scheint eher ein Fehler der Folien zu sein. Scheint ja sonst, als gäbe es so gut wie gar keine Verbessung der IPC. Kommt alles über mehr Shader (andere Taktraten mal ausgenommen).

Hätte nicht gedacht, wie uninteressant diese Serie wird.
 
  • Gefällt mir
Reaktionen: nyster, Kommando, zhompster und 9 andere
Don't trust vendor benchmarks :)
 
  • Gefällt mir
Reaktionen: nyster, Hellyeah, Act4 und 54 andere
Bin wirklich gespannt wie sich der Kühler des Referenzdesigns im Vergleich zu Custom Designs in den unabhängigen Tests schlägt.
 
  • Gefällt mir
Reaktionen: nyster, zhompster, Zockmock und 4 andere
@Wolfgang wie darf man RTX Hair, Neural Materials usw. verstehen, sind die zu jeder Engine möglich oder müssen die speziell eingebettet werden?
 
  • Gefällt mir
Reaktionen: Hellyeah, Zocker1996, Qyxes und eine weitere Person
"Farbunterabtastung"

Ach, bei Farben kennt ihr das Wort, aber bei Pixeln ist es plötzlich "Upsampling"?
 
  • Gefällt mir
Reaktionen: EntelodonX, nyster, paulemannsen und 7 andere
1736950082351.png

Also, 4090 mit Frame Gen; 5090 mit Multi-Frame Gen... Die Grafik enttäuscht mich ein wenig.
Grundsätzlich bin ich von der Technik, insbesondere wenn man mit Controller und nicht mit Maus spielt, begeistert.

Ist ja nicht mehr lange hin, bis wir Tests serviert bekommen.
 
Zuletzt bearbeitet: (Grammatik korrigiert)
  • Gefällt mir
Reaktionen: Pleasedontkill, Celinna, Zagrthos und 2 andere
Ohne MFG sind die Zuwächse echt enttäuschend. Das könnte sogar den Preisen der 4000er Reise einen leichten Push geben.
 
  • Gefällt mir
Reaktionen: nyster, Kommando, Raidiri und 11 andere
Beziehen sich die Nvidia Benchmarks und der ca. 15% Leistungszuwachs auf eine 4080 oder eine 4080 Super?
 
  • Gefällt mir
Reaktionen: Zocker1996 und w33werner
Die 5070Ti wird DIE Karte ich ich jedem empfehlen würde, bis die Tests und der Preis für die 9070XT raus sind.

Ich selber strebe die 5090 an, weil schon die Leistung der 4090 mir nicht genug war, dafür muss aber halt auch zahlen...
Ergänzung ()

CruellaDE schrieb:
Beziehen sich die Nvidia Benchmarks und der ca. 15% Leistungszuwachs auf eine 4080 oder eine 4080 Super?
Das Frage ich mich auch, auch bezogen auf die 5070Ti vs 4070Ti.
Wenn es so ist, sieht es nicht gut aus.

Trotzdem würde ich die 5070Ti als "günstigste" 16GB Nvidia Karte empfehlen. Der Unterschied zur 4070TIS ist zum UVP der 5070Ti nur 30-40€.
 
  • Gefällt mir
Reaktionen: feris, Zocker1996, og22 und 2 andere
CruellaDE schrieb:
Beziehen sich die Nvidia Benchmarks und der ca. 15% Leistungszuwachs auf eine 4080 oder eine 4080 Super?
Spielt keine Rolle, sind beide gleich schnell. Die 4080 Super verwendet nur andere Fertigsmethoden was den Verkauf billiger macht. Ansonsten nur ein minimaler Unterschied beim der Videospeicher Bandbreite.
 
  • Gefällt mir
Reaktionen: nyster, Finnschi, Ganjafield und 5 andere
CruellaDE schrieb:
Beziehen sich die Nvidia Benchmarks und der ca. 15% Leistungszuwachs auf eine 4080 oder eine 4080 Super?
Immer ohne Super. Bei der 80 ist es ehrlich gesagt auch recht egal, aber bei den beiden 70ern wäre es für Nvidia sehr schwierig, zu 4070 Super und 4070 Ti Super zu vergleichen. Das wird, befürchte ich, eine Nullrunde.
 
  • Gefällt mir
Reaktionen: nyster, mastermc51, zhompster und 14 andere
Wird Zeit, dass bald echtes Tests bei CB, PCGH und Co kommen.
Dieses häppchenweise von Nvidia/AMD und diese ganzen Gerüchte nerven eigentlich nur (noch).
 
  • Gefällt mir
Reaktionen: Romanow363, nyster, Hellyeah und 17 andere
Sieht ja nach einer Nullrunde aus.

Hoffentlich ist das Paket aus Effizienz, Leistung und Preis bei AMD so stimmig, dass sie wieder etwas Fahrt aufnehmen können.
 
  • Gefällt mir
Reaktionen: nyster, computerbaser_, Marflowah und 10 andere
Irgendwie kommt mir das bei dem Technikfeuerwerk so vor wie vor paar Jahren AMD und Intel, mit dem Unterschreibt, dass der Gigant diesmal die Schagzahl erhöht und ständig neue Technologie (und mehr Kerne) auf den Markt schmeißt. Damals trieb AMD Intel vor sich her, heute rennt Nvidia AMD davon. AMD probiert ständig die (vor-)letzte Generation von Nvidia einzuholen und verliert immer mehr den Anschluss. Das ist echt bitter.
Prinzipiell finde ich gut, dass Nvidia auf dem Gas bleibt, aber wenn AMD angehangen ist, gibt es eine Monopolstellung bei den GPUs und dann wird's richtig teuer für den Endverbraucher. Und auch bei APUs und Konsolen könnte es dann schwierig werden für AMD, wenn dann mal ein ernsthafter Konkurrenz zu AMD am Himmel auftaucht.
 
  • Gefällt mir
Reaktionen: TomAkar und Ganjafield
Farcrei schrieb:
Wird Zeit, dass bald echtes Tests bei CB, PCGH und Co kommen.
NDA Daten sind ja bekannt. 24. Jan für die RTX 5090 und 29. Jan für die RTX 5080
 
  • Gefällt mir
Reaktionen: MiG001 und Haldi
Zurück
Oben