Bericht Nvidia GeForce „Blackwell“: Neue Details und Benchmarks zu RTX 5090, 5080 & 5070 (Ti)

Interessante News, schön aufbereiteter Artikel. Danke dafür, aber da bleibt für mich noch eine Frage offen und die sollten wir schon mal klären bevor das Embargo fällt:

but can it run Crysis?
 
@Wolfgang, ein paar kleinere Sachen sind mir so nebenbei beim Lesen aufgefallen:

Nvidia nennt hier „RTX Skin“ für die Hauptdarstellung - Haut?

wo die Haardarstellung sowohl schöner und ressourcenschonender umgesetzt werden soll - als auch (oder "sowohl" raus schmeissen)?

Blackwell kommt mit der vierten Generation an Raytracing-Einheiten daher, die mit einer verdoppelten Intersection-Rate gegenüber Ada Lovelace daher kommt - doppelt
 
  • Gefällt mir
Reaktionen: evilhunter, Vitche und shaboo
  • Gefällt mir
Reaktionen: Coronium, Loopman, Ccey und 12 andere
theGucky schrieb:
Die 5070Ti wird DIE Karte ich ich jedem empfehlen würde, bis die Tests und der Preis für die 9070XT raus sind.

Ich selber strebe die 5090 an, weil schon die Leistung der 4090 mir nicht genug war, dafür muss aber halt auch zahlen...
Ergänzung ()


Das Frage ich mich auch, auch bezogen auf die 5070Ti vs 4070Ti.
Wenn es so ist, sieht es nicht gut aus.

Trotzdem würde ich die 5070Ti als "günstigste" 16GB Nvidia Karte empfehlen. Der Unterschied zur 4070TIS ist zum UVP der 5070Ti nur 30-40€.
Trotzdem unverschämt teuer, aber meiner Meinung nach die interessanteste Karte
 
  • Gefällt mir
Reaktionen: Veitograf
Die AI Verbesserungen schön und gut. Sofern jedenfalls NVidia die massiven Grafikfehler in den Griff bekommt beim Multi Frame Generation, wie sie in den Leaks zu sehen waren. Aber die reine Hardware Verbesserung ist ja mehr als ernüchternd.

Mal schauen, wie das bei AMD wird. Wenn die FSR4 konkurrenzfähig machen, wonach es aussieht. Und bei der Hardware aufholen, wonach es in der Mittelklasse ebenfalls aussieht. Sehe ich AMD trotz fehlendem Topmodell gestärkt aus dem Rennen gehen.

Die 12Gb der 5070 bleiben einfach lächerlich.
 
  • Gefällt mir
Reaktionen: Sturmflut92, Icke-ffm, Convert und 2 andere
CruellaDE schrieb:
Für nen Upgrade von ner 6800 XT/3080 lohnt sich die 5080 zwar
ich bin gespannt wie Team rot zu welchem Preis abschneidet, evtl. ersetze ich dann auch meine 6800xt


the_IT_Guy schrieb:
Nett, aber ohne DLSS eben noch immer keine 60FPS die man eigentlich bei Max Quality und Max RT erhofft hat.
denke, Path Tracing ist da aktiv? Aber dennoch, erstaunlich wenig. Hätte da gerne auch die Werte zu DLSS 2 oder 3 gesehen, vermutlich wäre es dann aber ca 3/4 und 1/2 des grünen Balkens, je nach Auflösung?
 
Simanova schrieb:
Weil die meisten Leute ihre RTX 4090 auf 300W begrenzen. Schont Ohren und Geldbeutel. Der Leistungsverlust ist minimal.
Wo ist denn da die Vergleichbarkeit? Nur weil es Leute gibt die auf 300w begrenzen und das einen minimalen Leistungsverlust mit sich bringt heist das noch nicht das 300w bei einer 5090 auch der Sweetspot ist.

Rickmer schrieb:
Weil die 4090 oftmals keine 450W benötigt, was den Vergleich hinfällig macht
Es macht den Vergleich generell unnötig wenn ich einfach mal power targets bestimme wo ich weiß das sie bei einer GPU gut funktionieren aber bei der keinerlei Erfahrungswerte habe.
 
  • Gefällt mir
Reaktionen: Loopman
@Wolfgang

Displayport 2.1 UHBR20 ist mit 80 GBit/s spezifiziert - in der Folie steht aber 20 Gbps. Was stimmt denn nun?

20Gbps wäre enttäuschend.
 
  • Gefällt mir
Reaktionen: Wubziz und fox40phil
Fighter1993 schrieb:
In der Serie von gleicher Stufe auf gleiche Stufe neues Modell zu wechseln. Sprich 4080 zu 5080.
Es hat sich „nie“ gelohnt und in dieser Generation kommt schlichtweg hinzu, dass viele Varianten unterhalb -90 „immer“ noch mit dem gleichen VRAM auf den Markt kommen oder eben keinen nennenswerten VRAM-Unterschied bringen.

Das Video zu den Features habe ich mir angesehen und was mir direkt ins Auge sprang, war 20fps mit RTX On ohne DLSS mit RTX 5090. Also reine Leistungssteigerung ist erbärmlich. Die Features finde ich zwar von theoretischer Natur gut aber ohne Tests sind sie nichts wert.
 
  • Gefällt mir
Reaktionen: Celinna und shadACII
Ok Umstieg auf 5080 von 4080 brauche ich dann nicht machen und schont den Geldbeutel. Vielleicht kommt ja eine 5080 Ti als „Lückenfüller“ da würde ich nochmal schauen.
 
  • Gefällt mir
Reaktionen: Pro_Bro und Tsu
Crayten schrieb:
Es gibt halt keinen Grund, DLSS nicht zu nutzen, außer aus ideologischem Schwachsinn..
Doch, wenn ein Spiel dieses Feature nicht hat. ^^
 
  • Gefällt mir
Reaktionen: Marflowah, ComputerJunge, Fyrex und 3 andere
Rickmer schrieb:
Aber Raytracing soll 3/4 den VRAM Bedarf haben, DLSS mit dem neuen Modell soll auch ein paar hundert MB sparen...
(Wobei das neue DLSS ja auch auf den alten Karten kommen soll. Nur die Änderungen im Raytracing sind auf Architektur bezogen.)
Achso, ja darauf bezogen könnte es früher interessant werden. Die Raytracing-Verbesserungen beziehen sich, wie du schon erkannt hast, halt nur auf Blackwell. Aber insbesondere bei DLSS4 SR erhoffe ich mir da auch noch was für die älteren Karten.
 
  • Gefällt mir
Reaktionen: Rickmer
Wahrscheinlich werd ich hierfür gesteinigt, aber: wenn ich sehe dass die aktuellen Konsolen 200W komplett ziehen und bei 60 FPS gar nicht so schlecht aussehen (vernünftige Optimierung vorausgesetzt), frag ich mich langsam wann auch ich nach all den Jahren mal komplett umsteige. Indiana Jones sah auf meiner XSX nur minimal schlechter aus als auf meiner 7800XT. Und die kostet heute so viel wie meine XSX vor 4 Jahren und braucht genau so viel Strom.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: mastermc51, SmashD, Pyrodactil und 9 andere
Vitche schrieb:
Anyway, ich sehe nicht, wie es jetzt plötzlich für Gaming-Szenarien hilfreich sein soll, mehr INT-Rechenleistung bei pro SM nicht höherer FP-Rechenleistung zu haben. Ich glaube nicht, dass sich Spiele seither hin zu im Verhältnis höherer INT-Rechenlast entwickelt haben. Und damit ist das bezogen auf die Chipgröße eher ein Klotz am Bein. Hier dürften ausschließlich AI-Hintergedanken eine Rolle gespielt haben.
Wenn man sich AD103 und GB203 anschaut ist der Unterschied in Chipfläche sehr gering und die Fertigung ziemlich gut vergleichbar. Viel Chipfläche scheint es also nicht gekostet zu haben.

Hauptsächlich AI als Hintergedanke sagt ja auch Nvidia selbst. In niedrigen Auflösungen steigt die INT-Last typischerweise (DLSS Upsampling?), allerdings eher so auf 40% INT32 zu 60% FP32 in Full HD, was ja von derm Ampere/Ada Konfiguration gut abzubilden ist. Machine Learning Modelle können auch Integer-Quantisiert werden, vielleicht ist es auch ein investment in die zukunft bei Neural Shadern von dem wir heute noch wenig bis nichts merken. Das wird man dann aber erst in 4 - 5 Jahren wissen.
 
  • Gefällt mir
Reaktionen: Vitche und Foxel
Kein wirklicher Fortschritt bei den nvenc, nur halt über ein Mehr an Einheiten. Nicht mehr Performance/Watt bei Nicht-Spielen. 5090 offenbar beschnitten, d.h. es geht mehr.

Nope. Mal schauen ob sich Nvidia aufhört bei den Super Ti so anzustellen.
 
  • Gefällt mir
Reaktionen: fox40phil
KempA schrieb:
Wahrscheinlich werd ich hierfür gesteinigt, aber: wenn ich sehe dass die aktuellen Konsolen 200W komplett ziehen und bei 60 FPS gar nicht so schlecht aussehen (vernünftige Optimierung vorausgesetzt), frag ich mich langsam wann auch ich nach all den Jahren mal umsteige.
Weil Konsolen-Ports keine verschwenderischen Ultra settings nutzen, die maximal 1-2 % besser aussehen als high, aber 10 bis 20 % Performance kosten.
 
  • Gefällt mir
Reaktionen: schkai, mastermc51, Pyrodactil und 6 andere
DriveByFM schrieb:
Doch, wenn ein Spiel dieses Feature nicht hat. ^^
Jo klar aber mal ehrlich, die Spiele die Path tracing haben, für das man halt aktuell noch DLSS (+FG oder MFG) braucht die kommen alle mit DLSS Support raus.
Spiele die "nur" standard Raytracing bieten ziehen ja auch erstmal ein gutes Stück weniger Leistung.
 
  • Gefällt mir
Reaktionen: stevefrogs
Die TDP von der 4090 zur 5090 ist um 27% gestiegen. Bei rund 33% mehr Raster Leistung . Die Mehrleistung scheint wirklich nur der Chipgröße geschuldet zu sein. Ich werde eh diese Generation auslassen. Trotzdem bin ich von den Daten etwas enttäuscht.

Zwischen FG und MFG muss ich mal vergleiche sehen, wobei ich gegen FG nichts habe und es immer nutze. Aber 3 Zwischenbilder klingt erstmal viel ^^
 
  • Gefällt mir
Reaktionen: the_IT_Guy
Conputerbase wird eine 5090 oder 5080 schon im Rechner haben oder ?
 
  • Gefällt mir
Reaktionen: EcOnOmiC und Maxminator
Zurück
Oben