Bericht Nvidia GeForce „Blackwell“: Neue Details und Benchmarks zu RTX 5090, 5080 & 5070 (Ti)

karl_laschnikow schrieb:
Die TDP von der 4090 zur 5090 ist um 27% gestiegen. Bei rund 33% mehr Raster Leistung .
Da wäre ich mir nicht so sicher, bisher hat NVIDIA nur Benchmarks von RT Spielen gezeigt. Der Zuwachs bei der Rasterleistung könnte noch deutlich darunter liegen. Das war Quatsch, Horizon Forbidden West ist ein reines Rasterspiel, also hast Du vermutlich recht. Das heißt dann allerdings voraussichtlich auch, dass sich bei RT relativ zu Raster effektiv gar nichts getan hat.
 
  • Gefällt mir
Reaktionen: Norebo, daknoll und wahli
Apocalypse schrieb:
Und dann so ne Antwort. "Gibt keinen Grund warum Nvidia nicht DLSS nutzen sollte", aber natürlich ist dir selbst schon aufgefallen:
Was er halt nie geschrieben hat. Du interpretierst einfach irgendwas in Posts rein die so ne verfasst wurden.
Aber danke reicht mir dann auch. Absolut kein Interesse daran mit jemanden zu diskuttieren der direkt mit Schaum vorm Mund Leuten irgendwelche Aussagen in den Mund zu legen die sie so nie getroffen haben.

Schönen Tag noch.
 
Das bestätigt nur wieder das der Kauf meiner 4090 zum Release vollkommen richtig war wenn ich mir die Rohleistung ansehe. So eine Leistungssteigerung wie von 3090 auf 4090 (70%) wird es zunächst nicht mehr geben. Für mich kommt erst die 6090 wieder infrage. Muss aber zugeben das die Multi Frame Gen Leistung der 5K Serie schon geisteskrank ist.

Ich habe Frame Gen auf meiner 4090 auch in dem ein oder anderem Spiel genutzt und konnte so ziemlich nie einen optischen Unterschied zu nativ feststellen. Oft hat sich das Bild sogar nochmal deutlich weicher angefühlt und alles war perfekt flüssig. Latenz mäßig gab es da auch nie Probleme die ich wahrnehmen konnte. Sollte MFG da mit diesen hohen FPS so anknüpfen, ist das schon ein Argument dafür das man Multi Frame Gen in den meisten Spielen aktivieren sollte wo man nativ bei unter 100FPS liegt.
 
  • Gefällt mir
Reaktionen: digitalfrost, Laphonso und shadACII
Vitche schrieb:
Ich glaube nicht, dass sich Spiele seither hin zu im Verhältnis höherer INT-Rechenlast entwickelt haben.
Das werden gebraucht sobald Spiele mehr AI Workloads benutzen, was ja nicht mehr allzulange dauert.
Da Nvidia das sowieso bei den Profi GPUs braucht, schleppt man es für die Gaming Ableger vorerst eben mit, auszahlen wird es sich vermutlich erst in ein paar Jahren.
Vitche schrieb:
Hier dürften ausschließlich AI-Hintergedanken eine Rolle gespielt haben.
Die man in Spiele integriert. Neural Rendering ist dafür ausgelegt und dafür machen diese Einheiten Sinn.
Vitche schrieb:
Nichtsdestoweniger ist eine 5080, die ihren Vorgänger gerade einmal um ~ 15 % schlägt (und das mit RE4 durchaus auch in einem "nativen" UHD-Szenario mit entsprechend hoher Renderinglast), vermutlich die im Generationenvergleich schwächste 80, die Nvidia jemals konstruiert hat.
Ich denke das wird abhängig vom Spiel sein. Nehmen wir mal an die 5080 wird um 15-20% in klassischen Rasterspielen oder Spielen mit sehr geringer RT Last zulegen, dafür aber spekulativ in Pathtracing und heavy RT Szenarien durch die Verbesserungen bei RT durchaus im Optimalfall 50% schneller sein. Bzw. auch bei neural rendering, etwas was gerade Microsoft mit Nvidia in DXR integriert.
BobMahoo schrieb:
4090 + "lossless scaling" deckt wahrscheinlich die kommenden 2-3 Jahre locker mit ab und wird da sicher gut mithalten.
Was meint Ihr???
Ohne Flip Metering und ordentliches Frame-Pacing sowie Latenzreduktion kann man sich solche Lösungen eigentlich in die Haare schmieren. Da reduziere ich lieber Details und schalte eine Stufe nach unten.
Kann natürlich auch für MFG gelten. Wenn das starke Artefakte produziert, brauche ich es vorerst nicht.

Der Verkauf der 4080 war wohl unnötig. Die 5070Ti dürfte nach den Benchmarks in Raster
gerade mal 5% schneller sein. Aber MFG und bessere RT Leistung wollte ich eigentlich schon, dass ist mir 80 Euro wert.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: serve1chilled und shadACII
@Wolfgang

Spannend wäre noch, dass sie das "bis max." bei UHBR20 weglassen.

Während bisher die langsameren Geschwindigkeiten inklusive waren, ist das bei UHBR20 nicht mehr unbedingt so.

In der USB4 Welt und bei Intel iGPUs, wo UHBR20 schon länger mit dabei ist, wird UHBR13.5 nicht unterstützt und darunter kommt dann ab UHBR10 alles andere. Hat zwar für USB4 Ports wie Intel sie hat den Grund, dass UHBR10 auf USB4 Gen 2 passt und UHBR20 auf USB4 Gen 3, während UHBR13.5 dazwischen liegt und eine neue Geschwindigkeit ist, die USB4 nicht sowieso schon hat.
Aber da sollte es mittlerweile immer klargestellt werden ob nun wirklich ALLE Geschwindigkeiten mit dabei sind oder nicht.

Auch wenn Nvidia vermutlich auch UHBR13.5 kann, weil es keine USB4 Ports sind wo 10 und 20 gratis sind. Eine explizite Bestätigung, ob das der Fall ist oder ob der DP Standard das für nicht-USB-C Ports sogar vorschreibt wäre hilfreich. USB4 Geräte und USB-C Kabel können explizit deklarieren, dass sie kein UHBR13.5 können, aber UHBR20. Und Intel und Apple machen davon auch gebrauch. Da kann es also nicht verpflichtend sein UHBR13.5 für Abwärtskompatibilitä mit zu unterstützen. Der DP Standard ist ja leider nicht öffentlich, so dass man sowas direkt nachschlagen könnte...
 
Shinigami1 schrieb:
Das bestätigt nur wieder das der Kauf meiner 4090 zum Release vollkommen richtig war wenn ich mir die Rohleistung ansehe. So eine Leistungssteigerung wie von 3090 auf 4090 (70%) wird es zunächst nicht mehr geben. Für mich kommt erst die 6090 wieder infrage. Muss aber zugeben das die Multi Frame Gen Leistung der 5K Serie schon geisteskrank ist.

Ich habe Frame Gen auf meiner 4090 auch in dem ein oder anderem Spiel genutzt und konnte so ziemlich nie einen optischen Unterschied zu nativ feststellen. Oft hat sich das Bild sogar nochmal deutlich weicher angefühlt und alles war perfekt flüssig. Latenz mäßig gab es da auch nie Probleme die ich wahrnehmen konnte. Sollte MFG da mit diesen hohen FPS so anknüpfen, ist das schon ein Argument dafür das man Multi Frame Gen in den meisten Spielen aktivieren sollte wo man nativ bei unter 100FPS liegt.
Ja in Spielen mit mfg ist die leistung zum Teil 3-400% schneller kostenlos ;) echt schade das dies exklusiv ist. Diese Technik sollte jens für alle Grafikkarten freigeben wie bei fsr. Schon traurig das die 4090 in cyberpunk gegen die 600€ karte verliert. Das wird den Preis der 4090 ein wenig einbrechen lassen
 
0xffffffff schrieb:
Bin gespannt ob er AV1 Encoder im HQ-Mode diesmal wirklich akzeptabel ist. Die Ergebnisse des 40'er Encoder gefallen mir (für das Re-Encoding) nämlich noch nicht, und via Software auf meiner CPU dauert mir das zu lang.
+1. Im direkten Vergleich mit HEVC wirkten die Farben bei AV1 extrem verwaschen und matt, was möglicherweise (unter anderem) auf die Farbunterabtastung 4:2:0 zurückzuführen war. HEVC kann hingegen ohne Farbunterabtastung genutzt werden. Ich hoffe mal, dass das auch bei AV1 nun möglich sein wird, zuzüglich zum angekündigten 4:2:2-Modus. Ansonsten wäre AV1 hier weiterhin eine gewisse Schwachstelle.
 
Wenn ihr die Rasterbenchmarks seht zum Test, dann werden alle Bauklötze staunen, die ihre RTX 4000 verkauft haben für sowas.

Mark my words. Soviel Mehrleistung wird es nicht sein.
Ergänzung ()

CruellaDE schrieb:
Beziehen sich die Nvidia Benchmarks und der ca. 15% Leistungszuwachs auf eine 4080 oder eine 4080 Super?

Ist doch egal - die sind fast gleich.

Und eher stellt sich die Frage, wieso man immernoch so feiert, wenn die 5000er Karten immer MIT MFG angeben werden in den Benches.

Ohne MFG sind die dann wieviel schneller?
 
  • Gefällt mir
Reaktionen: the_IT_Guy
Die 5070 ist ohne DLSS 4 rund 20 % schneller als eine Non Super 4070??
5070 ist entsprechend kaum flotter als eine 4070 Super. Das ist böse!!
 
  • Gefällt mir
Reaktionen: Icke-ffm und danyundsahne
Die Anzahl der Shader und CUs sind bei der 5090 mehr als doppelt so hoch wie bei der 5080. Das ist unfassbar.

Die Speicherbandbreite der 5090 ist ~doppelt so hoch wie bei der 5080. Die 5080 ist in meinen Augen vergleichsweise die schwächste Karte der vier Neuen. Edit: Im Vergleich zum Vorgänger.

Die 4090 ist ein Monster und da kommen jetzt nochmal ~33% drauf, Realoleistung, das ist unvorstellbar. Ich verstehe die vielen Meinungen nicht, dass Blackwell keine gute Gen werden könnte.

Bei der 5070 bin ich gespannt, ob sie an der 4070 Super vorbeikommen wird. Ich denke, das wird sehr sehr knapp.

Anhand des geringen Zuwachses der Einheiten, kann das Geschätzte bei der 70er vermutlich nicht hinkommen, aber vllt reißt es auch der GDDR7 Vram.

Ich bin so gespannt auf die Tests.
 
E1M1:Hangar schrieb:
die ihre RTX 4000 verkauft haben für sowas.
Glaubst du wirklich das Leute die ihre 4090 jetzt verkauft haben wegen dem Spitzenpreis den es auf dem Gebrauchtmarkt gibt und aktuell ohne GPU unterwegs sind, juckt sowas?

Für den Gebrauchtmarkt wäre es allemal gut wenn die Leistung doch nicht so der Bringer wird.
 
Ich sehe in der neuen Generation überhaupt keinen Fail, wie in einem Beitrag oben explizit und zwischen den Zeilen mehrfach anderweitig erwähnt, sondern eine Weiterentwicklung in relevanten Bereichen. "Der Kunde" will immer mehr Details/FPS/Hertz und offenbar kommt man mittlerweile an Grenzen, die mit KI aus- bzw. angeglichen werden. Die 40er-Besitzer können ggf. froh sein, dass sie ihr Geld anderweitig verausgaben und darunterliegende Generationen rüsten ggf. auf. Wo ist also das Problem? Ich werde mir eine 5090 kaufen, so ich die Möglichkeit dazu bekomme.
 
  • Gefällt mir
Reaktionen: jaCk_owned
 
a_to_y schrieb:
"Der Kunde" will immer mehr Details/FPS/Hertz
Komisch, ich habe meine FPS auf 80 gecaped. Mehr brauch und will ich nicht. Damit die Karte schon kühl und Laufruhig ist. Auf 4K passt das auf jeden Fall.
 
  • Gefällt mir
Reaktionen: mtmac
Der jens hat uns dazu gebracht 2000 für eine 4090 auszugeben und 2 Jahre später bringt er uns dazu 3000 für die 5090 auszugeben wegen mfg. Jens der fuchs
 
d3nso schrieb:
TLDW? Keine Lust das Video zu schauen ;)
Zusammenfassung: Das neue Tranformer-Modell für DLSS SR ist deutlich besser als das alte CNN-Modell. Deutlich höhere Bildschärfe, vor allem in Bewegung, bessere Rekonstruktion feiner Bildelemente und stark reduziertes Ghosting. Ich schätze DLSS Performance mit dem neuen Modell wird nun ähnlich gute oder bessere Bildqualität liefern wie DLSS Quality mit dem alten CNN-Modell. DLSS Ray Reconstruction ist ebenfalls stark verbessert worden, vor allem bzgl. der bisherigen Problemstellen. DLSS Multi Frame Generation skaliert sehr gut ggü. Frame Generation, verschlechtert aber nochmals etwas die Latenz.
 
  • Gefällt mir
Reaktionen: d3nso
DLSS / FG war schon auf der 40er gen super gut, und das soll jetzt nochmal signifikant verbessert worden sein?! Besonders bei solchen unglaublich schlecht optimierten Spielen wie Dragons Dogma 2 hat FG das Spiel für mich noch gerettet, auch wenn es leider erst Monate nach Release nachgepatcht wurde...
Selbst wenn die Bildqualität minimal schlechter werden würde, 900% mehr FPS (bzw. deutlich geringere Leistungsaufnahme) sind es auf jeden Fall wert. Hab übrigens nie einen negativen Unterschied zu nativ feststellen können, egal ob in der Bildqualität oder der Latenz. Auch nicht mehr der Lupe.

Freue mich sehr auf die neuen Karten! Besonders die ganzen AI-Entwicklertools klingen nach sehr interessanten Spielen... hoffentlich werden die auch benutzt und von größeren Engines implementiert.
 
  • Gefällt mir
Reaktionen: Quidproquo77 und meckswell
Zurück
Oben