Bericht Nvidia GeForce RTX 4000: Weitere Details zu Architektur, DLSS 3 und Founders Editions

0ssi schrieb:
Natürlich absurd, dass man bei DP 1.4 bleibt weil weder das noch HDMI 2.1 können 4K 240Hz, oder ?
Geht.
Zauberwort ist hier DSC.
 
Tortellino schrieb:
Benötige ich also 3x dieses PCIe (6+2 pin) Y-Kabel, von denen ich jeweils nur einen in den Adapter stecke? So das am Ende drei PCIe Anschlüsse des Netzteils an dem Adapter hängen oder wie?
Exakt.
 
Tortellino schrieb:
Also kann ich mir nicht mal ein passendes Netzteil kaufen? Toller Anschluss.
So wie ich das verstanden habe, sollte jeder Graka ein Adapter beiliegen bei dem 3x PCIe 8pin angeschlossen werden können. Allerdings sind damit maximal ~520W möglich, daher können die bis zu 600W mit Adapter wohl nicht ganz ausgereizt werden. Vielleicht sehen wir aber auch ein custom, wo neben dem neuen Anschluss mit Adapter (3x 8pin) noch ein extra 8pin draufgekloppt wird ?
 
Xoodo schrieb:
Was ich interessant finde, dass der englische Untertitel der RTX 40X0 Präsentation im offiziellen YT-Video besagt, dass der Gesamtzuwachs der Performance ohne Raytracing 25% beträgt, auch wenn die Lederjacke was ganz anderes zu der Zeit sagt xD.

Ich warte auf externe Reviews, aber ich denke mal +25% Raster Performance werden es schon sein und wenn DLSS 3 noch etwas reift, dann kann die PIMAX 12K kommen 8)

Da wurde über ein bestimmtes Feature geredet und nicht um die Gesamtleistung. Würde ja auch keinen Sinn machen, da es 3 Grafikkarten gibt und jede dieser Grafikkarten einen anderen Leistungszuwachs hat. Durch das Feature ergeben sich aber alleine 25% auch in der Raster Performance zusätzlich.

Was er damit eigentlich sagen und erklären wollte, dass das Feature besonders stark bei Raytracing hilft, aber auch bei der normalen Leistung eine Performance Steigerung zur Folge hat.
 
HAse_ONE schrieb:
Das mit den von der KI erstellten klingt strange.

So Bildfehler wie fortunes gepostet hat, mögen evtl. nicht sofort auffallen (wo ich mich aber dann schon frag wozu neue krasse Grakas, wenn uns doch egal ist, wie es aussieht, so lange es bei schnellen bewegungen nicht auffällt xD) Aber was passiert in einem Multiplayer shooter, wenn ich ganau in dem Frame auf nen Gegner schieß, aber blöderweise auf einen Bildfehler geschossen hab, oder der Gegner eben nicht 100% an der Stelle ist, an dem die KI ihn eigentlich berechnet hat?
Frame Insertion ala DLSS 3.0 wird von den Games als Cheat erkannt :=)
 
  • Gefällt mir
Reaktionen: Romanow363
@Tornavida
Ja, mal schauen, derzeit wieder mit TAA unterwegs. Die 10 GB der 3080 waren bis dato immer ok. Wenn die Schwammigkeit des Cockpits bleibt, leider eh keine Alternative für mich.

@Sun-Berg
Na ja, 5900X, 3080 10 GB und 128 GB RAM von der NVMe ... so viel mehr kann man jetzt nicht mehr holen ohne, wohl erst mit den neuesten Intel-/AMD-Produkten.

@doctorzito
3840 × 2160 bei überwiegend hohen Details + Ultra für Texturen. LOD bei 200.
 
Ayo34 schrieb:
Da wurde über ein bestimmtes Feature geredet und nicht um die Gesamtleistung. Würde ja auch keinen Sinn machen, da es 3 Grafikkarten gibt und jede dieser Grafikkarten einen anderen Leistungszuwachs hat. Durch das Feature ergeben sich aber alleine 25% auch in der Raster Performance zusätzlich.

Was er damit eigentlich sagen und erklären wollte, dass das Feature besonders stark bei Raytracing hilft, aber auch bei der normalen Leistung eine Performance Steigerung zur Folge hat.
Ein Fanboy gibt sich als Erklärbar...

Nur 25 Mehrleistung ist ein Witz ala Touring.
 
@Recharging Da ist schon noch so einiges drin.

Bildschirmfoto 2022-09-23 um 09.37.03.png


https://www.eurogamer.net/digitalfoundry-2022-amd-ryzen-7-5800x3d-review?page=2

edit: Falsche CPU angeklickt.
 

Anhänge

  • Bildschirmfoto 2022-09-23 um 09.32.54.png
    Bildschirmfoto 2022-09-23 um 09.32.54.png
    330,2 KB · Aufrufe: 195
Magnifico schrieb:
Ein Fanboy gibt sich als Erklärbar...

Nur 25 Mehrleistung ist ein Witz ala Touring.

Du hast den Text nicht verstanden. Ich habe kritisch gegen Nvidia geschrieben und die 25% Mehrleistung für ein Feature sagen nichts über die Gesamtperformance aus. Schönen Tag noch...
 
Hier ne Info zu den Die-Größen

AD104 Transistor
count: 35.8B 60 SMs (7680 CUDA cores)
48MB L2 cache
80 ROPs
Die size: 294.5mm2
RTX 4080 12GB is a full AD104

AD103 Transistor count: 45.9B
80 SMs (10,240 CUDA cores)
64MB L2 cache
112 ROPs
Die size: 378.6mm2

AD102 (Hier fehlen noch Infos)
144 SMs (18432 CUDA cores)
L2 cache: 96MB
192 ROPs

Und paar grundsätzliche Info's

NV has vastly increased their L2 cache. 96MB of L2 is almost 5B transistors just for L2. Smaller FLOP/cache ratio than RDNA2, but still significantly larger. That should help RT perf, and explains how NV can use a smaller memory bus

ROP counts are also significantly increased, ~75% gen-over-gen. This should bode well for raster performance, especially coupled with the clockspeed increases

Optical flow accelerator is a fixed function block. So that aspect of DLSS-G should perform ~identical across all Lovelace GPUs (the constraining factor will be shader execution times, as has always been the case with DLSS super resolution)

https://mobile.twitter.com/RyanSmithAT/status/1573190256492711936
 
Zuletzt bearbeitet:
@Recharging Der Punkt ist, dass das Spiel CPU limitiert ist. Sogar in 4K noch.
 
  • Gefällt mir
Reaktionen: Pro_Bro
xexex schrieb:
Morgen kommt dann das erste 4K 144Hz Display oder ein beliebiges 5K Gaming Display und der Nvidia Käufer zieht den kürzeren.

Wo zieht denn der nVidia Käufer bei 4K@144Hz den Kürzeren? Ich habe seit 2020 schon ein 4K@144Hz Display (ASUS PG43UQ) mit RTX 3090 über DP 1.4 mit DSC angeschlossen und bin rundum zufrieden.

Es hält sich ja hartnäckig das Gerücht, dass DSC etwas ganz Böses sei, aber ich kann -so wie viele andere- aus erster Hand sagen, dass das völliger Unsinn ist. Das Bild meines ASUS PG43UQ ist tadellos und qualitativ meilenweit besser als das Bild des 32" 1440p LG G-Sync Displays ohne DSC, den ich zuvor hatte.
DSC wurde von der VESA als "visually lossless" zertifiziert. Das ist eine komplette Phantomdiskussion. Man braucht für 4K@144Hz kein DP 2.0.
 
  • Gefällt mir
Reaktionen: Pro_Bro
DSC hat ein gravierendes Problem
Es ist kein HDR über 60hz mit 2160p drin
und die neue gen wird das schaffen auch wenn mit dlss3
 
Noch ein paar Tage, dann wissen wir mehr.
Sollten sich die ~100% Rasterizer-Mehrleistung (ohne DLSS) bei der RTX 4090 ggü RTX 3090 tatsächlich bewahrheiten, wäre das der größte Generationssprung in der Geschichte moderner Grafikkarten. Und gleichzeitig der größte Sprung in Sachen Effizienz (falls TGP = tatsächlich ~450W), auch wenn die Gesamtaufnahme natürlich immer noch indiskutabel hoch ist.
Wenn das so kommt, halten die Nvidia-Hater hoffentlich endlich ihren Mund, denn diese technische Meisterleistung verdient es, gewürdigt zu werden.
Sollte es nicht so kommen, halte ich endlich mein Maul.
 
Zuletzt bearbeitet:
Ayo34 schrieb:
Der Unterschied zwischen 4090 und 4080 ist einfach enorm und viel größer als es noch bei der 3090, 3080 war.
Ist dem Grunde nach ja auch besser?
Dass zwischen den 5 (FÜNF!) verschiedenen GPUS 3080/10, 3080/12, 3080Ti, 3090 und 3090Ti am Ende nur 20% lagen und ohne die 3090Ti sogar nur 10-15% ziwschen 3080 und 3090 , sorgte hier doch für umfassende Diskussionen und Unverständnis.

Dass es zischen den Ada Lovelace Chips diesmal deutliche Performanceunterschiede gibt, etabliert wieder klarere Leistungsklassen.

Das Gefaile ist die 4080/12 , die maximal eine 4070 oder sogar nur eine 4060Ti abbilden sollte.
 
Das hat etwas von Pascal, die neue Ada Lovelace GPU-Generation von nVidia, mehr optimiert als spektakualere neue Features (siehe SER, DLSS, etc.).
Nur sind die angesetzten Produktpreise (besonders der RTX 4080 Modelle) eine Zumutung fuer den Verbraucher, so dass die Ada Lovelace Generation weit davon entfernt ist - auch angesichts des Stands der Spieleentwicklung - grossartig Mehrwert zu bieten, wie das damals die Pascal Generation von nVidia tat.

DLSS3.0 finde ich auch eher nischig und wenn diese GPU-Generation nicht so weg gehen sollte wie warme Semmeln (was ich insgeheim sehr hoffe), etwa weil nVidia CEO Jen-Hsun Huang meint, es gebe keinen Anlass bzw. Rechtfertigung mehr Preise fuer jetzt neue und zukuenftige Grafikkarten zu senken (weil das Moore'sche Gesetz auf einmal nicht mehr gelten soll; so ein an den Haaren herbei gezogener Unsinn vom nVidia Marketingobermaerchenerzaehler), dann versandet das Feature vielleicht eher wie G-Sync, Hairworks, und PhysX, und das breit aufgestellte (nicht so diskriminierende) FSR Feature der Konkurrenz setzt sich am Ende durch.
Es wird ja kuenstlich ein Schnitt gemacht, wenn DLSS 3.0 nur mit RTX 4000er Grafikkarten vorteilig laufen soll und zudem muessen Entwickler da noch einiges an zusaetzlicher Arbeit in aktuelle DLSS 2.0 Titel hinein stecken, was ich eher als rueckwaertsgewandte Produktpolitik ansehe.

Was das (fuer das Tuning/Modding alter Spiele) relativ interessante RTX Remix Feature angeht, auf welches im Artikel leider gar nicht eingegangen wurde, steht auch fest, dass es aktuell nur eingeschraenkt nutzbar - fuer DX 9.0 Spiele abwaerts - ist (aehnlich wie das RTX namensgebende RT-Raytracing zum Turing GPU Marktstart), auch wenn das vielleicht in der Marketingpraesentation vom nVidia CEO anders herueber kam, da man The Elder Scrolls - Morrowind eher als ein mit RTX Remix aufgebrezeltes Beispiel vordergruendig beworben hat.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Illithide
Zurück
Oben