anappleaday
Banned
- Registriert
- Okt. 2020
- Beiträge
- 2.206
Geht.0ssi schrieb:Natürlich absurd, dass man bei DP 1.4 bleibt weil weder das noch HDMI 2.1 können 4K 240Hz, oder ?
Zauberwort ist hier DSC.
Folge dem Video um zu sehen, wie unsere Website als Web-App auf dem Startbildschirm installiert werden kann.
Anmerkung: Diese Funktion ist in einigen Browsern möglicherweise nicht verfügbar.
Geht.0ssi schrieb:Natürlich absurd, dass man bei DP 1.4 bleibt weil weder das noch HDMI 2.1 können 4K 240Hz, oder ?
In welcher Auflösung spielst du?Sun-Berg schrieb:@Recharging Das liegt möglicherweise daran, dass FS2020 CPU limitiert ist. Bei mir hat der Wechsel von einem 3600XT zum 5800X3D einen sehr deutlichen Leistungsschub gebracht.
Exakt.Tortellino schrieb:Benötige ich also 3x dieses PCIe (6+2 pin) Y-Kabel, von denen ich jeweils nur einen in den Adapter stecke? So das am Ende drei PCIe Anschlüsse des Netzteils an dem Adapter hängen oder wie?
So wie ich das verstanden habe, sollte jeder Graka ein Adapter beiliegen bei dem 3x PCIe 8pin angeschlossen werden können. Allerdings sind damit maximal ~520W möglich, daher können die bis zu 600W mit Adapter wohl nicht ganz ausgereizt werden. Vielleicht sehen wir aber auch ein custom, wo neben dem neuen Anschluss mit Adapter (3x 8pin) noch ein extra 8pin draufgekloppt wird ?Tortellino schrieb:Also kann ich mir nicht mal ein passendes Netzteil kaufen? Toller Anschluss.
Xoodo schrieb:Was ich interessant finde, dass der englische Untertitel der RTX 40X0 Präsentation im offiziellen YT-Video besagt, dass der Gesamtzuwachs der Performance ohne Raytracing 25% beträgt, auch wenn die Lederjacke was ganz anderes zu der Zeit sagt xD.
Ich warte auf externe Reviews, aber ich denke mal +25% Raster Performance werden es schon sein und wenn DLSS 3 noch etwas reift, dann kann die PIMAX 12K kommen 8)
Frame Insertion ala DLSS 3.0 wird von den Games als Cheat erkannt :=)HAse_ONE schrieb:Das mit den von der KI erstellten klingt strange.
So Bildfehler wie fortunes gepostet hat, mögen evtl. nicht sofort auffallen (wo ich mich aber dann schon frag wozu neue krasse Grakas, wenn uns doch egal ist, wie es aussieht, so lange es bei schnellen bewegungen nicht auffällt xD) Aber was passiert in einem Multiplayer shooter, wenn ich ganau in dem Frame auf nen Gegner schieß, aber blöderweise auf einen Bildfehler geschossen hab, oder der Gegner eben nicht 100% an der Stelle ist, an dem die KI ihn eigentlich berechnet hat?
Ein Fanboy gibt sich als Erklärbar...Ayo34 schrieb:Da wurde über ein bestimmtes Feature geredet und nicht um die Gesamtleistung. Würde ja auch keinen Sinn machen, da es 3 Grafikkarten gibt und jede dieser Grafikkarten einen anderen Leistungszuwachs hat. Durch das Feature ergeben sich aber alleine 25% auch in der Raster Performance zusätzlich.
Was er damit eigentlich sagen und erklären wollte, dass das Feature besonders stark bei Raytracing hilft, aber auch bei der normalen Leistung eine Performance Steigerung zur Folge hat.
Magnifico schrieb:Ein Fanboy gibt sich als Erklärbar...
Nur 25 Mehrleistung ist ein Witz ala Touring.
AD104 Transistor
count: 35.8B 60 SMs (7680 CUDA cores)
48MB L2 cache
80 ROPs
Die size: 294.5mm2
RTX 4080 12GB is a full AD104
AD103 Transistor count: 45.9B
80 SMs (10,240 CUDA cores)
64MB L2 cache
112 ROPs
Die size: 378.6mm2
AD102 (Hier fehlen noch Infos)
144 SMs (18432 CUDA cores)
L2 cache: 96MB
192 ROPs
Und paar grundsätzliche Info's
NV has vastly increased their L2 cache. 96MB of L2 is almost 5B transistors just for L2. Smaller FLOP/cache ratio than RDNA2, but still significantly larger. That should help RT perf, and explains how NV can use a smaller memory bus
ROP counts are also significantly increased, ~75% gen-over-gen. This should bode well for raster performance, especially coupled with the clockspeed increases
Optical flow accelerator is a fixed function block. So that aspect of DLSS-G should perform ~identical across all Lovelace GPUs (the constraining factor will be shader execution times, as has always been the case with DLSS super resolution)
xexex schrieb:Morgen kommt dann das erste 4K 144Hz Display oder ein beliebiges 5K Gaming Display und der Nvidia Käufer zieht den kürzeren.
Ist dem Grunde nach ja auch besser?Ayo34 schrieb:Der Unterschied zwischen 4090 und 4080 ist einfach enorm und viel größer als es noch bei der 3090, 3080 war.