rentex schrieb:
Für was machen sich eigentlich die Entwickler bei NV und AMD die Mühe, Techniken wie DLSS, RTX und RTX IO (beim Konkurrenten heißen sie halt anders) zu entwickeln, wenn man im Grunde nur Leistuung benötigt.
Das Problem ist, dass die devs leider wenig Einsichten geben in der Art und Weise, wie ihre Engine oder das Game auf den Engines das SPeicherhandling betreibt.
Die Ressourcen sind da, die Ausreden mit GDDR6x ziehen nicht mehr, zogen sie schion bei GDDR6 nicht mehr.
Suboptimal laufende Games kann man nicht mehr so einfach auf die Architektur der GPU schieben, denn dann hätten wir seit Jahren schon Kaufwarnungen für 8 GB VRAM oder Startprobleme oder Freezes oder Diashows.
Das ist nicht der Fall. Es fallen jedoch immer nur die üblichen Verdächtigen auf.
Witzigerweise hat techspot den Flaschenhals schon 2019 beim RAM ausgemacht, NICHT beim VRAM:
https://www.techspot.com/article/1770-how-much-ram-pc-gaming/
Das Fazit lautet, dass man 32 GB RAM braucht, um die 11 GB VRAM der 2080 TI effektiv zu nutzen.
Der Flaschenhals sitzt, wie so oft, woanders.
Und passenderweise zeigen alle Benchmarks, dass die 3080 die
CPU Limits forciert. Und das auch beim 10900K!
Weitere Entlastung neben der pornösen GDDR6x Speicherbandbreite sind die Kompressionsverfahren, I/O etc. sowie die Bordmittel von Vulkan und DX12, dazu gibts Tonnen an devblogs und Foren.
Also bitte, stoppt die VRAM Hysterie und den VRAM Marketing Hype.
Lasst uns lieber mal mit den devs reden, die offensichtlich die RAM, CPU und VRAM Swapping+Streaming-Korrespondenz nicht sauber hinbekommen, denn auch 4K sind ein non Faktor bei 8 GB und erst recht bei 10 GB VRAM.