Ich will mal kurz meine Erfahrung als ehemaliger 1080ti User (bezüglich Vram) der ersten Stunde, bis in den September 2020 hinein schildern, also rund 3,5 Jahre Nutzung (mir war die 2080ti damals keine 1,2K Wert).
Erfahrung mit 2560x1440 sowie zum Ende hin mit 3440x1440p:
Erst unter DX12 brach die Leistung so ein, dass ich die Settings soweit reduzieren musste, dass der Vram egal wurde, RDR2 ist da ein perfektes Beispiel (weit unter 8Gb Vram)
Aber unter DX11 konnte ich meine 100fps Settings (damals noch n trägen 21:9 Monitor) fast immer erreichen. Meist mussten nur die Schatten reduziert werden und ein paar Hohe statt Ultra Settings, ABER: Alles was mit Texturen zu tuen hatte, konnte auf Ultra bleiben, was sich "gut" anfühlte.
Über 8GB hab ich selbst unter 3440x1440p selten verbraucht.
ABER: das war alles mit Kompromiss behafteten Settings um die knappe 100fps noch zu erreichen und es war ein Abbild der Vergangenheit, bzw. der Gegenwart.
Für mich stehen alle Zeichen das der Vram Bedarf steigen wird. Und Nvidia ist wirklich gut darin bereits im Treiber das Vram Management zu diktieren (GTX970).
Für Leute die jede Generation wechseln, ist der Vram fast egal.
Diejenigen unter euch die gerne eine Generation warten, sollten nach meiner Ansicht nicht mehr mit 6, 8, (oder 10gb) Vram fahren, oder eben kompromissbereit in Sachen Texturen sein.
Ich denke mit dem Nextgen Patch wird CB77 selbst die 10gb der 3080 sprengen, zumindest wenn RT dazu kommt.
Davon wird der Nutzer aber nichts merken, da Nvidia bereits im Treiber passend vorgreifen wird (erinnert euch an die 970 mit ihren 3,5gb VRam und wie lange die Karte wirklich gut performte).
Also wird derjenige mit "zu wenig" Vram nichts davon merken.
Davon ab ist mir aufgefallen das 60fps Gamer meist ein höheren Vram Bedarf haben, als die Leute die mit 120-144fps unterwegs sein wollen. Denn die high fps Fraktion muss die Settings meist reduzieren.
Tendenziell kommen also 60fps Gamer ehr in die Vram "Problematik" als die 120-144er