Wie schlimm sind 4gb VRAM eigentlich wirklich?
Ich hab mir letztens einige Videos geschaut wo Spiele gebenchmarkt wurden, und es scheint so, dass inzwischen der System-RAM den VRAM vielfach ersetzen kann (zumindest solange man nicht Raytracing aktiviert, was zwingend mehr VRAM benötigt).
Klingt fragwürdig, aber wenn man sich diverse Benchmarks mit einer AMD-APU 5700G anschaut, fragt man sich ernsthaft wie die es schafft neuere Spiele flüssig darzustellen (natürlich nicht bei hohen Einstellungen, aber dennoch ansehbaren) - und das ganz ohne dedizierten VRAM.
Da würde man doch denken das Bild müsste wie wild herumstottern...
Oder wie schafft es eine GT 710 mit 2GB VRAM das Spiel GTA V flüssig darzustellen? Mit genügend System-Ram ging es dort auch flüssig.
Oder beim Assassins Creed Origins Benchmark war es so, dass trotz übergelaufenem VRAM nur dann Bildstotterer passierten, wenn man auch zuwenig System-RAM hatte. Bei genügend System-RAM waren die Bildstotterer weg.
Also die Bildstotterer passierten nur dann, wenn der System-RAM übergelaufen war, und Daten auf die Festplatte ausgelagert werden mussten. Aber mit genügend System-RAM waren die Spiele kein Problem mehr. Also insgesamt schien der System-RAM deutlich wichtiger zu sein als der dedizierte VRAM. Im Vergleich zu dedizierten VRAM wird es natürlich dennoch langsamer sein, aber wenn der Verlust nur 10-15% Performance beträgt - wäre das nicht die Welt.
Ich finde das müsste mehr getestet werden, damit man handfeste Fakten hätte, aber es gibt nicht viele Grafikkarten, die ident sind bis auf die VRAM-Bestückung und wo man das gut testen kann.