domian schrieb:
nicht immer alles glauben, was über die VRAM Größe gemeckert wird...
Am Besten hört dieser blödsinnige "aber in diesem Video" Unsinn auf und wir diskutieren nicht mehr über die Meinung von Clickbait Youtubern. Schade, dass immer mehr Beiträge im Kommentarbereich mit YT Links vollgemüllt werden.
Wenn man bei NVIDIA weiß, dass bessere Effizienz und Technologie (DLSS, natürlich auch FSR) künftig größer als reiner Spec-Race sind - wer könnte das widerlegen? AMD jedenfalls nicht, sind die also auch zu blöd/gierig/hochmütig/irgendwas?
So wie vor vielen Jahren der Takt bei CPUs kaufentscheidend war und heute nur noch Enthusiasten drüber reden (früher war der Takt oder Features wie MMX sogar Teil des Produktnamens!), sehe ich es für VRAM ähnlich kommen.
Meine Meinung: 8GB für die Karte in dem Preisbereich (blabla früher) sind absolut in Ordnung, Teil der Wahrheit ist eben auch DLSS3 und FG. "Reicht in einigen Spielen nicht mehr" und Witcher 3 zeigt genau das Gegenteil - keine weiteren Fragen.
Vielleicht sind eher die Entwickler/Studios das Problem? Ach wir testen hochoptimierte Spiele, um Hardware und Specs zu validieren? LOL!
(Randnotiz: mein MSI Stealth 14 Studio mit 90W 4050 Laptop GPU hat in FHD mit keinem Spiel irgendwelche "Probleme", keine Ruckelorgien, keine Abstürze, kein "plötzlich Festplatte leer" weil 6GB VRAM). Schaut euch mal das neue Zelda auf der Switch an - und DIE ist Gammelhardware, aber wen interessiert es? Schadet es den Spielen? Kurz: nö. Nintendo optimiert eben alles aus dem Teil raus, seit über 4 Jahren.
Und wir PC-Spieler baden im Tränenmeer, weil
- es erst keine GPUs gibt wegen Mining,
- dann zu teuer sind,
- wieder verfügbar werden, billiger sind aber immer noch genauso viel VRAM haben
- der aber nun aber nicht mehr reicht
TL;DR: Technologie (DLSS, FG, FSR, XeSS etc) und Effizienz > Specs und The Witcher 3 zeigt das eindrucksvoll.