@SavageSkull
Es ist eben nicht egal, weil die Texturen lange oder sogar dauerhaft matschig bleiben, weil der Speicher eben voll ist und das kann z.B. eine ganze Straße, Teile des Bodens, Gebäude, Autos etc. betreffen (will jetzt nicht zur Konkurrenz verlinken, aber es gibt etliche VRAM-Tests, die die Probleme schön verdeutlichen).
Natürlich wissen wir nicht, wie sich der VRAM-Verbrauch entwickelt, aber schau dir doch Benchmarks zu Marvel's Avengers, Ghost Recon Breakpoint, Control, Final Fantasy XV, Horizon Zero Dawn etc. an, da sieht man schon jetzt matschige Texturen und auch heftige Framedrops (nicht jede Engine reagiert nur mit reduzierten Details).
Ich habe auch nicht behauptet, dass es keine Möglichkeiten gibt an der Grafik zu schrauben, alles auf max. settings ist meist absoluter Overkill und kostet unnötig fps, ABER maximale Texturen kosten eben keine Leistung und je nachdem in welcher Form die Texturen vorliegen kann der Unterschied zwischen ULTRA und HIGH schon ziemlich groß (oder auch gar nicht sichtbar) ausfallen.
Ja, es bleiben (geschätzt) 4-5 GB Arbeitsspeicher auf PS5 übrig, die PS4 Pro und Xbox One konnten ca. 5 GB als VRAM nutzen, Konsolen sind eben auf Gaming zugeschnitten, das ist kaum vergleichbar mit der Situation am PC.
Und in einer Zeit als Konsolen ca. 5 GB VRAM hatten, wieviel haben Ports für den PC benötigt? Meist deutlich mehr.
Ich finde nicht, dass dem Thema eine übertriebene Bedeutung zugemessen wird, 10GB sind für eine Enthusiastenkarte einfach wenig, AMD liefert in derselben Preisklasse einfach mal 6GB mehr.
Und wenn man sich dann anschaut wie Features ala DLSS plötzlich doch nicht immer optimal sind (siehe WD:L + RTX on) und einen ohnehin winzigen Verbreitungsgrad haben, warum dann nicht die günstigere Karte mit mehr VRAM nehmen?
Wenn die Tests zu RDNA2 raus sind, weiß man endlich mehr.
Es ist eben nicht egal, weil die Texturen lange oder sogar dauerhaft matschig bleiben, weil der Speicher eben voll ist und das kann z.B. eine ganze Straße, Teile des Bodens, Gebäude, Autos etc. betreffen (will jetzt nicht zur Konkurrenz verlinken, aber es gibt etliche VRAM-Tests, die die Probleme schön verdeutlichen).
Natürlich wissen wir nicht, wie sich der VRAM-Verbrauch entwickelt, aber schau dir doch Benchmarks zu Marvel's Avengers, Ghost Recon Breakpoint, Control, Final Fantasy XV, Horizon Zero Dawn etc. an, da sieht man schon jetzt matschige Texturen und auch heftige Framedrops (nicht jede Engine reagiert nur mit reduzierten Details).
Ich habe auch nicht behauptet, dass es keine Möglichkeiten gibt an der Grafik zu schrauben, alles auf max. settings ist meist absoluter Overkill und kostet unnötig fps, ABER maximale Texturen kosten eben keine Leistung und je nachdem in welcher Form die Texturen vorliegen kann der Unterschied zwischen ULTRA und HIGH schon ziemlich groß (oder auch gar nicht sichtbar) ausfallen.
Ja, es bleiben (geschätzt) 4-5 GB Arbeitsspeicher auf PS5 übrig, die PS4 Pro und Xbox One konnten ca. 5 GB als VRAM nutzen, Konsolen sind eben auf Gaming zugeschnitten, das ist kaum vergleichbar mit der Situation am PC.
Und in einer Zeit als Konsolen ca. 5 GB VRAM hatten, wieviel haben Ports für den PC benötigt? Meist deutlich mehr.
Ich finde nicht, dass dem Thema eine übertriebene Bedeutung zugemessen wird, 10GB sind für eine Enthusiastenkarte einfach wenig, AMD liefert in derselben Preisklasse einfach mal 6GB mehr.
Und wenn man sich dann anschaut wie Features ala DLSS plötzlich doch nicht immer optimal sind (siehe WD:L + RTX on) und einen ohnehin winzigen Verbreitungsgrad haben, warum dann nicht die günstigere Karte mit mehr VRAM nehmen?
Wenn die Tests zu RDNA2 raus sind, weiß man endlich mehr.
Zuletzt bearbeitet: