Linmoum schrieb:
Die 3080 mit aktuell in der Gerüchteküche kolportierten 10GiB und +30% auf eine 2080Ti wird dadurch noch absurder
Erweitere deinen Horizont. Speicherplatz ist nicht einfach gleich Speicherplatz. Da spielen noch weitere Faktoren mit rein, die durch die GPU Architektur beeinflusst werden:
- Wie geht die GPU Architektur mit dem Speicher um? Man kann z.B. Daten anders anordnen, sodass sie dichter gepackt werden können und so mehr freier Speicher übrig bleibt.
- Bessere Algorithmen zur Speicherkompression - sei es nun verlustfrei oder verlustbehaftet bzw. "visually lossless". Da ist noch längst nicht das Ende der Fahnenstange erreicht.
Man sieht ja schon am Vergleich zwischen AMD und Nvidia, dass es da teils erhebliche Unterschiede im VRAM Bedarf gibt. Genau so gibt's auch Unterschiede zwischen den Generationen eines einzelnen Herstellers.
Und dann gibt's natürlich auch noch den Umweg über den Systemspeicher, um seltener benötigte Daten auszulagern und sie rechtzeitig wieder in den VRAM zu laden. AMD hat es mit HBCC vorgemacht und gezeigt, dass es funktionieren kann.
Solche Techniken gibt's auch in anderen Bereichen: Z.B. habe ich auf meinem Mac auch nur 16 GB RAM und trotzdem passen da an die 20 GB Daten rein, weil Apple eine transparente Speicherkompression in's Betriebssystem gebaut hat. Solche Verfahren gibt's aber auch schon seit 30 (?) Jahren - damals auch in Form von Hardware Modulen.
PS828 schrieb:
Jetzt könnte man es auf schlechte Optimierung schieben. Aber ist es schlechte Optimierung wenn der Platz tatsächlich gebraucht wird? Ich glaube nicht. Man müsste halt nachweisen dass es mit weniger Speicher ohne Optikverlust auch geht. Sehr schwer.
Ich würde meine Hand dafür in's Feuer legen, dass es schlecht optimiert ist. Was aber nicht heißen soll, dass es schlechter optimiert ist als andere Spiele.
Der Arbeitgeber bezahlt für Features und hat Deadlines. Optimierungen kosten extrem viel Zeit und bringen das Produkt auf den ersten Blick nicht sichtbar voran. Ich spreche da aus Erfahrung. Schließlich kann man sämtliche Performanceprobleme mit der Zeit mit immer modernerer Hardware erschlagen.
Deswegen schreibt man heute auch keinen Code mehr in Assembler. Sicherlich wäre das Ergebnis schneller und effizienter (vorausgesetzt der Entwickler ist kompetent genug - was auch wieder mehr Kosten bedeutet), aber es dauert halt deutlich länger und ist am Ende höchstwahrscheinlich noch viel schlechter wartbar.
Und da geht's auch nicht nur um Code Optimierungen. Genau so könnte man Polygone entfernen, die eh niemals jemand sieht. Oder Texturen mit unterschiedlichen Verfahren komprimieren, die je nach Textur das beste Ergebnis liefern. Evtl. müsste man dann hier und da noch ein paar Pixel minimalst in der Farbe verändern, damit die Kompression noch deutlich effizienter läuft.
Dazu kommt im Fall von HZD sicherlich auch noch, dass es ursprünglich ein PS4 Spiel ist. Diese Spiele enthalten haufenweise Assets doppelt, dreifach und noch viel öfter, weil sie auf der PS4 auf einer HDD liegen. Und um Nachladeruckler zu minimieren ist es einfacher die Assets zu duplizieren als den HDD Kopf neu zu positionieren. Wenn sie das bei der PC Fassung nicht geändert haben, bzw. bei der Portierung nicht drauf geachtet haben, dann liegen am Ende halt viele Daten zigfach dupliziert im (V)RAM.