TigerherzLXXXVI
Lt. Commander
- Registriert
- Dez. 2021
- Beiträge
- 1.350
Könntest du mir das bitte in ein Paar Sätzen erklären?Taxxor schrieb:Nicht "DLSS 2 Ausgeglichen" sondern "DLSS SR 3.5 Ausgeglichen"
Folge dem Video um zu sehen, wie unsere Website als Web-App auf dem Startbildschirm installiert werden kann.
Anmerkung: Diese Funktion ist in einigen Browsern möglicherweise nicht verfügbar.
Könntest du mir das bitte in ein Paar Sätzen erklären?Taxxor schrieb:Nicht "DLSS 2 Ausgeglichen" sondern "DLSS SR 3.5 Ausgeglichen"
Die Engine lädt bei zu wenig VRAM automatisch Texturen in niedrigerer Auflösung und gegebenfalls sogar Objekte mit geringerem Geometriedichte, um ein Ruckeln durch zu wenig VRAM zu verhindern.Aszu schrieb:Ich weis was du meinst. Das konnte ich bei einer 10GB Karte nicht beobachten. Lief super fluffig.
Wie gesagt vorgemerkter RAM ist nicht gleich benötigter.
Ich habe deswegen DLSS 2 gesagt, weil Turing nicht alle DLSS 3 Features unterstützt. Einen großen Einfluss auf das zuvor von mir Gesagte wird "DLSS 3.5 SR" sicherlich nicht haben.Taxxor schrieb:Was soll ich da erklären? Implementiert ist im Spiel DLSS SR 3.5, oder auch DLSS 3.5 SR, je nach dem, wie rum man es gerne sagen möchte^^
DLSS 2.x gibts schon lange nicht mehr.
Was die Performance und VRAM betrifft, nein. Jedoch erachte ich es genrell als sinnvoll, darauf hinzuweisen, wenn ein Spiel DLSS SR 3.5 implementiert, dieses nicht DLSS 2 zu nennen, mehr nicht.TigerherzLXXXVI schrieb:Einen großen Einfluss auf das zuvor von mir Gesagte wird "DLSS 3.5 SR" sicherlich nicht haben.
Ist hier ähnlich, sie haben einen Blogeintrag veröffentlicht, in dem auch die verschiedenen Streamingsysteme erklärt werden. Der Texturstreamer-Anteil sollte im Optionsmenü aber eigentlich gelb werden, wenn der VRAM zu knapp wird.Trelor schrieb:In der UE4 und 5 ist dies z.B. der Default und ich wäre sehr überrascht, wenn dies bei Ubisofts Snowdrop engine nicht auch so wäre.
Es ist trotzdem etwas komisch, dass du nicht gleich ein Beispiel mit 4K oder WQHD gewählt hast. Warum 8K? Theoretisch stimmt das natürlich mit der deutlich höheren Pixelmenge, die man von 8K auf 4K einspart im Gegensatz zu WQHD auf Full HD. Aber tatsächliche Messwerte wären mir hier lieber als reine Theorie.Taxxor schrieb:Ja, von 8K ausgehend und damit einer Reduzierung von insgesamt ~33 Mio Pixeln auf ~18 Mio Pixeln.
Das kannst du nicht einfach mit einem Faktor auf eine Reduzierung von ~3,7 Mio Pixeln auf ~1,4 Mio Pixeln gleichsetzen.
Weil es das erste war was ich zum Thema gefunden habe und die Infos daraus ausreichend waren^^TigerherzLXXXVI schrieb:Es ist trotzdem etwas komisch, dass du nicht gleich ein Beispiel mit 4K oder WQHD gewählt hast. Warum 8K?
Genau mein Reden, aber nein es heißt dann immer: Ja Speicher ist voll belegt aber es läuft alles noch gut. Mhhh ist klar.Trelor schrieb:Kurzum: Reicht der Ram nicht, gibt es dann eben einzelne Texturen auf Hoch statt Ultra ehe es ruckelt.
Das ganze Thema ist sowieso hinfällig, weil wie gesagt das Spiel (die Engine) den Videospeicherbedarf automatisch an die verwendete Grafikkarte anpasst.Taxxor schrieb:Weil es das erste war was ich zum Thema gefunden habe und die Infos daraus ausreichend waren^^
Naja nicht nur deswegen. Die Karte ist halt auch nicht mehr wirklich schnell.Poati schrieb:erkannt: die 3070 wird da nicht mehr genannt und das liegt in diesem Fall einzig und allein am VRAM.
Naja das stimmt schon, aber es gibt genügend Titel wo die 3070 etwas mit mehr Speicher anfangen könnte und das ist hier ebenso der Fall. Denn für FHD ist sie definitiv flott genug aber auch dazu steht im Test, dass 8GB nicht mehr reichen.Bügelbernd schrieb:Die Karte ist halt auch nicht mehr wirklich schnell.
... uuuund derweil ist die Ausstattung des durchschnittlichen PC-Spielers weit langsamer und älter.Bügelbernd schrieb:Naja nicht nur deswegen. Die Karte ist halt auch nicht mehr wirklich schnell.
Im Vergleich zur 3070 ja jetzt nicht mal mehr bei der RT Performance. ;-)Poati schrieb:AMD hat dafür halt beim Upsampling oder RT Performance eben seine Nachteile.