derin schrieb:
Ich bin gespannt auf die ersten öffentlichen Tests.
Alle Performance Verbesserungen scheinen sich auf 4k mit aktiviertem Raytracing und DLSS zu beziehen.
Mal schauen wie das ganze dann bei dem Pöbel in 1080p bzw 1440p ohne Raytracing aussieht, sicherlich deutlich weniger "impressive"
Bezüglich Leistungsaufnahme wurde auch nicht so viel gesagt, mal schauen was da so kommt.
Bin noch sehr skeptisch.
Im Video von Digital Foundry wurden Spiele auch ohne DLSS und ohne Raytracing getestet.
Trotzdem gabs dort auch schon ~80% mehr Leistung.
Tatsächlich scheint sich die RT Leistung nicht überproportional verbessert zu haben. Sie ist quasi 1:1 mit der Rasterisierungsleistung gestiegen.
In 1080p oder vermutlich auch 1440p wird man wohl schnell in CPU limits geraten. Zumindest mit aktuellen Spielen. Mit den next gen Games dürfte das wieder anders aussehen. Da wird wohl auch Ampere in 1440p ordentlich was zum arbeiten haben, wenn z.B. so ne Konsolen GPU auf dem Niveau einer 2080 im schlimmsten Fall ihre gesamte Leistung für 1440p (oder 4K checkerboarding) bei 30 FPS verpulvert.
Da ist ~doppelte Leistung am PC für 60+ FPS schon nicht verkehrt.
Ich bin einerseits überrascht, dass Ampere so einen großen Sprung verspricht, aber im Anbetracht der diesmal relativ starken konsolen war das auch bitter nötig, um am PC auch in Zukunft mit entsprechend hohen FPS spielen zu können. Man braucht einfach ein gewisses performancedelta zu den Konsolen, sonst muss man für mehr FPS die Details unter Konsolenniveau schrauben. Das will ja auch keiner...
CrustiCroc schrieb:
Nicht zu fassen, wie oft dieser "Fehler" gemacht wird. Nimm ne 2070S in dem Spiel. Knapp 8 GB werden ausgelastet in 4K.
Nimm ne 1080ti, knapp 11 GB werden ausgelastet.
Nimm ne Radeon VII, knapp 16 GB werden ausgelastet.
Merkste was?
Ich kann mit 4GB VRAM in 1440p die höchsten Texturen in dem Game aktivieren. (oder wars das vorgängerspiel`? egal, da waren glaub ich auch schon 6GB gefordert)
Inwiefern die dann wirklich sichtbar sind, ist für mich nicht 100% validierbar, aber der Performanceinbruch hält sich doch relativ stark in Grenzen. Die Framtimes passen auch noch (also keine Hänger und ruckler).
Klar, so ~30% weniger performance gibts dann schon, das merkt man. Aber das zeigt für mich, dass der tatsächlich notwendige VRAM, um eine Szene ohne performanceeinbruch zu rendern SEHR deutlich von der Belegung des VRAMs (bei GPUs mit viel VRAM) abweicht.
Das was ihr da immer als VRAM Auslastung seht ist in den meisten Fällen einfach totaler Unsinn.
Der Treiber lädt halt den VRAM voll, weil das eben effizient ist und im zweifel die performance stabilisieren kann. Nach dem motto, "was man hat, das hat man".
Aber selbst wenn du eine Karte mit 8GB hast und da meinetwegen 6 GB belegt sind, dann kann es durchaus sein, dass die gleiche Karte mit 4GB noch keinerlei performanceeinbrüche zeigt, weil für die Szene selbst vielleicht nur 3,5 oder 4GB wirklich notwendig sind.
Und selbst wenn für eine Szene 5 GB notwendig sind (also 1GB mehr, als physisch vorhanden) dann kann man das immernoch mit moderaten performanceeinbußen laufen lassen. Dann werden halt für jedes Frame nochmal extra Daten aus dem VRAM gekickt und eingelesen, bis der Frame fertig ist. Seit DDR4 RAM und Windows 10 kein großes Thema mehr. Der VRAM wird einfach in den RAM ausgelagert (Taskmanager - gemeinsamer GPU Speicher) , die Spiele stottern nicht mehr, sondern laufen einfach nur etwas langsamer.
Diese Behauptungen von wegen, sobald der VRAM voll ist, eskalieren die Frametimes und es wird unspielbar ist nach meiner Erfahrung einfach nur völliger Unsinn. Das war bei Windows 7/8 noch so, aber mit Windows 10 eben nicht mehr.
Man kann das auch ins Extreme treiben, z.B. auf 30 FPS limitieren und den VRAM noch weiter überladen.
Solange das Frame irgendwie innerhalb der 33,33 ms fertig wird ist alles gut. Und wenn der VRAM dafür zwei oder dreimal pro Frame neu beschrieben werden muss. Es geht, es läuft stabil und es hängt nichts (mit 30 FPS Vsync auch perfekte Frametimes), es wird nur immer langsamer, je weiter man es übertreibt.
Neue Spiele sind da zum Teil noch unkritischer, da für Texturen nur ein Pool genutzt wird. Da definiert die Texturstufe nicht die Qualität, sondern die Menge an Speicher, die für Texturen genutzt werden kann.
Heißt, in der Nähe sieht man dann als Spieler immer die bestmöglichen Texturen, während dann in größerer Entfernung schlechtere Texturen genutzt werden. So erhält man auch mit sehr wenig VRAM eine im Schnitt sehr hohe Texturqualität Die Menge des VRAM bestimmt dann nur, ab welcher Entfernung die Qualität langsam abfällt (was fast nicht auffällt) Mit DX12 Ultimate und den neuen Features sollte das ganze nochmal effizienter werden.
Schon jetzt bieten viele Spiele schon gar keine Einstellung mehr für die Texturen, und machen das alles komplett automatisch. Die Zeiten von wegen du brauchst VRAM Menge X um Texturen in Qualität Y zu sehen sind eigentlich jetzt schon fast vorbei...
Ich frag mich daher echt, ob die 8/10 GB bei Ampere in Zukunft nicht doch dicke ausreichen...
Ich sag mal so, wenn die neuen Features wie versprochen greifen und genutzt werden, dann halte ich 16 GB für künftige Spiele eigentlich für nutzlos. Aber ja, wissen kann mans leider nicht. Wie immer, abwarten...