• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

Test Deathloop im Test: VRAM ist nur durch mehr VRAM zu ersetzen

Wan900 schrieb:
4k ist aber auch nicht das Terrain einer 3070 oder 6700.
Es geht darum das es aufzeigt das unter 4K schon ein entsprechender Mangel des Vram herrscht, klar auch wenn in 4K. Aber genau so wird es halt dann auch in 2-3 Jahren in WQHD aussehen und dafür musst du dann nicht einmal die Details stur auf Ultra stellen, sondern kann und wird schon in high auftreten. Wo du dann mit einer 6700XT keine Mikroruckler hättest. Aber ja kannst natürlich schon mit der nächsten Generation wieder aufrüsten dann. Während jemand mit einer 6700XT das bis zur übernächsten oder gar weiter, im spielbaren Bereich von 60FPS, rausziehen kann.
 
Zuletzt bearbeitet:
Iguana Gaming schrieb:
Es geht darum das es aufzeigt das unter 4K schon ein entsprechender Mangel des Vram herrscht, klar auch wenn in 4K. Aber genau so wird es halt dann auch in 2-3 Jahren aussehen und dafür musst du dann nicht einmal die Details stur auf Ultra stellen, sondern kann und wird schon in high auftreten. Wo du dann mit einer 6700XT keine Mikroruckler hättest. Aber ja kannst natürlich schon mit der nächsten Generation wieder aufrüsten dann. Während jemand mit einer 6700XT das bis zur übernächsten oder gar weiter, im spielbaren Bereich von 60FPS, rausziehen kann.
Das ist ne Prognose die man so nicht wirklich machen kann. Ich habe im letzten Jahr beobachten können, dass der VRAM-Verbrauch bei vielen Spielen eher abgenommen hat. Wie ein Vorredner angemerkt hat, bei Horizon ZD, der Microsoft Flight Simulator als eines der Spiele mit extremen Anforderungen an RAM und VRAM wurde gepatcht und braucht heute deutlich weniger bei deutlich besserer Performance, viele andere Spiele durch die (nachträgliche) Implementierung von Technologien wie DLSS oder FSR. Da ist auch interessant, was Direct Storage vielleicht mal bewirkt. Und nochmal, die isolierte Betrachtung von VRAM-Verbrauch bei bestimmten Auflösungen hat keine besondere Relevanz. Sonst könnte ich mich ja auch über VRAM-Anforderungen bei 8K aufregen, obwohl ich keine GPU habe, die das packt. Die Konsolen werden in 2 Jahren auch nicht plötzlich mehr VRAM zu Verfügung haben. Danach werden Spiele nunmal primär entwickelt, da werden die VRAM-Anforderungen nicht plötzlich explodieren.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: pietcux
Iguana Gaming schrieb:
... 4K ... in 2-3 Jahren... mit einer 6700XT... im spielbaren Bereich von 60fps... .

Was jetzt schon mit der 6700XT in den AAA-Games nicht mehr klappt soll dann in 2-3 Jahren wiederum möglich sein? 😁

Iguana Gaming schrieb:
hatte WQHD vergessen dran zu hängen, sorry

Aber gerade da haben 8G Karten gute Chancen die aktuelle Konsolengen. durchzustehen, wenn man die Entwicklung so betrachtet.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Recharging und DaHell63
Iguana Gaming schrieb:
Wo du dann mit einer 6700XT keine Mikroruckler hättest. Aber ja kannst natürlich schon mit der nächsten Generation wieder aufrüsten dann. Während jemand mit einer 6700XT das bis zur übernächsten oder gar weiter, im spielbaren Bereich von 60FPS, rausziehen kann.
Dann zeig doch mal ein paar Spiele, bei denen die 6700XT im 60fps-Bereich ist, die 3060 Ti und 3070 in identischen Einstellungen aber VRAM-Probleme haben.
 
Depi schrieb:
Die Konsolen werden in 2 Jahren auch nicht plötzlich mehr VRAM zu Verfügung haben. Danach werden Spiele nunmal primär entwickelt, da werden die VRAM-Anforderungen nicht plötzlich explodieren.

Das ist richtig und ich finde die Videos von DigitalFoundry bezüglich optimierter Settings sehr interessant.
Im Endeffekt hat das Deathloop-Video gezeigt, dass die Qualität der PS5-Version ca. eine RTX 2060 Super - 2070 Super erfordert, beides Karten mit 8 GB VRAM und der Port von Deathloop ist eben nicht schlecht, wobei die Engine schon etwas "zickig" ist.

Allerdings muss man schon Abstriche machen damit die 8 GB VRam ausreichen, obwohl Karten wie die RTX 3070 durchaus noch leichte Leistungsreserven hätten, daher würde ich schon sagen, dass nvidia sehr knapp kalkuliert hat.
Selbst wenn man bei GDDR6X von 100€ Aufpreis ausgeht (8 GB vs 16 GB) wäre das eventuell für Gamer durchaus positiv gewesen, da die Speichermenge für Mining meist weniger relevant ist und man müsste sich um Mods und höchste Texturen keine Gedanken machen.
Ergänzung ()

Cohen schrieb:
Dann zeig doch mal ein paar Spiele, bei denen die 6700XT im 60fps-Bereich ist, die 3060 Ti und 3070 in identischen Einstellungen aber VRAM-Probleme haben.

Texturmods, normale Mods oder schon mitgelieferte "4K-Texturpakete"/höchste Texturdetails reichen dafür aus und das ist eben schade, der PC ist eine freie Plattform und mit 8, bzw. 10 GB treten eben bereits jetzt häufig Einschränkungen auf.
 
Zuletzt bearbeitet:
|SoulReaver| schrieb:
Ist das so.... Ganz ehrlich? Bevor ich diese Preispiraterie mit mache und mir Karten IM JAHR 2021 MIT 6/8/10GB kaufe, bleibe ich bei einer gut funktionierenden 1080TI und schraube lieber ein zwei Regler runter und warte auf eine Karte die es Wert ist das man sie kauft.
Spricht ja auch nichts dagegen wenn Du das für Dich selbst so entscheidest. Aber mit deinem Spruch...wer eine 8GB Karte kauft denen ist nicht mehr zu helfen- hast Du den Stein ins rollen gebracht.
Ich habe mich eben für die RTX 3070 entschieden, die ~40% schneller ist als meine alte GTX 1080TI ist.
Raytracing/DLSS usw mal aussen vor. Für 189€ Aufpreis eine klare Angelegenheit.
Warten auf die nächste GEN kann ich mit der schnelleren Karte auch :D.
 
  • Gefällt mir
Reaktionen: Recharging
SavageSkull schrieb:
Ich habe auch schon einem Freund davon abgeraten überhaupt etwas zu kaufen, weil das, was in sein Budget passt völliger Humbug ist und ihm in kürzester Zeit wieder vor dasselbe Problem stellt.
Wie immer: It depends: Wenn derjenige jetzt hauptsächlich Fifa, Fortnite und CS:Go in FHD zockt und etwas für 100-150€ sucht, kann man ihm guten Gewissens eine 1650 mit 4GB empfehlen. Ja ich weiß, dass man die aktuell nicht dafür bekommt ;)
Ergänzung ()

Cohen schrieb:
Dann zeig doch mal ein paar Spiele, bei denen die 6700XT im 60fps-Bereich ist, die 3060 Ti und 3070 in identischen Einstellungen aber VRAM-Probleme haben.
Gibt's vermutlich nicht. Die 8GB werden wenn, dann in der Regel in Kombination mit RT zum Problem. Und da haben AMD Karten in der Preisklasse trotz mehr VRAM ganz andere Probleme. Zumal es bisher bei all den problematischen Titeln DLSS als Ausweg gab. Das Ding hier zähle ich absichtlich nicht mit, da der VRAM Konsum wie schon so oft erwähnt wurde sicher nicht in der herausragenden Texturqualität begründet ist ;)
 
  • Gefällt mir
Reaktionen: Recharging und DaHell63
Naesh schrieb:
Zum glück doch die 3090 geholt :D Wenn selbst eine 3080Ti hier schon quasi am limit läuft. Hoffentlich lernt NVIDIA dadurch endlich mal, aber ich vermute eher nicht.


Wieso sollte Nvidia lernen? Du hast jetzt deren teuerste Karte geholt, weil die anderen karten nicht genug Ram bringen.

Da werden sie sicherlich bei den billigeren Karten freiwillig mehr Ram nehmen.
 
Nur mal so nebenbei bemerkt, Nvidia kann nicht einfach so auf 16GB gehen. Ein 256bit Interface wäre ohne L3 Cache zu langsam und 512bit wäre energietechnisch Overkill.

Edit: Noch als Ergänzung. Die Aussage gilt natürlich nur für die RTX 3080 und RTX 3080 Ti. Eine RTX 3070 könnte auf 16GB aufgerüstet werden von Nvidia. Ob das Sinn macht, darüber lässt sich streiten. Ich denke, dass es Sinn machen würde.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: Recharging, Neubauten, Verak Drezzt und 2 andere
Gerade auf the Verge, die DF zitieren, gelesen bzgl. micro stuttering:

what you’re seeing has more to do with mouse movement than syncing your GPU’s frames to your monitor’s refresh rate. This isn’t the tearing you see when frames hit in the middle of a refresh, or the microstutter you might have experienced when frames are delayed.

In fact, Battaglia shows that Deathloop can deliver excellent frame times — there’s just a mismatch when you’re turning your digital character’s head at non-standard refresh rates, like the ones your variable refresh monitor is designed to provide. With an RTX 3080, my GPU could easily send 80 fps to my G-Sync monitor in many scenes at near-4K resolution, but locking it to 60 counterintuitively made everything feel far smoother.
Ich meine solch ungewöhnliches Verhalten schon vor Jahren mal beobachtet zu haben, auch wenn ich nicht mehr sagen könnte wo. Jedenfalls sehr außergewöhnlich.
 
Ich habe mit 60 fps Mausstuttering und oberhalb der 60 fps habe ich Grafikstutterring....

Benutze ich mit 60 fps das Gamepad dann ist es meist smooth...benutze ich oberhalb der 60 fps Maus oder Gamepad ist stuttering da
 
Hat schon jemand die Gelegenheit gehabt nach dem Treiber-Update (Nvidia) zu testen? Würde mich mal interessieren, ob es hierdurch bereits Abhilfe gibt.
 
  • Gefällt mir
Reaktionen: Tritom73
Ich habe das Spiel vor 8 Stunden gekauft und zocke es auf dem 4K LG OLED55 Zoll mit 120 HZ und G-Sync alles auf Ultra mit Raytracing. Das Spiel sieht einfach unglaublich gut aus und habe mit meiner 3080 Ti Suprim X überhaupt keine Probleme wie hier geschrieben wird. Habe zwischen 60-100 FPS. Kam hier schon der Patch auf den alle gewartet haben?

Das Spiel erinnert mich irgendwie damals an Bioshock 1 und 2.

Die Story ist einfach sehr gut sowie der Charakter. Ich empfehle es auf Englisch zu spielen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Tritom73 und Tiara G.
Der Typ hat die deutsche Stimme von Dwayne "The Rock" Johnson, soll gut synchronisiert sein.

Bitte mehr Userberichte, auch von Spielern mit älterer Hardware, Turing, Pascal, Maxwell und die AMD Gegenstücke natürlich.
Mich interesieren so Berichte.
 
  • Gefällt mir
Reaktionen: Tritom73
Schnell genug und stotterfrei läuft das Spiel bei mir auf 1440p mit 5900x / RTX 3070, RT habe ich nicht an. Aber ab und zu stürzt es ab, Fehlermeldung "Error 0xC0000005 Access Violation".

Und ab und an, und zwar nur wenn der Rechner vorher bereits länger lief, wird der Screen immer mal wieder schwarz. Letzteres Verhalten hatte ich schon früher mit der GTX 1070 bei anderen Spielen. Lösungen im Netz gesucht und ausprobiert, nichts half. Außer Neustart, dann tut wieder alles einwandfrei, für eine Zeitlang.
 
  • Gefällt mir
Reaktionen: Tiara G.
Bei mir mit einem 5900x und einer 6900 XT ebenfalls butterweich. WQHD, Texturen auf Sehr hoch, Rest auf Ultra. FSR und RT aus, VSync auf 165 FPS.

VRAM konstant knapp über 7 GB.

Ich war bei den Kommentaren hier erst skeptisch, aber auch die Grafik kann sich sehen lassen. Die Models sind vielleicht etwas verwaschen, die Umgebung dafür umso ansehnlicher.

EDIT: Nach ca. einer Stunde fängt das Spiel an, leicht zu ruckeln. VRAM wird vom Spiel weiterhin mit 7 GB gemeldet, der Taskmanger und HWiNFO geben aber fast 16 GB an.

Etwas später crasht das Spiel :daumen:
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: RaptorTP und Tiara G.
Hab mal ne Verständnisfrage zu den Tafeln/Ziel des Spiels.

Habe bei zweien die gewünschten Verbesserungen, letztes Karo sagt man soll sich noch einmal die Tafel holen, das mache ich, kann ich noch zehnmal machen, bekomme das letzte Karo nicht abgehakt, Alexis/Egor, suche den Wurm im Spiel damit die Zeile als done abgehakt wird.

Siehe Foto:
 

Anhänge

  • tafeln.png
    tafeln.png
    2,1 MB · Aufrufe: 292
OiOlli schrieb:
Wieso sollte Nvidia lernen? Du hast jetzt deren teuerste Karte geholt, weil die anderen karten nicht genug Ram bringen.

Da werden sie sicherlich bei den billigeren Karten freiwillig mehr Ram nehmen.

Er hats ihnen halt richtig gezeigt :D

ThreepQuest64 schrieb:
Gerade auf the Verge, die DF zitieren, gelesen bzgl. micro stuttering:


Ich meine solch ungewöhnliches Verhalten schon vor Jahren mal beobachtet zu haben, auch wenn ich nicht mehr sagen könnte wo. Jedenfalls sehr außergewöhnlich.

Das habe/hatte ich in einigen Games.
Viele Games fühlen sich für mich mit Vsync zB auch besser an, obwohl Gsync/Freesync aktiv und die FPS mit der Monitorrate (144hz) abgeglichen.
zB WoW Classic TBC ist so ein Game. Ohne Vsync fühlt es sich ruckelig an.

Irgein Sportspiel damals, meine nba 2k19 fühlte sich mit 60fps besser an als mit 144.
Liegt sicher daran, da für Konsolen etc. optimiert und PC nicht.


BTT:
Dass das Spiel so speicherhungrig ist, ist eher auf schlechte Optimierung zurückzuführen.
So toll sehen die Texturen nicht aus, dass ich da 16gb VRAM bräuchte.

Und wenn RT + FSR aktiviert, sollte das doch den VRAM Hunger reduzieren?
Schätze nur Nativ 4k + RT braucht will mehr als 10gb?
Die 99% Percentiles der 3080 sehen doch gut aus..man sollte auch nicht ingame dauerhaft die Aufl. hin und her schieben..
Habe ne 6800xt, nein ich bin kein NV-Fanboy etc etc..bevor da wieder einer angerannt kommt ^^
 
Zurück
Oben