• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

Test Deathloop im Test: VRAM ist nur durch mehr VRAM zu ersetzen

OdinHades schrieb:
Nee. Verbuggte Spiele zum Launch sind schon lange Gegenwart.
Ja ja ich sag mal nur betroffene Hunde bellen.
Ob verbuggte oder nicht es ist für die Leistung schlicht zu wenig VRAM oder warum meinst du hat ne GTX 1070 8GB VRAM bekommen oder die 3060 12GB?

Aber die zukunft wird zeigen wo es hingeht.
 
minimii schrieb:
Sorglos erst mit 16GB...
Okay. Also ist das tatsächlich die Zukunft.
Tja sag das denn ganzen voll überzeugten 10/11GB nVidia VRAM FANS! Reicht doch für alles. Klar. Für alles was noch als normal angesehen werden kann. War schon bei Release der 3080 klar das es dauerhaft sowieso nicht reicht. Und für Modder erst Recht nicht. Von 4K will Ich gar nicht reden.

Ob mir das Spiel zusagt werde Ich testen wenn es günstig zu haben ist. Da es kein Must Have für mich ist will Ich nicht zu viel Geld investieren. Prey war mir auf Dauer einfach zu kalt und negativ. Schade. Daher bin Ich vorsichtig was Deathloop anbelangt.
 
foo_1337 schrieb:
Wie du an den Kommentaren siehst, ist es eben nicht nebensächlich. Denn schon kommen die "Nvidia hat viel zu sehr am VRAM gegeizt" oder "Die dämlichen käufer müssen jetzt upgrade" Sprüche. Und das ist halt in dem Fall völlig unnötig, da einer der Entwickler auf Reddit bereits bestätigt hat, dass sie an einem Patch arbeiten.
Es im Test zu erwähnen, keine Frage. Aber als Überschrift? Gerade weil es ein Bug ist, völlig daneben aus meiner Sicht, da es das Flaming geradezu anfeuert (was ein Wortspiel).
Bitte mach dich nicht lächerlich
Das passt so wie es ist mit der Überschrift
Die Entwickler arbeiten IMMER an einem Patch ob es nachher besser wird oder nicht weiß niemand
Soll das die Begründung jetzt für jedes Spiel werden?
Sry aber dich kann man echt nicht ernst nehmen
 
  • Gefällt mir
Reaktionen: Otsy
Sahit schrieb:
Na wo sind die ganzen Fanboys im Doom Artikel die 8 GB VRAM der RTX3070 verteidigt haben.
Die lachen weiterhin über deine lächerlichen Hetzversuche. Für mich ist es vollkommen egal ob der VRam nach 2 Minuten oder bei meiner RX 6800 nach 15 Minuten voll ist.


Beides ist nicht hinnehmbar...und solange es so bleibt, ist das Spiel für mich auch nicht kaufbar.

Phil.jpg
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: timmey77, McFritte, RogueSix und 3 andere
Balikon schrieb:
@Wolfgang Mal eine grundsätzliche Frage.

Wieso eigentlich? Man kann doch im AMD-Treiber einstellen, dass die Anwendungseinstellungen überschrieben werden und so das AMD-eigene AA im Treiber aktivieren. Ich nutze nie das spieleeigene AA.
Oder funktioniert AMD-eigene AA mit FSR dann nicht?

Wenn FSR mit dem AMD-AA funktioniert, ließen sich unter Umständen bessere FSR-Ergebnisse erzielen. Wollt Ihr das mal testen, sofern Ihr es noch nicht versucht habt?

Dein im Treiber einstellbares AntiAliasing funktioniert schon seit spätestens DirectX11 nicht mehr.
Seit DX11 bestimmen die Spiele von selbst, ob und wenn ja welches AntiAliasing genutzt wird. Da haben deine Treibereinstellungen keinerlei Auswirkungen.

Zudem ist das AntiAliasing im Treiber MSAA (Mutlisample AntiAliasing). MSAA wird mittlerweile in gefühlt 95% aller Games gar nicht mehr verwendet. Seit Jahren wird nun schon TAA (Temporal AntiAliasing) und davor das eher schlechte FXAA und SMAA genutzt (beides nur schlechte Post Processing Filter), weil die meisten modernen Engines nicht mehr mit klassischen MSAA kompatibel sind.

Ich finds etwas witzig, dass du denkst dass du das AA vom Treiber nutzt, obwohl es in fast keinem Spiel Funktioniert bzw. auch nicht funktionieren kann :p
 
  • Gefällt mir
Reaktionen: ZeroStrat und Salzferkel
Abseits vom VRAM ist die Technik des Spiels schlichtweg schlecht. Die Grafik ist bestenfalls Mittelmaß und selbst eine RTX 3090 kommt nicht deutlich über 100FPS in WQHD mit RT. Ohne RTX ist ja nicht wirklich eine Option, wenn man sich die Grafik ansieht - RTX sieht nicht besonders gut, sondern Rasterisierung besonders schlecht aus.

Wenn ich mir hier ein Battlefield im Vergleich ansehe, da liegen einfach Welten zwischen der Technik. Wesentlich schöner und wesentlich performanter gleichermaßen.

Der Verzicht auf DLSS, womit die Performanceprobleme behoben werden könnten, tut sein übrigens und AMDs Alternative ist nicht konkurrenzfähig.

Es gibt immer wieder Spiele, die trotz mittelmäßiger Optik absurd hohe Hardware benötigen, Quantum Break war da auch so ein Fall.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Zwirbelkatz und Gesualdo
Da wurde wohl wieder mehr Geld in die Werbung gesteckt als in die Qualität, jedenfalls werde ich auf jeder Seite die halbwegs mit Technik was zu tun hat mit Deathloop bombardiert entweder mit Anzeigen oder Artikel.
 
  • Gefällt mir
Reaktionen: Zwirbelkatz
Laphonso schrieb:
Wie ein Spiel mit einem Grafikniveau aus 2015 oder 2016 solche Anforderungen stellen ?
Zielgruppe sind alle mit der 3090 und 6900XT oder wie? :lol:
Ergänzung ()

Im Übrigen der nächste Titel der zeigt, warum eine Scalerlösung wie FSR am Ende schlicht nicht mit einer Rekonstruktion konkurrieren kann.
Vielleicht wird AMD doch noch eine eigene DLSS Lösung basteln, und sei es mit RDNA4.
Beim Raytracing haben sie ja auch erstmal Nvidia vorgelassen und haben es dann doch nachgemacht. Aus Gründen. Zum Glück. Wir brauchen mehr RT Power :D
https://wccftech.com/amd-microsoft-...ctml-to-life-4x-improvement-with-rdna-2-gpus/

Also ich zocke Deathloop mit FSR Ultra +Schärfen 15 und Raytracing aktuell auf meinem 4K Oled .
Der Ram wird nach jedem Level geleert hinzu kommt es schaukelt sich kurz bis auf zu 15800 mb hoch und nach einer Weile pendelt es sich im Level bei 14800 mb ca ein .
Das ganze läuft dann bei so um die 84 FPS Average.
Ich kann es recht gut spielen wobei immer am Anfang die Frametims erst etwas unruhig sind es sich aber nach dem einpendeln des RAMs normalisiert.
Es kommt mir auch so vor als wen es mit der Anzahl der verbliebenen Gegner immer etwas weniger wird im VRam.
Da wenn alle eliminiert sind auf der Map nur noch 14800 mb im Vram sind!
Kumpel von mir hat ne 2080 Ti 11GB die Stürzt dann einfach mal ab wenn der Ram überläuft.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Laphonso
für mich und den bekanntenkreis gibts ne ganz einfache lösung: den schrott nicht kaufen und so abstrafen 😎 dieses spiel hat keine berechtigung über 8gb zu verbrauchen, selbst 4 würden langen bei der comic grafik.
 
  • Gefällt mir
Reaktionen: JMP $FCE2, Laphonso, Czk666 und 3 andere
Also so toll das Spielt wohl zu sein scheint, so schlecht ist handwerkliche Umsetzung. Die Grafik wirkt sehr angestaubt, nicht schlecht, aber eben wie 5 Jahre alt. Dafür dann diese miserable Leistung abzuliefern bzw. diese Anforderungen? Da ist der VRAM Verbrauch nur ein Tropfen auf den heisen Stein, das ist aber auch ein Engine Problem. Alles in Allem werde ich wohl doch warten bis das Spiel gepatcht ist und es für 10/20€ im Sale gibt. So mag ich dafür kein Vollpreis bezahlen.
 
  • Gefällt mir
Reaktionen: tukse
foo_1337 schrieb:
Die genannten bzw. gemeinten Games hatten aber dementsprechend was zu bieten. Das sucht man hier halt eher vergeblich. Und schaut man sich die Problematik genauer an, stellt man schnell fest, dass es ein Leak ist und damit sicher nicht beabsichtigt.
Ich verstehe auch nicht, dass @Wolfgang nicht einfach die Daten von CX für eine Analyse nutzt. All die Features, die ungenutzt bleiben. @Volker nimmt stattdessen HWiNFO für die CPU Package Power in Games, obwohl CX das auch gleich mit aufnimmt. Es gibt eine klare MSR Schnittstellenbeschreibung für Energy Sensoren. Was soll HWiNFO da anders machen?

CapFrameX hat 5 VRAM Sensoren, die man alle beim Logging dazuschalten kann.
1631773666833.png


Anschließend geht man auf den Sensor Tab und kopiert die Daten nach Excel.
1631773697151.png

Damit lassen sich schöne Grafiken über die gesamte Aufnahmezeit hinweg erstellen.
 
  • Gefällt mir
Reaktionen: Taxxor, Gesualdo, Recharging und 2 andere
ZeroStrat schrieb:
Ich verstehe auch nicht, dass @Wolfgang nicht einfach die Daten von CX für eine Analyse nutzt. All die Features, die ungenutzt bleiben. @Volker nimmt stattdessen HWiNFO für die CPU Package Power in Games, obwohl CX das auch gleich mit aufnimmt. Es gibt eine klare MSR Schnittstellenbeschreibung für Energy Sensoren. Was soll HWiNFO da anders machen?
Sagt ja keiner, dass ich CX + Overlay + Logging nicht für weitere Messreihen immer mal wieder nutze, was ich in Deathloop auch gemacht habe :) Aber ich muss ja nicht alle Daten die ich habe auch unbedingt im Artikel verwerten.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: ZeroStrat
Wolfgang schrieb:
Aber ich muss ja nicht alle Daten die ich habe auch unbedingt im Artikel verwerten.
Für so eine stetig steigende VRAM Auslastungskurve hätten die Leute dir die Füße geküsst und du hättest das gleich zu den Entwicklern schicken oder bei Reddit (um die Entwickler so zu erreichen) veröffentlichen können. :cool_alt:
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: McFritte, B3nutzer, Recharging und 2 andere
TenDance schrieb:
Ist das jetzt schlecht programmiert oder war Nvidias Aussage ihre Highend Grafikkarten seien keine Speicherkrüppel im Angesicht bevorstehender Nextgen-Spiele Mal wieder Marketing-Nebelkerzen?

Einerlei, AMD sollte das Spiel in Gold rahmen, das ist von vorne bis hinten Werbung warum die 6800XT eine tolle Karte ist.
Moin,
Ich bin am feiern. :-) Kommentar des Tages, der Woche!

Gruß Fred.
 
o>.x=iofib>ss>* schrieb:
Ich bin am feiern. :-) Kommentar des Tages, der Woche!
Joar. :D Wird halt peinlich für AMD, wenn sie sich das auf Basis eines Bugs in Gold rahmen...
 
  • Gefällt mir
Reaktionen: Sly123, t3chn0, DeltaPee und 2 andere
Als ob das Game mit einer Radeon gut läuft. Es läuft im großen und ganzen überall extrem schlecht und man streitet sich, bei wem es schlechter läuft. Das Game sollte auf einer RTX 3060 mit 150FPS in WQHD laufen, so wie es aussieht :freak:
 
  • Gefällt mir
Reaktionen: B3nutzer, Neubauten, Capthowdy und 4 andere
Nur weil ein Spiel einen anderen Grafikstil hat als die eigene Vorstellung muss es nicht gleich schlecht sein.
z.B. Borderlands 3 grafikstil mag auch nicht jeder oder Valheim, im Gegenteil ich hab mal Valheim mit Grafikmods angespielt und bin wieder auf Vanilla zurück weil es mir so besser gefallen hat.
 
  • Gefällt mir
Reaktionen: Tiara G., Mcr-King und catch 22
ZeroStrat schrieb:
Für so eine stetig steigende VRAM Auslastungskurve hätten die Leute dir die Füße geküsst und du hättest das gleich zu den Entwicklern schicken oder bei Reddit veröffentlichen können. :cool_alt:
Man lernt ja bekanntlich nie aus. Wenn das in Zukunft dann nochmal auftritt (passiert von Zeit zu Zeit ja immer wieder mal), kann ich das ja mal mit in den Artikel packen.
 
  • Gefällt mir
Reaktionen: Mcr-King, Gesualdo und ZeroStrat
Danke für den Test :-)
Werde es mir wohl demnächst auch zulegen und bin echt gespannt, wie es auf meiner 1080Ti läuft: versuche meine 3440x1440 in Online-Spielen auf 100FPS zu optimieren, für Deathloop werde ich aber eher so die 60FPS anpeilen, was zumindest den Reviews auf Steam nach auch nicht immer errweicht werden kann...
 
  • Gefällt mir
Reaktionen: Mcr-King
Die FSR Implementierung ist auch verbuggt! Aussage vom Tester:
Also yep, can confirm the FSR in this game does absolutely nothing, yet you can still see some individuals praising it. (The 1080P image is upscaled with Photoshop's most basic Bicubic Shaper).

1631776399940.png

Source
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: timmey77, B3nutzer, Mcr-King und 4 andere
Zurück
Oben