• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

Test Deathloop im Test: VRAM ist nur durch mehr VRAM zu ersetzen

Matthias80 schrieb:
Hoffe NV jünger wachen mal auf und unterstützen auch mal AMD. So langsam müsste selbst denen die verarsche auf den Sack gehen.

Das NV-Lineup ist wirklich "chaotisch".
Eine 3070 mit 10GB, 3080 mit 12GB und 3080Ti mit 16GB hätte ich auch mehr verstanden.

Aber unhängig davon ist die Rohleistung trotzdem gut.
Verstehe dieses" NV vs AMD gelaber" nicht. Beide Hersteller haben gute Karten, halt mit unterschiedlichen Schwerpunkten.

Ich habe in meinem Zweitrechner ne RX570 mit 8GB. Habe ich bewusst wegen der 8GB gekauft.... nur da nützen die mir nichts, weil schlichtweg nun die Rohleistung fehlt....
Am Ende isses die Balance...

Bis auf die 3090, 3080Ti und die 6900XT sehe ich die aktuelle Generation auch noch nicht wirklich als die 4K-Gen an. Das fängt jetzt erst langsam an... die Masse spielt halt noch FHD und WQHD und da reichen die 8GB einer 3070 oder die 10GB der 3080 noch locker aus.

Und ich vermute, bis bei zukünftigen Titel die 8GB einer 3070 zu knapp werden, wird ähnlich wie bei der RX570 die Rohleistung einer 3070 einfach nicht mehr reichen.
 
  • Gefällt mir
Reaktionen: Sly123, Erzherzog und Tritom73
Wolfgang schrieb:
Stand jetzt ist das aber so. Es gibt kein Spiel, das mehr VRAM als Deathloop braucht. Und damit ist die Überschrift einfach kein Clickbait. Sondern ein Fakt. Ob Bug oder nicht ist da nebensächlich.
Wie du an den Kommentaren siehst, ist es eben nicht nebensächlich. Denn schon kommen die "Nvidia hat viel zu sehr am VRAM gegeizt" oder "Die dämlichen käufer müssen jetzt upgrade" Sprüche. Und das ist halt in dem Fall völlig unnötig, da einer der Entwickler auf Reddit bereits bestätigt hat, dass sie an einem Patch arbeiten.
Es im Test zu erwähnen, keine Frage. Aber als Überschrift? Gerade weil es ein Bug ist, völlig daneben aus meiner Sicht, da es das Flaming geradezu anfeuert (was ein Wortspiel).
 
  • Gefällt mir
Reaktionen: Schattenspender, Gesualdo, hahaqp und 8 andere
Wenn ein von der Grafik fast schon altbackenes Spiel den VRAM voll laufen lässt, weil irgendwo mittendrin ein paar hochauflösende Texturen eingewoben sind, dann wäre ich ja schon fast in Versuchung, eine Wette auf einen verbuggten carbage collector abzuschließen.
Zumindest wäre das denkbar, wenn das Problem nicht gleich von Anfang an, sondern erst nach einer Weile auftritt.
Aber für solch kühne Behauptungen stecke ich nicht tief genug drin.

Hoffen wir einfach mal, dass sich da noch einiges optimieren lässt. Konzeptionell sagt mir das Spiel durchaus zu, aber wenn es sogar mit aktuellster Hardware, die ich mir momentan sowieso nicht leisten kann, wenn es sie zu kaufen gäbe, unrund läuft, brauch ich das Ding gar nicht erst anfassen.
Vermutlich ein typischer Fall von zu frühem Release trotz technischer Mängel, dabei ist doch das Sommerferiengeschäft schon vorbei und bis Weihnachten noch genug Zeit.
 
  • Gefällt mir
Reaktionen: Alphanerd, Zwirbelkatz, Recharging und eine weitere Person
foo_1337 schrieb:
Wie du an den Kommentaren siehst, ist es eben nicht nebensächlich. Denn schon kommen die "Nvidia hat viel zu sehr am VRAM gegeizt" oder "Die dämlichen käufer müssen jetzt upgrade" Sprüche. Und das ist halt in dem Fall völlig unnötig, da einer der Entwickler auf Reddit bereits bestätigt hat, dass sie an einem Patch arbeiten.
Es im Test zu erwähnen, keine Frage. Aber als Überschrift? Gerade weil es ein Bug ist, völlig daneben aus meiner Sicht, da es das Flaming geradezu anfeuert (was ein Wortspiel).
Für die Kommentare sind wir aber nicht verantwortlich, die können wir nicht bestimmen.
Und nur weil man etwas in der Richtung befürchtet (ohne das es hier gerade auch nur halbwegs schlimm ist), einfach den wichtigsten und absolut ungewöhnlichen Fakt nicht in die Überschrift zu packen, wäre einfach grundsätzlich falsch. Dann dürfte man ja nie etwas in die Überschrift packen, wenn etwas ungewöhnlich wäre (Bugs in Cyberpunk, viele FPS in Doom und wer weiß was sonst noch).
 
  • Gefällt mir
Reaktionen: JackTheRippchen, Blaze1987, bad_sign und 9 andere
Vitali.Metzger schrieb:
Ich lehne mich mal aus den Fenster und sage das 16 GB bei den ersten richtigen Next-Gen Titeln schnell zum Standard werden.

Wenn ich mich aus den Fenster lehnen würde, dann würde ich sagen, dass mit DX12 Ultimate Sampler feedback Streaming der VRAM bedarf erstmal massiv gesenkt wird.
In Kombination mit einer zugleich erhöhten Detaildichte würde ich deshalb eine Stagnation oder gar vorerst einen Rückgang des Speicherverbrauchs erwarten.

Zumindest deutet sich das wenn ich mir die DX12 Ultimate Infos ansehe oder die Unreal Engine 5 Demo teste einfach an... Die next-gen Engines werden auf eine deutlich effizientere Speichernutzung getrimmt, soviel ist schonmal fakt. Wie das dann in der Praxis in absoluten Werten aussieht, muss sich dann natürlich zeigen.
Wann solche Games kommen ist auch offen.

Ich finde aber, ein Game, das technisch so altbacken aussieht, wie ein Deathloop, von technischen Problemen geplagt ist und VRAM zum Frühstück frisst, trotz mittelmäßiger Grafik, sollte man wohl nicht als Maßstab heranziehen. Deathloop fühlt sich mit der Engine eher an wie ein Fallout 4, wo man die alte Engine, die mit dem Content im Spiel total überfordert ist, nochmal ausschlachtet, weil das Budget für was neues nicht gereicht hat...


Ansonsten kann ich noch sagen - letztendlich ist es natürlich ein Armutszeugnis, dass 8-10 GB nicht wirklich reichen. Trotzdem gibt es ja immernoch diese ominösen Grafikeinstellungen von denen die arme Unterschicht gebrauch macht :lol:.
Ich habe z.B. mit meinen 8 GB VRAM in 1440p und "Sehr Hohen" Settings (Nicht Ultra) keinerlei Probleme mit dem VRAM.
Ich hab eben a) nicht das Bedürfnis, alles auf teufel komm raus mit Maxed Out Settings zu spielen, weil dann hätte ich mir was besseres geholt und b) spiel ich meiner Hardware angemessen in 1440p.

Wer natürlich jetzt denkt, mit nur 2 GB mehr VRAM gleich auf 4K gehen zu können, Ultra statt sehr hohe Settings nutzen zu können und noch on top zwei Raytracing Effekte in maximaler Qualität zuschalten zu können bei einem Game das eh schon viel VRAM frisst - ja der wird natürlich dann Probleme bekommen.


Auch wenn ich denke, dass VRAM bei next-gen Spielen aus eingangs erwähnten Gründen vielleicht bald kein so großes Problem mehr sein wird. In der aktuellen Übergangszeit ist der VRAM der 3080 einfach unterdimensioniert für die Ansprüche die sie erfüllen soll.


Noch was:
Hab jetzt nicht geschaut, obs schon erwähnt wurde. Das Spiel braucht zwingend ein FPS limit auf 30, 60 oder 120 FPS.
Alle anderen Framerates, insbesondere auch mit Gsync oder Freesync führen zu Microrucklern. Die Engine ist strikt auf ein Vielfaches von 30 FPS ausgelegt. Das Problem gab es schon mit Dishonored 2.
Meine Empfehlung daher ein FPS Limit mit RTSS einzustellen auf 60 oder eben 120 FPS (letzteres aber nur, wenn die 120 FPS konstant erreicht werden). Erst dann läufts richtig flüssig.
Der Ingame FPS limiter behebt das Microruckeln zwar auch schon ganz gut, aber ganz perfekt wirds erst mit RTSS.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: Recharging, RogueSix, Zwirbelkatz und 5 andere
Pisaro schrieb:
Weil die 10GB einer RTX 3080 nicht reichen? Da ist Deathloop aber nicht das erste Spiel. Objektiv betrachtet war es doch klar das 10GB auf einer RTX 3080 nicht gerade toll sind.

Ne weil es schlecht Programmiert ist, das Problem dass der RAM/VRAM nicht geleert wird (bufferoverflow, ist nicht neu und gibt es leider immer wider. Wird mit dem nächsten Patch gefixt.
Computerbase: Hat die Grafikkarte nur 10 GB, darf nach dem Laden des Spielstandes ansonsten keine Auflösung oder Grafikoption mehr umgestellt werden. Tut man dies doch, läuft sofort der Grafikkartenspeicher über und das Spiel verliert massiv FPS. Dann hilft es nur noch, Deathloop neu zu starten.

Doch auch ohne Umschalten sind 10 GB bei vollen Details inklusive Raytracing in UHD nicht optimal. Dann beginnt das Spiel zwar mit einer guten Framerate, sie wird mit der Zeit aber immer geringer. Die Problematik gibt es auch noch in WQHD, allerdings ist dort der Leistungsverlust deutlich geringer als in Ultra HD. Wird keine Option verändert, reichen 10 GB hier meist aus.

Vielleicht liegt es auch nur am Saubeschissenen DENUVO Kopierschutz, ähnliche Performance Probleme hatte damals Dishonored 2 (selber Entwickler) auch, bis die DEUNVO entfernt haben.
 
  • Gefällt mir
Reaktionen: Recharging und foo_1337
cookie_dent schrieb:
Hieß doch vor kurzem noch von einigen hier: "mehr wie 8GB VRAM braucht kein Mensch, niemals nicht" - und jetzt sind 10GB plötzlich unterste Grenze.
Ist doch immer so.
 
speedy55 schrieb:
Vermutlich steckt Denuvo dahinter.
Zumindest bei RE Village war es nicht Denuvo sondern Capcoms hauseigener Kopierschutz.
 
  • Gefällt mir
Reaktionen: RogueSix und Old White Man
Wie sieht es denn mit den CPUs aus? Hier es nicht mindestens ein 6kerner? Hätte hier auch gerne Ergebnisse zu gesehen.
 
  • Gefällt mir
Reaktionen: Captain Mumpitz
Schon zum Release der wirklich nicht sonderlich guten 3000er Karten war der geringe VRAM sofort als eines der großen Negativ-Punkte klar. Wie immer wurde das klein geredet und es kommen andauernd Beispiele, welche natürlich auch immer gravierender werden und zeigen das Gegenteil......da hilft es auch nicht, daß die Entwickler selbst ins Schwitzen kommen und irgendwelche Patches nachreichen, zu wenig ist zu wenig und alles andere ist drum herum gebastelt.

Die Ausgangssituation mit der Nvidia in die 3000er Generation gegangen ist und die Ausgangssituation mit der AMD in ihre 6000er Generation gegangen ist, konnten nicht viel unterschiedlicher sein und bei dem was beide abgeliefert haben, sollte und hat Nvidia auch einfach den Kopf einziehen und sich um die Entwicklung der nächsten Generation kümmern.......dank den Minern kann es ihnen sogar egal sein, aufgekauft wird ja trotzdem.

Deathloop benötigt aber darüber hinaus generell einiges an Patches/Verbesserungen, der Zustand des Spiels zum Release für so ein Studio ist grottenschlecht (wobei einiges wohl dem Kopierschutz zu verdanken ist).
 
Ich fange langsam an durchzuatmen, darueber dass keine GPUs kaufbar sind. Ich haette mir eine RTX 3080 gekauft fuer 1440p 100+FPS. Wenn ich jetzt schon sehe, dass es da Beeintraechtigungen gibt wegen 10 GB VRAM vs 12 GB...ich wuerde mich massiv aergern. Und das bei einem Titel der zumindest visuell nicht vermuten laesst, dass solch ein VRAM Buffer von noeten ist. Aber da zeigt sich, dass sich die Spieleentwickler nicht davon aufhalten lassen, dass der Grossteil der Spieler sich die Hardware nicht mehr leisten kann. Sei es fuer die Konsole oder PCs. Es gibt ja auch immer noch massig Leute die auf eine PS5 warten. Es gibt ja immer wieder die Hoffnung, dass Spieleentwickler sich zurueckhalten muessen, zugunsten der nicht verfuegbaren/bezahlbaren Hardware. Das scheint aber keine Rolle zu spielen. Zumindest noch nicht. Ich wuerde so dermassen lachen, wenn ein Next Gen Spiel rauskommt, was maximal 20% der Spielerschaft spielen koennen und es dann massive Refunds regnet, weil selbst PS4 Pro und XBOX One X einfach unspielbar sind, aehnlich wie mit Cyberpunk. Aber eben auch fuer 80% der PCs. Vielleicht sogar in dem Ausmass wo das Spiel spielbar ist wenn alle Details runtergeschraubt werden, aber es dann so unschoen ist, dass die Leute dann auch alle nach Refunds schreien. Vielleicht dann auch mit massivem Review Bombing, was dazu fuehrt dass die Entwickler Druck auf Hardware Entwickler ausueben und dann sogar spezifische Hardware Features rausstreichen aus den Spielen. Kleiner Tagtraum :D

Aber ich glaube mit diesem Test hat sich meine Entscheidung AMD vs nVidia fuer diese Generation erledigt. Fuer den unwahrscheinlichen Fall, dass ich noch eine GPU dieser Generation kaufen werden, wird es definitiv eine RX 6800XT, keine RTX 3080. Da verzichte ich halt eher wieder auf DLSS und Cuda. Dafuer kann ich meinem kleinen Bruder die RX 6800 XT weiterreichen ohne mich schaemen zu muessen ihm einen Speicherkrueppel fuer die Zukunft zu ueberreichen, wenn ich mir eine neue GPU kaufe. Es scheint sich ja immer mehr abzuzeichnen, dass auch 8 GB fuer 1080p obligatorisch werden koennten.
 
  • Gefällt mir
Reaktionen: Mu Wupp
@thepusher90

Es gibt viele Leute, die mit mittleren oder gar niedrigen Settings spielen und die auch mit irgendwas zwischen 30 und 60 FPS noch zufrieden sind.

Unterm Strich glaube ich, dass anspruchslose Leute mit schlechter Hardware besser mit solchen Hardwarefressern zurechtkommen und mehr spaß damit haben, als die Leute, die sich jedes Jahr die dickste Hardware gönnen und schon die Kriese bekommen, wenn mal ein frametime Spike auftritt.

Genau deswegen habe ich auch wenig "hoffnung", dass da ein Umdenken bei den Entwicklern stattfindet.

Hatte auch mal nen Kollegen, der sich für seine 750ti einen 4K Monitor zum zocken holen wollte, weil die karte eh schon alles auf Ultra - zitat: "flüssig" - packt...
 
  • Gefällt mir
Reaktionen: Moetown, Kettensäge CH und Tritom73
foo_1337 schrieb:
@Wolfgang Da das Ganze offensichtlich ein Bug ist, ist die Überschrift ziemlich clickbait, was man auch in einigen Kommentaren hier so sieht ;) Aber sei's drum, ein AMD vs Nvidia geflame ist ja auch mal wieder eine nette Abwechslung, wo es doch gestern nur um iOS vs Android ging :p

Davon abgesehen bringen im 4k RT Fall die 16GB der 6800XT wie schon geschrieben halt auch nicht so viel, da die Leistung der GPU halt nicht ausreichend für gute Framerates ist. Wenn der VRAM Bug behoben ist, steht die 3080 dann deutlich besser da. Wird dann die neue überschrift "AMDs Raytracing Performance wieder einmal nicht ausreichend?" oder gar "FSR hält bei Deathloop nicht was es verspricht"?
Hör doch einfach auf alles was schlecht für Nvidia ist anzugreifen, mittlerweile wissen alle hier das du Nvidia Fanboy durch und durch bist.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Moetown, Crankson, McFritte und 3 andere
Khalinor schrieb:
Wo ist das eine gute Implementierung von RT?
Ausschließlich Shadow-RT um die AMD-Karten und Konsolen nicht noch mehr zu benachteiligen.
Für mich ist das RT-Light.
________________________________________________________

Für alle die Ruckler haben, hatte im PCGH-Forum einen Tipp gelesen.

  • ingame auf 120fps begrenzen
  • ingame VSync ausschalten
  • im Grafiktreiber VSync anschalten

Kann ich selbst leider nicht bestätigen ob es funktioniert, da ich das Spiel (noch) nicht habe.

Edit:
grad noch mal den entsprechenden Beitrag herausgesucht:
https://extreme.pcgameshardware.de/...dishonored-macher.609786/page-3#post-10846972

Lasst dem Guten mal nen Daumen da :daumen:
SO habe ich es immer mit Gsync ;-) Daran lag es bei mir also nicht ;-)
 
Wolfgang schrieb:
Und nur weil man etwas in der Richtung befürchtet (ohne das es hier gerade auch nur halbwegs schlimm ist), einfach den wichtigsten und absolut ungewöhnlichen Fakt nicht in die Überschrift zu packen, wäre einfach grundsätzlich falsch. Dann dürfte man ja nie etwas in die Überschrift packen, wenn etwas ungewöhnlich wäre (Bugs in Cyberpunk, viele FPS in Doom und wer weiß was sonst noch).
Um es mal in der Jugendsprache zu sagen: "No Front" ;)
Natürlich seid ihr für die Kommentare nicht verantwortlich, aber es sollte doch klar sein, was daraus resultiert. Und natürlich ist es legitim, das in die Überschrift zu packen. Aber ein Hinweis darauf, dass es womöglich ein Bug ist, wäre halt nicht verkehrt. Leider fehlt dieser Hinweis im ganzen Artikel bzw. es ist lediglich das zu lesen: Hier sollten die Entwickler noch einmal ran.
Auch das hier finde ich eher fragwürdig:
Mit Raytracing liegen die GeForce-Beschleuniger dann wie gewohnt vorne, der Vorsprung ist aber nicht ungewöhnlich groß.
Findest du 31 bzw. 32% in der gleichen Klasse nicht groß? Oder ist das der gewöhnliche Abstand? Bei RE sind es z.B. 10%. Bei F1 2021 17%.
Ergänzung ()

Fighter1993 schrieb:
Hör doch einfach auf alles was schlecht für Nvidia ist anzugreifen, mitlerweile wissen alle hier das du Nvidia Fanboy durch und durch bist.
Magst du auch Argumente liefern oder nur auf persönlicher Ebene angreifen? Mittlerweile bereue ich es echt, dass ich dir damals den Deal zu deiner CPU empfohlen habe.
BTW: In sonst jedem Game, in dem AMD ungewöhnlich schlecht abschneidet, sagt Ihr AMD User doch sofort: "Schlecht optimiert!!" oder "Nvidia hat wieder bezahlt"
 
  • Gefällt mir
Reaktionen: Schattenspender, Sly123, Recharging und 6 andere
So scheiße wie das Game aussieht, kommt das aber unerwartet.

Aber man hat ja auch schon mit deren anderen Games nicht gerade top optimierte Games auf den Markt geschmissen...

Da aber auch die Reviews auf Steam eher unterirdisch sind, hat man wohl mal wieder Geld gespart.
 
  • Gefällt mir
Reaktionen: Blaze1987, Celinna und FLCL
Danke für den Test, ich bin sicher, CPU Tests folgen die Tage.

Das Spiel wurde auf einer 16GB Karte entwickelt, das ist das Problem. Wäre es auf einer 3070 entwickelt worden, würden wir heute nicht über VRAM reden und es würde auf jeder Karte laufen wie es soll.

Aus diesem Grunde wird es auch keine GameReadyTreiber geben.

Aber egal, ich habe mit 11GB genügend VRAM. Bisher hab ich noch alles zufriedenstellend zum Laufen gebracht. Und mein FPS Ziel ist 160, wird aber nicht immer erreicht.

Frage: Ich mach überwiegend Rennspiele, aber Tombraider und FarCry sind auch schön und schaffbar für mich. Aber dieses Spiel kommt mir schwer vor und vom Gameplay so schnell, also die Kämpfe. Kann ich es überhaupt schaffen?
 
wuschipuschi schrieb:
Freue mich sehr auf das Spiel und die Meta ist auch richtig gut. :) Dann kann ja 4Players wieder eine 50 reinhauen , um sich von der Masse abzuheben. :D

Aber toll das ich es in FullHD mit meiner RTX2070 Super gut spielen kann. 🥳
Hä?
4Players hat ne 82 gegeben, was soll der Quatsch?
 
Zurück
Oben