• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

Test Deathloop im Test: VRAM ist nur durch mehr VRAM zu ersetzen

DarkerThanBlack schrieb:
An der Überschrift ist ja auch nichts falsches.
VRAM lässt sich eben nur durch mehr VRAM ersetzen und früher oder später werden wir alle die 8GB-Karten beerdigen müssen, wenn man auf MAX-Quality zocken möchte. Die Fälle häufen sich jetzt schon mit Problemen und ich
Doch, denn das Thema ist DEATHLOOP und nicht VRAM in der Spielewelt allgemein (wie du das ständig umdeutest). 😉

Die Ableitung ist ja folgende: 8/10 GB reichen bei höchsten Auflösungen nicht (mehr), daher muss man entweder zu AMD oder der 3090 greifen, es wird ein Titel gewählt, der dies umreißt.

Stellt sich heraus, ALLE Karten haben mit dem Spiel ab einem gewissen Zeitpunkt ein Problem, weil die Software verbuggt ist. Der Titel wird nun als allgemeingültige Aussage in die Spielwelt umgedeutet. No na, mein 386er reicht auch nicht mehr dafür ... 24 GB reichen aber auch nicht mehr ... also, was nehmen?

Das passt einfach nicht zusammen.
Alternativvorschläge kamen schon einige, wie es treffender hätte bezeichnet werden können.
Nachdem wir hier aber nur Leser und keine Redakteure sind, ist's die Sache von CB das so stehen zu lassen. Verstehen kann ich es nicht.

Und mir ist völlig klar, dass solche Tests viel Arbeit sind und wir das sogar kostenlos bekommen.
Mir geht's darum, hier konstruktive Kritik zu üben, keinen rechthaberischen Feldzug, falls Zweifel aufgekommen wären.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: cmi777, BorstiNumberOne, DaHell63 und eine weitere Person
@Recharging Nein. Die Überschrift ist schon treffend, weil Deathloop nicht das einzige Spiel ist, welches Probleme mit zuwenig VRAM macht, auch wenn du hier gerne das ganze Problem nur auf ein Spiel projizieren möchtest. Einfach mal die Tests der letzten Spiele lesen. Dann kommt man schnell zur richtigen Schlussfolgerung.

Das Grundproblem bleibt weiterhin bestehen und das nächste Spiel wird sicherlich auch nicht gerade über wenig VRAM glücklich sein. Dazu muss man kein Hellseher mehr sein. 😉
 
@DarkerThanBlack
Sorry, mit dir zu diskutieren, ist echt mühselig.
Es ist ein Artikel zum Spiel Deathloop, das durch Bugs einen Memory Leak hat.

Und du machst es dir jetzt zur Aufgabe, per Induktion, vom Besonderen auf das Allgemeine zu schließen, weil der Titel bar der Erkenntnisse, die nun des Öfteren schon gefallen sind, hier eine Hardwareunzulänglichkeit herbeizufabulieren. Damit bestätigst du ja das, was ich kritisiere: der Titel ist unpassend und missverständlich.

Der Verbrauch ist durch einen Fehler höher, als er sein soll, der Speicher wird nicht ordentlich geleert.
16 GB VRAM sind besser als 8/10/12 GB VRAM, helfen aber auch nur bedingt, ab einer gewissen Zeit läuft auch dieser voll.

Wenn du das jetzt immer noch nicht verstanden hast, dann bitte setze deine Wissensreise ohne mich fort.🕵️‍♂️
 
  • Gefällt mir
Reaktionen: bluna, cmi777, DaHell63 und 2 andere
@B3nutzer
Das ist ein toller Beitrag und ich gebe dir auch generell recht.
nur wie du selber schreibst, wären entsprechende Analysen sehr Zeitaufwendig (FCAT ist der reinste Krampf zum Beispiel). Auch wenn das für einen bestmöglichen Artikel nicht optimal ist, muss ich da leider sagen, dass sich das nicht lohnt. Spiele und hardware zu testen wird von Jahr zu Jahr aufwendiger (es ist verrückt, wie viel mehr Testaufwand in den letztem 3 Jahren hinzugekommen sind), die Zeit ist aber leider nicht mehr geworden.

Hinzu kommt, dass es bei den meisten Spielen eben keine Probleme gibt und dort die gemessenen Frametimes gut zu dem passen, was auf dem Bildschirm ankommt. Da lohnt es sich dann nicht alle Spiele aufwendig zu messen, wo bei 95 Prozent dieselben Ergebnisse auch mit einer simplen Frametime-Messung herausgekommen wäre. Das ist einfach mit unseren Ressourcen nicht effizient umzusetzen bzw. diese investiert man lieber in etwas anderem.

Weniger Benchmarks sind in dem Fall auch nicht die Lösung. Denn diese kosten schlicht deutlich weniger Zeit als zum Beispiel die Analysen der Bildqualität oder wenn zum Beispiel FCAT zum Einsatz kommen würde. Da müsste man gleich viel weniger Benchmarks machen, das fände auch keiner mehr schön dann.
 
  • Gefällt mir
Reaktionen: Vitche, Recharging, ZeroStrat und 2 andere
Dominion schrieb:
Na dann vielen Dank an Nvidia für völlig unterbestückte Grafikkarten zu (selbst zur UVP) völlig überzogenen Preisen!

Aber natürlich kaufen wir für 700€+ bis 1.300€+ (3080 / 3080TI) Grafikkarten, die bereits zum Kaufzeitpunkt unzureichend oder bald unzureichend sind!
Genau deswegen habe ich mir nur ne 3070 zum UVP gekauft, wobei ich mir schon dumm genug vorkam. Ich wusste dass es so ist mit dem VRAM, und eine 3080 oder 3080 Ti wären absolut hirnlos gewesen, gerade bei den Preisen.
Leider gibts von Nvidia nun nur noch die 3090, welche genug VRAM hat, da Nvidia meinte die 3080 Ti ist mit 12 GB gut genug (aber den Preis dreist massiv erhöhen)... Ich hatte tatsächlich vor mir ne 20 GB Version zu kaufen.

Schon Turing hatte viel zu wenig VRAM, weswegen ich mir keine davon gekauft habe, aber so viel für ne 3090 werde ich sicher nicht ausgeben.
Ich weiß noch wie jeder vor Jahren über zu viel VRAM gemeckert hat. Und nun sagen die meisten sogar 8 GB reichen noch für Jahre (selbst "Spezialisten" wie Gamers Nexus oder Linus). Kein Wunder dass Nvidia nur so wenig drauf packt, wenn solche Grifter sie dabei decken.
 
Wolfgang schrieb:
Das ist ein toller Beitrag und ich gebe dir auch generell recht.
nur wie du selber schreibst, wären entsprechende Analysen sehr Zeitaufwendig (FCAT ist der reinste Krampf zum Beispiel). Auch wenn das für einen bestmöglichen Artikel nicht optimal ist, muss ich da leider sagen, dass sich das nicht lohnt. Spiele und hardware zu testen wird von Jahr zu Jahr aufwendiger (es ist verrückt, wie viel mehr Testaufwand in den letztem 3 Jahren hinzugekommen sind), die Zeit ist aber leider nicht mehr geworden.
Ich finde nicht, dass das nicht optimal ist. FCAT greift ja ganz am Ende der Renderpipeline. Da funken zig Buffer dazwischen bis zum dem Punkt. Wenn man wissen will, welches Verhalten die CPU dabei hat, ist das eher hinderlich.

Für Hardwaretests ist ein Ansatz über FCAT eher eine Verschleierung von Informationen. Was man aber machen könnte, wäre die Frametimes vom RTSS als Alternative auszugeben. Die kommen der Bildschirmausgabe deutlich näher als die PresentMon Werte. Aber warum sollte man das tun, wenn man Ende die Hardware hinsichtlich der Leistung in einem Balkendiagramm miteinander vergleichen will?

Das wäre allenfalls ein Sondertest, der nur wieder am Zeitbudget nagt.

@B3nutzer CX hat übrigens eine VRR Detection, die aber nur zusammen mit Nvidia Karten funktioniert. Und man braucht einen G-Sync/FreeSync fähigen Monitor.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: Recharging
Eigentlich wollte ich mich in dem Thread nicht mehr äußern, aber es juckt dann halt doch in den Fingern..

DarkerThanBlack schrieb:
Aber das wird dann wohl doch etwas zu kompliziert...
Für dich? Hast du auch gelesen, was da steht? Vorab: Die hier genannte 3060ti und auch die 3070 sind keine UHD Karten.

Wenn die Grafikkarte nur 8 GB hat, ist „Ultra Albtraum“ in Ultra HD nicht auswählbar, bis inklusive WQHD lassen sich die höchsten Details jedoch nutzen.(...)
Wie Benchmarks weiter unten zeigen werden, hat dies aber einen massiven negativen Einfluss auf die Performance.
erst der Texturpool auf „Ultra“ läuft auf einer 8-GB-Grafikkarte ordentlich – allerdings nur bis inklusive WQHD.(...)
Fairerweise muss angemerkt haben, dass „Ultra Albtraum“ und „Albtraum“ keine erkennbaren Vorteile bei der Texturqualität in Doom Eternal haben

So, dann schauen wir uns jetzt mal die 0.2pct Benchmarks in RT auf WQHD an:
1631961776714.png

Und in UHD:
1631961807093.png


Ich habe also mit einer 3060ti, die mehrere Klassen unter der 6800XT liegt, in WQHD eine fast identische Performance bei subjektiv gleicher Bildqualität. Und selbst in UHD liegt die 3060ti fast gleich auf. Dazu kommt noch, dass ich mit der 3060ti auch in UHD locker über 60fps komme, wenn ich DLSS aktiviere.
Welchen Vorteil habe ich nun genau in diesem Game mit den 16GB der 6800XT?

Ich würde niemandem empfehlen die 3070 zu Scalper Preisen zu kaufen (naja, eigentlich keine Karte). Aber für die 499, die ich bezahlt habe, ist das eine Top Karte. Mittlerweile hat sie auch schon knapp ein Jahr auf dem Buckel. Und so wie die Spielewelt aktuell aussieht (z.B. UE5) wird sie auch noch locker 2 Jahre bleiben können. Fazit für mich: Alles richtig gemacht ;)
Abgesehen davon kommt ja irgendwann (wann eigentlich, es hieß doch 2021) noch RTX IO bzw. Direct Storage.
Wie ich hier in #10 schon gesagt habe: Bei Grün hast du den Pferdefuß X (VRAM), bei Rot den Pferdefuß Y (Raytracing). Wer auf absolute Sicherheit setzen will, muss zu einer 3090 greifen. Da gibt es, bis auf den Preis vielleicht, keine Haken. Bis dann die 4090 kommt ;)
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: cmi777, Leon_FR, Laphonso und 6 andere
Einfallslos2021 schrieb:
zu meiner Verwunderung ist es sogar mit einer RX570 mit nur 4GB VRAM spielbar, gepaart mit einem 6 Jahre alten i5, liegt auf einer SSD, hat 16GB RAM
Das ist so hard krass und einer der schönsten und zugleich aufschlussreichsten Posts im Thread.

In seiner Hardware liegen Graka und CPU unterhalb der Mindestanforderung und es läuft.

In welcher Auflösung hast du es gespielt.

Mich würde interessieren wie die VRAM Größenverteilung im Forum ist. Also wieviel User haben noch 2, 4, oder 6GB Karten usw.
Mag jemand eine Umfrage starten?

Desweiteren würde mich interessieren, wie läuft es auf einer GTX970?
 
  • Gefällt mir
Reaktionen: Recharging
DarkerThanBlack schrieb:
Wer jetzt High-End braucht, der sollte mindestens 12-16 GB Speicher beachten. Wer aus Spargründen zu 8GB greift, der spart vermutlich an der falschen Stelle und kauft am Ende nach...
Wer eine 8 GB Karte gekauft hat zählt sich wahrschlich auch nicht zu den Highendgrafikkarten Nutzern.
 
  • Gefällt mir
Reaktionen: foo_1337
Cohen schrieb:
Weil du vielleicht irgendwann eine experimentelle 64Bit.exe (Mod?) reinkopiert hast?

Normalerweile ist dort nur eine Fallout3.exe (plus Launcher-EXE und ggf. EXE-Dateien vom Creation-Kit der GOTY-Edition.

Und die Fallout3.exe sowohl meiner DVD-Version (links) als auch meiner Steam-Version (rechts) sind 32bit-Programme. Klar erkennbar im Editor an der Zeichenfolge "PE L"; 64-bit-Programme haben stattdessen die Zeichenfolge "PE d†":

Anhang anzeigen 1123904
vielleicht hast du auch einfach nur die 32bit version installiert? XD
 
DaHell63 schrieb:
Wer eine 8 GB Karte gekauft hat zählt sich wahrschlich auch nicht zu den Highendgrafikkarten Nutzern.
Knapp 900 Euro für eine RTX3070 bzw. über 1000 Euro für eine 3070ti ist also nicht als ambitioniert zu betrachten? 🤔

Ich erinnere mich doch recht vage daran, als man damals 8GB als völlig außreichend betrachtete und jedweder Kritik für die Zukunft als neidvolles Fanboy-Argument der Konkurrenz betitelte.
Nun sind wir in der Zukunft von Damals gelandet und nun sind 8GB plötzlich nicht mehr als High-End zu betrachten, was natürlich völlig richtig ist.

Aber trotztdem wird das Argument, man solle doch bitte 12-16GB kaufen, wenn man schon High-End haben möchte auch wieder als reine Lageraussage betrachtet? Irgendwie dreht man sich im Kreis... 😌
 
DarkerThanBlack schrieb:
Knapp 900 Euro für eine RTX3070 bzw. über 1000 Euro für eine 3070ti ist also nicht als ambitioniert zu betrachten? 🤔

Wer jetzt kaufen muß....das warten auf die Frühjahrspreissenkung hat sich wohl als Trugschluß herausgestellt.
Nicht immer ist Geiz geil.
Ich seh meine ASUS TUF RTX 3070 (639€) jedenfalls nicht als Highendkarte...genausowenig wie meine RX 6800.
Und mit beiden Karten bin ich in 1440p aüsserst zufrieden. Wer mehr will, muß eben höher ins Regal greifen.
 
  • Gefällt mir
Reaktionen: BorstiNumberOne und foo_1337
DarkerThanBlack schrieb:
Nun sind wir in der Zukunft von Damals gelandet und nun sind 8GB plötzlich nicht mehr als High-End zu betrachten, was natürlich völlig richtig ist.
Würde das jetzt nicht unbedingt an dem einen, nicht optimierten Game hier festmachen. Im hier und jetzt und in naher Zukunft werden selbst unter WQHD noch 8GB VRam vollkommen reichen und wenn man nicht alle Regler stur auf Ultra stellt, dann wohl noch eine ganze weitere Zeitlang.
 
@Iguana Gaming Ist dies bei 4GB-Karten auch so der Fall? Prognosen sind immer so eine Sache. Die können ganz schnell at acta gelegt werden.

Einst waren 4 GB das Maß aller Dinge. Heute werden sie belächelt.
8GB wurden beim Erscheinen ebenfalls belächelt weil man dachte, dies sei absolut unnütz.
Heute werden 8GB zu einem Problem und Morgen?

Nun, wir werden bei 8GB nicht plötzlich stillstehen weil manche es so möchten. Soviel steht jedenfalls fest. 😊
 
  • Gefällt mir
Reaktionen: Verak Drezzt
Tiara G. schrieb:
Das ist so hard krass und einer der schönsten und zugleich aufschlussreichsten Posts im Thread.

In seiner Hardware liegen Graka und CPU unterhalb der Mindestanforderung und es läuft.

In welcher Auflösung hast du es gespielt.

Mich würde interessieren wie die VRAM Größenverteilung im Forum ist. Also wieviel User haben noch 2, 4, oder 6GB Karten usw.
Mag jemand eine Umfrage starten?

Desweiteren würde mich interessieren, wie läuft es auf einer GTX970?
sry, für die meisten Enthusiasten hier wahrscheinlich altbackenes FullHD auf ner 60Hz Möhre ausgegeben
Ergänzung ()

DarkerThanBlack schrieb:
@Iguana Gaming Ist dies bei 4GB-Karten auch so der Fall? Prognosen sind immer so eine Sache. Die können ganz schnell at acta gelegt werden.

Einst waren 4 GB das Maß aller Dinge. Heute werden sie belächelt.
8GB wurden beim Erscheinen ebenfalls belächelt weil man dachte, dies sei absolut unnütz.
Heute werden 8GB zu einem Problem und Morgen?

Nun, wir werden bei 8GB nicht plötzlich stillstehen weil manche es so möchten. Soviel steht jedenfalls fest. 😊
Komm drauf an.

Wenn Arkane a like Standard wird, 21 von 29,9 möglichen GB gamefiles in den VRAM zu legen wirds blöd
 
Ich habe gerade ne Invaderin getötet, den Loot aufgesammelt... und Lead Boss gekillt und gelootet... dann schieße ich mit der Schrotflinte gegen Feuerwerkskörper :freak:

Void-Engine Error.

Passiert euch auch sowas?
Dass das Game mit Void-Engine Error sich verabschiedet? Ganzer Level Progress und der feine Loot ist weg :(
 
DarkerThanBlack schrieb:
...
Es wurde schon vor Monaten mit Godfall von den Entwicklern kommuniziert, dass man 12GB als benötigt ansieht für die neue Generation an Spielen mit 4K-Texturen.
Wer sich nun Hardware mit 8GB oder 10GB kauft, der muss eben damit rechnen,...

Schon längst revidiert.
Jetzt gehen wohl langsam die Beispiele aus... 😅
Du könntest doch mal Doom erwähnen. Wurde hier noch nie erwähnt.
Ach doch... Du hast es mal wieder rausgekramt.
Sogar mit Beweislink. 👏
Du bist irgendwie der Vram Priester in diesem Thread.😅
Ich glaube du bist der einzige der mit 8GB Vram große Probleme hat und 3060Ti/3070 Besitzer zocken zufrieden, je nach Spiel, mit 1440-2160p...
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: cmi777, ThreepQuest64, Klever und 5 andere
Die VRAM Thematik liest sich richtig gruselig und schreit nach schlechter Optimierung in dieser Hinsicht. So sollte sich ein Spiel nicht verhalten, vor allem sehe ich jetzt auch optisch nichts, was mich dazu bewegen würde, dieses Verhalten als gerade noch akzeptabel durchgehen zu lassen.

Hier muss Arkane dringend nachbessern. Da werde ich wohl noch etwas warten, bis das und auch weitere technische Probleme behoben worden sind.
 
  • Gefällt mir
Reaktionen: elwu, Klever, Recharging und eine weitere Person
Kann echt nicht wahr sein, mit dem ver*** Denuvo!
Ein Freund hat jetzt ein paar Runden gespielt und der PC ist mehrfach im Spiel gefreezt.
Jetzt meldet sich der saudumme Kopierschutz und verhindert den Spielstart.
Jetzt darf er bis morgen warten, ehe der *** Kopierschutz wieder eine Freigabe erteilt.
 
  • Gefällt mir
Reaktionen: Mracpad
Zurück
Oben