• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

Test Deathloop im Test: VRAM ist nur durch mehr VRAM zu ersetzen

also Standbilder hatte ich in der Session eben auch zwei, dachte gleich kommt die Absturzmeldung aber nix, ging dann weiter.
keine LED vom Laufwerk in der Zeit, also daran lag es nicht
aber hey, auf dem alten System in FullHD 59 gelockt, maximal auf 45 droppe ich mal, ich finde hier wird schon viel auf hohem Niveau gemeckert, lange nicht so unspielbar wie ein Fallobst 76 oder Ähnliches zu release.
Ergänzung ()

falls jemand das Spiel mal für schmale 22,90 ausprobieren möchte:

https://www.mydealz.de/deals/deathloop-pc-asus-ai-noise-canceling-mic-adapter-1859062
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Flomek
Einfallslos2021 schrieb:
Fallobst 76 oder Ähnliches zu release.
Das wollen wir aber nicht als Messlatte nehmen, oder? ;)

Die Entwickler dürfen uns/ihre Kunden nicht so heran erziehen, dass solche technischen Umsetzungen kritikfrei bleiben oder als Kleinigkeit abgetan werden.

So wie man seine Kunden erziehen kann, geht das auch andersherum. Nur muss es für letzteres ein Kollektiv geben und eine Plattform, auf der meinen seinen Unmut laut machen kann. Foren und Reviews und News-Seiten (die das dann aufgreifen) sind dafür hervorragend geeignet.

Ansonsten gönne ich natürlich jedem, der ein Spiel problemlos spielen kann. Gar keine Frage. Aber der hat ja auch nichts zu verlieren, der hat ja schon seinen Spaß. Aber viele andere eben nicht.
 
  • Gefällt mir
Reaktionen: Klever und Recharging
Ich wollte es gerade auf der RX 6800 XT testen, aber dann das hier.


Hat jemand eine Idee, woran das liegen könnte?
 
  • Gefällt mir
Reaktionen: Recharging
Das Spiel ist schlecht optimiert, mehr nicht. Das 3 Jahre alte Horizon Zero Dawn oder halt Cyberpunk 2077 und AC Valhalla sehen um Welten besser aus und kommen prächtig mit 8GB aus. Dieses Spiel ist sicherlich kein überzeugendes Argument für 16 GB Grafikspeicher.
 
  • Gefällt mir
Reaktionen: elwu, Leon_FR, Klever und 2 andere
@ThreepQuest64

wir werden da nix dran ändern, die Welt ist leider voll von blind preorder

grob muss man doch entscheiden nach eingehaltenen release Terminen und (zig) Verschiebungen

die einen sind so Faxen wie das game hier, die anderen sind die die wissen dass sie es drauf haben und abliefern

leider sind halt auch die Zeiten vorbei wo man sagen konnte, äh, wollte...ok, verschieben sie es eben, dafür knallt es zu release dann auch rein, das hier wurde zweimal verschoben, mit bekanntem Erfolg....
 
  • Gefällt mir
Reaktionen: Recharging
Immerhin war die 3090FE die bessere Wahl XD. Testen konnte ich es noch nicht, da ich das Spiel nicht habe.
Einfallslos2021 schrieb:
Das ist mal cool danke. Vielleicht kaufe ich das Spiel so.

ZeroStrat schrieb:
Ich wollte es gerade auf der RX 6800 XT testen, aber dann das hier.


Hat jemand eine Idee, woran das liegen könnte?
Mein Bildschirm geht z.b. aus wenn HDR ein und ausgeschaltet wird. Oder wenn Free Sync bzw. G-Sync ein und aus geschaltet wird. Kann ja auch sein, das das Programm eines davon einschalten will, es aber nicht geht und es immer wieder probiert...
Ansonsten ist die Karte übertaktet? Zu heiß? Wackelkontakt am Display Stecker?
 
  • Gefällt mir
Reaktionen: ZeroStrat
Sly123 schrieb:
Ach doch... Du hast es mal wieder rausgekramt.
Sogar mit Beweislink. 👏
Heutzutage taugen Beweise eben nicht mehr dazu um Leute aufzuklären. Man muss nur zur richtigen Gruppe gehören und schon glauben es die Leute ohne zu hinterfragen und klatschen frenetischen Beifall auch ohne Beweise gesehen zu haben. Wie zu einem Fussballverein. 😁

Sorry, aber ich gehöre nicht zu einer Gruppe. Ich sehe mir die Sache an und urteile aus der Beweislage heraus. Nennt sich Objektivität, falls dies ein geläufiger Begriff ist.

Objektiv und ganz nüchtern betrachtet sind 8 GB Heute nicht mehr zu empfehlen und 10GB äußerst grenzwertig bis mangelhaft. Erst ab 12GB wird es annehmbar und ab 16GB hat man kein Sorgen mehr.
Quelle: Dieser Test hier!

Aber das sieht vermutlich jeder anders...🤔
 
Zuletzt bearbeitet:
Ich habe am unteren und rechten Rand ein flickern, als wenn es als Fenster dargestellt wird und ein schmaler Streifen (ca. 1mm breit) nicht mitgerendert wird. Ist auch egal ob ich Vollbild oder randloses Vollbild wähle. Noch jemand das Problem?

Mikroruckler habe ich bei mir bisher gar nicht, es sei denn ich nutze nicht FidelityFX, dann ruckelt es ganz schön fies.
 
DarkerThanBlack schrieb:
Sorry, aber ich gehöre nicht zu einer Gruppe. Ich sehe mir die Sache an und urteile aus der Beweislage heraus. Nennt sich Objektivität, falls dies ein geläufiger Begriff ist.
[...]
Objektiv und ganz nüchtern betrachtet...
Quelle: Dieser Test hier!
[...]

Dein Gruppenvorwurf und deine Verneinung der Zugehörigkeit jener, klingt nicht sehr überzeugend.
Du bestehst so stur auf deine Überzeugung ohne den miesen technischen Stand vom Spiel berücksichtigen.
Nenn doch mal technisch ordentliche Spiele die in realen Bedingungen Probleme machen und der Bedarf auch berechtigt ist...
Damit meine ich nicht Albtraum-Doom.
Ich bin mir sicher, dass man nicht einmal die ganze Hand braucht, neben den etlichen Spielen, die der Leistung der Gpu entsprechend, ohne Probleme laufen.
 
Optimierung hin oder her ...bin ich der einzige der das Spiel komplett Konfus findet? Das ist alles so Wirr das mir beim spielen teilweise schlecht wird weil immer neue Nachrichten und Erkundungen auftauchen wo ich nicht mehr weiß worum es da eigentlich ging.....das ist alles so überladen meiner Meinung nach..ein gutes Spiel mit viel schlechten Design
 
  • Gefällt mir
Reaktionen: elwu
DarkerThanBlack schrieb:
Objektiv und ganz nüchtern betrachtet sind 8 GB Heute nicht mehr zu empfehlen und 10GB äußerst grenzwertig bis mangelhaft. Erst ab 12GB wird es annehmbar und ab 16GB hat man kein Sorgen mehr.
Quelle: Dieser Test hier!
Dass Empfehlungen an Anforderungen und Budget geknüpft sind, ist wohl egal? Und ich raff nicht, wieso du dich immer noch so sehr auf den Test hier stützt, obwohl er quasi das Thema verfehlt.
 
  • Gefällt mir
Reaktionen: McFritte und foo_1337
Dominion schrieb:
Na dann vielen Dank an Nvidia für völlig unterbestückte Grafikkarten zu (selbst zur UVP) völlig überzogenen Preisen!
Keiner hat wen gezwungen diese VRAM Krüppel zu kaufen. Es war durchaus klar, wer in Zukunft hoch schrauben will bei Games muss Karten haben die das zur Verfügung stellen. Mit einer ich kann nicht mehr leben wenn ich die Karte XY nicht habe Manier, und wer mit aller Gewalt kauft ist selber schuld. Wer nach einer 1080/2080TI mit 11GB eine 3080 mit 8GB kauft und das waren viele, ja denen ist nicht zu helfen.

Abseits davon wenn ich das schon wieder alles lese ist für mich wieder mal klar nie mehr ein Spiel kaufen bei Release.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: DarkerThanBlack und Max007
|SoulReaver| schrieb:
... Wer nach einer 1080/2080TI mit 11GB eine 3080 mit 8GB kauft und das waren viele, ja denen ist nicht zu helfen.
Finde den Fehler.😅

Ich sehe schon die ganzen 3080 8G Besitzer heulend vor dem PC weil Deadloop den Speicher durch ein Leck vollschreibt...
 
  • Gefällt mir
Reaktionen: McFritte und pietcux
|SoulReaver| schrieb:
Wer nach einer 1080/2080TI mit 11GB eine 3080 mit 8GB kauft und das waren viele, ja denen ist nicht zu helfen.
Wenn dann ne 3080 mit 10GB. Aber es werden wahrscheinlich auch die dann sein, die sich im Frühjahr nächsten Jahres dann au ne Refresh 3080/3070Super mit 16 bzw. 12GB zulegen und das dann noch abfeiern werden. Hätte mich schon als Turing Besitzer der non Super Karten verarscht vorkommen sollen, das Nvidia immer die Leistung der vorherigen Generation auf die aktuelle umgemünzt hatte.

Sprich die Leistung eines x80(Ti!) Modells kam dann als x70 und das x70 als x60 Modells der folgenden Generation raus. Dem war aber nicht mehr so bei Turing und erst bei den Superkarten stimmte dahingehend, wie die Generationen zuvor, das Leistungsplus.

Hoffe ihr versteht was ich meine und das selbe Spiel machen sie nun bei Ampere wohl wieder, in dem sie von x70-80 Speicherkrüppel Modelle releasen, in Hoffnung das sich genau diese Leutz dann auch die besseren Super Modelle, mit mehr Speicher, holen werden.

Genau diese verkorkste Firmenpolitik fahren sie aber nun schon seit der Speicherkrüppel verarsche mit der GTX970. Vom intensiven anheben der GPU UVP Preise seit Turing, gar nicht erst zu reden. Bei mir wird noch eine ganze Zeitlang keine Nvidia in mein System seinen Weg finden.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: |SoulReaver|

|SoulReaver| schrieb:
Wer nach einer 1080/2080TI mit 11GB eine 3080 mit 8GB kauft und das waren viele, ja denen ist nicht zu helfen.
Jaja, großer Kofferraum ist immer besser, Wenn man dann mal dagegenhält, daß sich unter der Haube ja auch was getan hat, kommt dann gebetsmühlenartig....Koooffferrauuuum.
Bei der RTX 2080Ti kann ich es ja noch verstehen...es wird wohl keiner von der RTX 2080TI auf eine RTX 3070 gewechselt sein. Aber eine GTX 1080TI? Nicht nur das neue Features fehlen. Die Karte hat auch so keinen Auftrag mehr. 11GB VRam hin oder her. Ich bin von der GTX 1080TI/RTX 2070 super auf die RTX 3070/RX 6800 gewechselt.
alt vs neu Bench.jpg


Sicher, es sind ja nur Benchmarks.....aber wenns nur so wäre. In Spielen schauts nicht besser aus. Im Gegenteil.
Schon die RTX 2070 super macht die GTX 1080TI des öfteren gehörig nass.
alt vs neu Spiele.jpg


Edit:
Falls Du wirklich eine RTX 3080 gemeint hast, kannst Du Dir ja ausrechnen wo eine GTX 1080TI da stehen würde....trotz des großen (nutzlosen) Kofferraum.
Ihr braucht euch also keine Sorgen um die 8GB VRam Krüppelbesitzer machen. Die fühlen sich mit ihren Karten pudelwohl....
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Recharging und Sly123
ThreepQuest64 schrieb:
Die VRAM Thematik liest sich richtig gruselig und schreit nach schlechter Optimierung in dieser Hinsicht. So sollte sich ein Spiel nicht verhalten, vor allem sehe ich jetzt auch optisch nichts, was mich dazu bewegen würde, dieses Verhalten als gerade noch akzeptabel durchgehen zu lassen.

Hier muss Arkane dringend nachbessern. Da werde ich wohl noch etwas warten, bis das und auch weitere technische Probleme behoben worden sind.

Das hat nix mit Optimierung zu tun, der Arkane CEO hält ein größeres Aktienpaket eines bekannten VRAM Herstellers, das ist alles. Sinnfreier "RAM reicht nicht" Panikmodus, der von anderen Schwächen ablenken soll.
 
DaHell63 schrieb:
...
Ihr braucht euch also keine Sorgen um die 8GB VRam Krüpelbesitzer machen. Die fühlen sich mit ihren Karten pudelwohl....

Immer diese fürsorglichen "Speicherkrüppel-Verächter". 😅

Ich bin sogar langsam der Meinung dass 8 GB noch länger als vorgesehen reichen werden.
Die neuen Konsolen nutzen ca. 9 GB VRAM, so dass es für die Entwickler kein großer Aufwand ist den Konsum ggf. auf 8GB auszurichten.
Zudem ist die Zahl der verkauften Next-Gen-Konsolen vergleichsweise winzig.
Dazu kommen noch extrem viele Besitzer von 8GB GPUs (nVidia und(!) AMD).
Nicht das ich fehlende Weiterentwicklung befürworte aber es sind aktuell einfach Fakten.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Depi, McFritte, DaHell63 und eine weitere Person
Sly123 schrieb:
Immer diese fürsorglichen "Speicherkrüppel-Verächter". 😅
Ich hätte ja noch ein paar RT Spiele posten können...zählt für für max Einstellungen. Aber davon wollen sie dann nichts wissen :evillol:.
 
  • Gefällt mir
Reaktionen: Sly123
DaHell63 schrieb:
Ihr braucht euch also keine Sorgen um die 8GB VRam Krüppelbesitzer machen. Die fühlen sich mit ihren Karten pudelwohl....
Im hier und jetzt vielleicht noch. Mal schauen wie es in 2-3 Jahren aussieht, wo die 12GB der 6700XT um einiges mehr an FPS ausmachen wird. Genauso wie schon zuvor mit den AMD Fury oder der 900er Maxwell Karten mit nur 4GB. Oder auch zuletzt den Pascal und Turing Karten mit nur 6GB Vram.

Weshalb man sich ja auch schon über AMD aufgeregt hatte das sie die 5600XT mit nur 6GB rausgebracht haben. Obwohl es die R9390/RX470/480 etc. schon zuvor mit 8GB gab, auch wenn diese wiederum zu schwach waren um diese überhaupt voll auszulasten.

Denke eine 3070 wird auch noch in 3 Jahren mit 8GB zurecht kommen, nur dann mit um einiges weniger Details als ne 6700XT. Gerade und vor allem in WQHD, in FullHD könnte sie sicher noch etwas länger klar kommen.
 
Zurück
Oben