Test Doom Eternal Update 6 im Test: Hohe FPS mit Raytracing wollen viel Grafikspeicher

Recht begeistert. RT on/Dlss off
Einstellungen Hoch 4k ca 120Fps
Einstellungen Ultra 8k ca 45-50 fps ohne Dlss
Gpu Die grottigste rtx 3090 (KFA2)
Tv Samsung 800T
Entweder verarscht mich mein TV aber in 8 k sind die Fps recht gut (andromeda 15-25 fps zum vergleich)
Seh aber null Unterschied in den Auflösungen (75Z ca 3M Sitzabstand)
 
JoeDante schrieb:
Wow. War abzusehen, dass der geringe Speicher der "günstigeren" NVIDIA Karten mal Probleme machen würde, aber dass es SO schnell geht, hätte ich nicht gedacht.
Deine Aussage ist ein bischen ( möglicherweise Absichtlich ) aus dem Kontext geschoben, ja schon Framing.

Du tust so, weil es in EINEM Spiel so gravierend ist, aös sei das nun Allgemeingültig und die 8 GB Karten mit RT in 4K nicht mehr nutzbar.

So einfach ist es aber nicht, kann ja mal den Spiess umdrehen und auch einfach Framen :

Für die gebotene Optik ist der Vram verbrauch ein Witz ! Stimmt zwar so pauschal auch nicht, aber du weisst was ich meine.
 
  • Gefällt mir
Reaktionen: pgrs
.Sentinel. schrieb:
Klar- Du willst an einem 1080P 60FPS Video sehen, wie das Bild mit den 70+FPS, die hier aufgenommen wurden rüberkommt. Schon mal was vom "Pull Down"- Ruckeln gehört?
Ok gebe ich dir recht, ich habe das ganze aber selbst gehabt und kann nur sagen: Die GTX1050ti war im Stande auf sehr hohen Einstellungen +60FPS zu rendern nur konnte man das halt nicht zocken da immer wieder "Mikrorouckler" aufgetreten sind (durch den zu vollen VRAM) musst dann trotz ausreichender Leistung mit den Einstellungen runter gehen.

@CrustiCroc Ja alles gut und schön eins ist und bleibt aber Fakt. Seit der gut mit VRAM ausgestatteten GTX1070 hat sich die Leistung mal eben verdoppelt aber am VRAM hat sich nichts getan. Warum gab es dann nicht auch eine GTX1070 mit 4GB VRAM. Hätte NV doch den P/L Knaller draus machen können.

Meiner Meinung nach ist es eine bewusste Entscheidung von NV den VRAM sehr knapp zu halten. Dadurch sind die Umsätze bei der nächsten Generation gesichert. Mir ist das vor allem für die Zukunft zu wenig. Wer natürlich eh jede Generation aufrüstet kann bedenkenlos zu einer NV Karte greifen.
 
Zuletzt bearbeitet:
DiePalme schrieb:
Verstehe das gebashe gegen RT absolut nicht.
Die RT Assoziation = "kommt von Nvidia".
Das alleine reicht schon, denn wenn man sich die Grundgesamtheit des aktiven CB Forums ansieht, "versteht" man das Gebashe. Die AMD Gruppe findet immer Ventile.

Ich hätte zudem mal eine qualitätsgesicherte Umfrage, "wer" RT abwertet (mit welchen System spielen die).
Ich vermute das 90% der RT Basher keine 3080, 3080Ti und 3090 am Start haben, also die 3 schnellsten Raytracing GPUs.
Von daher kann man das RT Bashen gut filtern, ist nur verdecktes Nvidia hating, wie immer hier.
Und der Neid der non-High End - GPU - Gruppe. Business as usual in Foren ;)

Edit: Im Kollegenkreis war Raytracing für viele ein überflüssiges Gimmick.
Nachdem sie die 3080 oder 3090 im Betrieb hatten, änderte sich das, denn das "live" zu erleben ist halt eine andere Nummer als auf Screenshots oder in Videos ;)
Auf einmal finden sie das Feature eigentlich ganz toll.

Ach was? Surprise Surprise! :D
 
Zuletzt bearbeitet:
Thor-75 schrieb:
8 GB @ Textur-Pool Ultra Albtraum bzw alles auf Ultraalptraum in FullHD.

habe ich 90 FPS mit der RTX 3060Ti.

Macht ihr irgendwas verkehrt wenn ihr nur 60 habt.

Du musst das Spiel neu starten.

Habs eben auf meiner 3060ti getestet in 1440p.

Alles Maxed Out incl. RT -> Spiel neu starten -> ~40 FPS
Alles Maxed Out incl. RT -> Spiel neu starten -> ALT+TAB -> wieder im Spiel ca 80 FPS
Alles Maxed Out, RT im Spiel dazu schalten ohne neustart -> 80-120 FPS
Texture Pool auf Ultra (statt Ultra Nightmare) + RT -> Spiel neu starten -> ca. 140 FPS

(alles ohne DLSS)


Also ja, das Spiel verhält sich etwas buggy. Je nachdem wie man es testet kommt man zu unterschiedlichen Ergebnissen.

Aber ob man da jetzt wirklich wieder die VRAM Diskussion starten muss soll jeder für sich entscheiden.
Letztendlich ist der Texture Pool genau das was der Name sagt. Ein Pool. Wenn er kleiner ist, werden eben öfter Daten gestreamt (eigentlich nur kritisch bei Nutzung von HDDs oder CPU limit).

Entscheidend ist aber eher, wie groß der Texture Pool eingestellt werden muss, damit die aktuell gerenderte Szene den maximalen Detailgrad erhält.

Ich meine, es bringt ja nix, wenn bei Texture Pool auf Ultra Nightmare Texturen in den VRAM vorgeladen werden, die für die aktuelle Szene gar nicht notwendig sind und ich nur deswegen Performance verliere. Das wäre unabhängig davon wie man die Settings jetzt benennen will eine bewusste Fehlkonfiguration. Zumindest die Tatsache, dass sich nach einem ALT+TAB die FPS verdoppeln ohne dass die Texturen schlechter werden, zeigt, dass da was nicht so 100% stimmt.

Das wäre so als würde man z.B. bei nem Spiel in der Config Datei 16 Threads konfigurieren, obwohl das System nur 4 hat und sich dann wundern dass es schlechter läuft...

Mich wunderts eh, dass Id Software das nicht dynamisch gemacht hat. Wenn das eh nur ein Pool ist und keine feste Texturstufe, dann ist es sinnlos eine feste Poolgröße zu definieren, wenn der User so oder so nicht weiß, wann und ob er die bestmöglichen Texturen zu Gesicht bekommt.

Um Diskussionen und Mutmaßungen zu vermeiden würde ich mir diesbezüglich auch eine detaillierte Analyse wünschen. Zumindest Digital Foundry sagt ja, dass es bis Ultra keine Unterschiede gibt...
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: Volvo480, Bademeister69, Gesualdo und 2 andere
Berserkerbase schrieb:
Ehrlich gesagt, wäre ich froh, wenn diese Grafikprotzerei in Spielen langsam aufhören würde.

Für mich darf ein Spiel wie ein Spiel aussehen und nicht wie eine Simulation (auch wenn wir davon noch weit genug weg sind) .
Das ganze kostet nur jede Menge Geld für Hardware und Strom und hilft dem Spielspaß keineswegs weiter.
Zudem werden die Spiele immer aufwändiger in der Entwicklung, da der ganze ganze Content (Texturen, Modelle) ja auch erstellt werden muss.
Und sind wir mal ehrlich: In schnellen Shootern ist Grafikpracht eh Perlen vor die Säue.
Als würd da noch jemand drauf achten 😅
Ich finde die Grafik Protzerei geht noch nicht weit genug.
Wir haben inzwischen gute Grafik, keine Frage. Aber da ist immer noch viel Luft nach oben.

Wird Zeit das die die Entwickler sich wieder gegenseitig die Messlatte höher legen und uns immer bessere Grafik liefern.

Leider wird viel zu oft (eigentlich immer) auf Konsolen und schwache PCs Rücksicht genommen.
Das ist wirtschaftlich logisch. Hält aber den Fortschritt auf.
 
  • Gefällt mir
Reaktionen: GERmaximus
DLSS ist doch tot wegen dem FSR Open Source Ansatz. Sagt zumindest das Web.
 
fritz81 schrieb:
Fuck neustart und nur noch 50% der FPS....Manno bei mir gehts runter statt rauf;(

Warte, du hast doch ne 3090? Da sollte der VRAM ja überhaupt kein Problem sein.
Und trotzdem der Performanceeinbruch?

Seltsam.
 
Joa, die 8GB sind tatsächlich das Einzige, was mich an meiner 3070 richtig stört, ansonsten ist das ne super Karte. Hätte ich die Wahl gehabt, hätte ich sicher ne andere Karte genommen. Aber man muss aktuell ja nehmen, was man irgendwie in die Finger kriegen kann, ohne Mondpreise zu zahlen. Da ich vorher nur eine GT710 hatte, hielt sich meine Geduld beim Kauf auch in Grenzen.

Lässt sich nicht schönreden, dass Nvidia hier hart geknausert hat. Aber naja, ein paar Jährchen wird das Ding wohl schon tun, auch wenn ich aufgrund des VRAM hier und da ein paar Regler nach links schubsen werde.
 
  • Gefällt mir
Reaktionen: timmey77
4to cka3al schrieb:
DLSS ist doch tot wegen dem FSR Open Source Ansatz. Sagt zumindest das Web.
Wer sagt das?

Bei der Qualität ist FSR schneller in der Bedeutungslosigkeit verschwunden als alles andere:
https://imgsli.com/NjAxNTM/0/1
https://imgsli.com/NjAxNTE/0/1
-Man achte auf die Details der Bäume

Ein weiteres, nettes Gimmick, um Performance gegen Bildqualität zu tauschen - mehr aber auch nicht. Da hilft es auch nichts, dass es auf jedem Toaster läuft.
Ohne temporale Komponente wird das nichts mehr.
Eine sehr effektive temporale Rekonstruktion liefert NVIDIA mit Quake 2 RTX open source....
 
  • Gefällt mir
Reaktionen: thuNDa
@Laphonso RT ist genial nur leider hebt das den Speicherkrüppel nicht auf. Würde es eine RTX3070ti mit 16GB VRAM geben, ich würde zur 16GB 3070(ti) greifen und AMD nicht mitm Arsch anschauen. DLSS, gute RT-Leistung, großer Speicherausbau für einen (noch) angemessen Preis.

@.Sentinel. Ja man sollte AMD noch Zeit geben das ganze zu Optimieren. Allerdings hat FreeSync ja gezeigt welches potential in offenen Standards steckt. Von G-Sync redet heute keiner mehr seitdem NV auch bei FreeSync mitspielt.
 
  • Gefällt mir
Reaktionen: GERmaximus
Sahit schrieb:
@Laphonso RT ist genial nur leider hebt das den Speicherkrüppel nicht auf. Würde es eine RTX3070ti mit 16GB VRAM geben, ich würde zur 16GB 3070(ti) greifen und AMD nicht mitm Arsch anschauen. DLSS, gute RT-Leistung, großer Speicherausbau für einen (noch) angemessen Preis.
Ich habs schonmal gepostet... Was ist dagegen auszusetzen?

Man sollte meinen, dass diese Leistung als mehr als ausreichend zu bezeichnen ist. Trotz 6GB VRAM.
Also- Wo ist das Problem? Sieht das noch großen Einschränkugen aus?
Unspielbar, schlimm, nicht zukunftsfähig?
 
  • Gefällt mir
Reaktionen: foo_1337, Thor-75, Wan900 und 3 andere
Sahit schrieb:
@Laphonso RT ist genial nur leider hebt das den Speicherkrüppel nicht auf. Würde es eine RTX3070ti mit 16GB VRAM geben, ich würde zur 16GB 3070(ti) greifen und AMD nicht mitm Arsch anschauen. DLSS, gute RT-Leistung, großer Speicherausbau für einen (noch) angemessen Preis.
Natürlich entscheidet immer das Budget, aber ich in meiner Gaminggruppe (die alle aufgrund der Jobs und des Alters finanziell eher solventer/liquider sind) ganz klar gesagt, wenn Ihr jetzt für 4 Jahre kauft, Richtung UWQHD oder 4K plant und RT ist Euch egal = 6900XT, wenn Ihr Bock auf RT habt, dann direkt die 3090.

Die 3080 Gang hat bis etzt auch unter 4K und RT keine Probleme. Die 3070 war und ist für mich keine 4K GPU, ebenso wie es die 2080Ti nicht war, beide sind dafür zu lahm, da rettet VRAM gar nix.

Aus diesem Grunde zucke ich bei der VRAM Hysterie nur die Schultern.

Die 3080 dominiert die 6800XT fps mäßig in jedem RT Game, vor allem sobald DLSS im Spiel ist.
Da nützen der 6800XT die 6 GB VRAM Zusatz gar nichts. Sie verliert jedes Duell, trotzdem. Teilweise deutlich.

Wer gegen die 3070 mit 8 GB VRAM wettert und dafür UHD ins Feld führt, sucht halt Baustellen.
 
  • Gefällt mir
Reaktionen: DynamicPS, Wan900, KlaasKersting und eine weitere Person
danke für den detailierten Test :)

/e:

Die Kommentare lasse ich mal aus... ist eh wieder nur Fraktion Amd vs Fraktion Nvidia ... *gähn
Die eine Hälfte davon besitzt weder die eine noch die andere Grafikkarte... die andere Hälfte plappert nur das nach, was irgendwelche Leute im Netz behaupten...
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Wan900 und Laphonso
@.Sentinel. ich bin auch kein NV-Hater. Habe im Desktop ne 1070 im Notebook ne 2070 aber mir sind halt 8GB VRAM für ne GPU im Kaliber einer RTX3070 zu wenig. Ja DLSS ist super aber ich möchte halt mehr als 8GB VRAM für die Zukunft und man sieht ja das trotz DLSS der VRAM der karte voll ist. Das ganze kann gut gehen muss aber nicht. Wie gesagt ich hab die Erfahrung schon gemacht das ein game aufgrund vollen VRAM trotz ausreichend GPU Power nicht spielbar war.

Diese GPU wird wohl für mein System die letzte Sinnvolle Aufrüstung da kein PCIe 4.0 und auch der 2700er irgendwann wohl an die grenzen kommen wird. Theoretisch könnte ich mir auch eine RTX3090 leisten aber ich möchte mir halt einfach keine Karte im Preisbereich von 2000€ kaufen.
 
  • Gefällt mir
Reaktionen: Redundanz und Dittsche
Finde dies ist ein sehr gutes Beispiel, dass Raytracing "noch" NICHT im Mainstream angekommen ist.
Auf die Effekte in dem Game kann ich gerne verzichten.
Eher Übernächste Generation ...

MfG Föhn.
 
Wer sagte noch, dass 8GB VRam reicht?
Nun haben wir es. Früher als gedacht.
Die 16GB von AMD sind klar überlegen.
 
Sahit schrieb:
@.Sentinel. ich bin auch kein NV-Hater. Habe im Desktop ne 1070 im Notebook ne 2070 aber mir sind halt 8GB VRAM für ne GPU im Kaliber einer RTX3070 zu wenig.
Naja- Es geht halt immer um die Positionierung am Markt. NVIDIA ist beim Design der Karten sehr eng mit Spielestudios verknüpft und mit deren Input wird dann festgelegt, was auf die nächsten 2-3 jahre so an Anforderungen zu erwarten sind.

Sahit schrieb:
Ja DLSS ist super aber ich möchte halt mehr als 8GB VRAM für die Zukunft
...dann muss man sich für eine Variante mit mehr VRAM entscheiden, wenn es rein um des VRAMs Willen geht...
Sahit schrieb:
und man sieht ja das trotz DLSS der VRAM der karte voll ist.
Das siehst Du nicht. Du siehst erst, ob der VRAM der Karte voll ist, wenn Du einen Dump davon machst und die dort gespeicherten Daten mit dem aktiven Working- set und dem inflight- Budget vergleichst.
Und das wird inzwischen auch immer mehr dynamisch angepasst, da man inzwischen eher mit der Nutzung einer SSD Rechnen kann, als dass noch alte HDDs zum Einsatz kommen.

Mit den Konsolen gibt es da jetzt sowieso einen "Bruch" mit veralteten Speicher- und Streaming- Systemen, die aus Angst vor Wartezyklen beim Datennachschub alles ins RAM oder VRAM packen, was nicht bei 3 auf den Bäumen ist.

Sahit schrieb:
Das ganze kann gut gehen muss aber nicht. Wie gesagt ich hab die Erfahrung schon gemacht das ein game aufgrund vollen VRAM trotz ausreichend GPU Power nicht spielbar war.
Dafür gibt es Settings. Und meist sind die visuellen Einschränkungen bei modernen Titeln, wenn man die Texturqualität von Ultra auf Sehr Hoch senkt, sehr gering bis teils überhaupt nicht gegeben.

Sahit schrieb:
Diese GPU wird wohl für mein System die letzte Sinnvolle Aufrüstung da kein PCIe 4.0 und auch der 2700er irgendwann wohl an die grenzen kommen wird.
Ich bin der Meinung, dass die CPU für normale Ansprüche noch länger ausreichen wird....
 
  • Gefällt mir
Reaktionen: Maggolos und Schwachkopp
nagus schrieb:
völlig sinnlos das RT - wieder mal. hauptsächlich ein leistungskiller für kaum bessere optik. braucht man sowas wirklich?

Ist doch egal, ob "man" sowas braucht. Man kann es ja ausschalten. In absehbarer Zeit, vielleicht Ende des Jahrzehnts (oder noch schneller), wird es gar keine Spiele mehr ohne RT geben und es wird auch nicht mehr gesondert in Tests erwähnt werden, weil es der Standard ist. 32-Bit-Farbtiefe war auch mal irgendwann neu, bis es dann keinen Performanceunterschied zu 16 Bit mehr gab. Sowas braucht eben ein bisschen Zeit.
 
  • Gefällt mir
Reaktionen: Zitterrochen, cbmik, Vitec und 2 andere
Zurück
Oben