• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

Test Diablo IV im Technik-Test: 38 Grafikkarten, 14 CPUs und ROG Ally im Benchmark

also ich nutze 4K-Max mit DLAA+FG und das limitiert auf 115FPS und da scheint FG schon was zu bringen nämlich das der Verbrauch nochmal um rund 30-40Watt runtergegangen ist, aber mehr war das leider nicht.
 
fatherswatch schrieb:
Die dickste und teuerste GPU auf dem Markt ist die beste? :o Jetzt geht's aber los.
Ging bei dem Post wohl nur darum mitzuteilen, das er die Grafikkarte besitzt.
 
  • Gefällt mir
Reaktionen: Blende Up, jo0, Redundanz und 8 andere
henniheine schrieb:
D.h. aktuell am besten entweder "DLSS 2" oder "Frame Generation" verwenden solange es nicht behoben ist?
Wenn jedes System davon betroffen ist, macht die Frame Generation aktuell nur Sinn, wenn man DLAA nutzt.
Frame Genneration ohne DLAA ist dagegen aktuell sinnlos.
Entweder spielt man wer weiß warum nativ oder mit DLSS Super Resolution, das läuft schneller als mit FG und sieht auch noch besser aus.
 
  • Gefällt mir
Reaktionen: jo0, Celinna und henniheine
Habe das Spiel die letzten zwei Tage selbst spielen können und technisch ist es top!
Bugs sind hier und da noch vorhanden, aber überschaubar.

Wolfgang schrieb:
Weil es schlicht so ist (und das nicht zum ersten Mal), die Bildstabilität ist mit DLSS/FSR klar besser und die Bildschärfe teilweise auch. Schaue dir unsere Screenshots und Videos an bzw. probiere es selbst aus.
Dass es immer noch User gibt, die das nicht wahr haben wollen, ist mir ein Rätsel.
 
  • Gefällt mir
Reaktionen: rumpeLson, V_182 und Wintermute
MrHeisenberg schrieb:
die das nicht wahr haben wollen, ist mir ein Rätsel.
Naja das betrifft zumindest bei FSR nur die wenigsten Spiele.

Das einzige spiel wo FSR mMn taugte war Last of Us,alle andere wars deutlich schlechter als nativ Resi 4 z.b.

D4 guck ichs mir heute nochmal an,in der Beta waren mit FSR die texturen auf jedenfall matschiger.
 
Ich denke, dass hier Begrifflichkeiten vermischt wurden. DLAA (quasi DLSS auf die native Renderauflösung drauf) führt zu einem hervorragend stabilen Bild ohne jegliches Flimmern, kostet allerdings Leistung. (50fps statt 65 nativ, auf meiner Laptop 2070 in 3440x1440).
Ich persönlich spiele im DLSS Quality mode mit 70-80fps in Städten und 100-120fps in Dungeons und der Oberwelt wild dazwischen.
 
Moin, mal eine eher grundlegende Frage zu DLSS/FSR, vielleicht denke ich etwas zu naiv, aber in Diablo IV schneiden beide Upsampling Techniken wunderbar ab und das ohne weitere Patches, in anderen Spielen sind beispielsweise DLSS und/oder FSR einfach grottig und deutlich schlechter als Nativ, wie kann das sein?
Ist die Implementierung von den Techniken für den Entwickler ein großes Stück Arbeit? Ich dachte, der Entwickler muss die bereitgestellte Technik einfach nur hinzufügen und los gehts.
 
  • Gefällt mir
Reaktionen: Qyxes
Also DLSS auch mit FHD aktivieren , richtig?
 
ReinerReinhardt schrieb:
Ist die Implementierung von den Techniken für den Entwickler ein großes Stück Arbeit?
Jain, es kommt darauf an, wie viel Arbeit du in die Kmplementation stecken magst.

Um eine optimale Bildqualität zu erreichen, musst du gewisse Arbeit rein Stecken und zusätzliche Daten bereitstellen - Masken für Objekte und Co.

Macht man das nicht, so wird nicht die optimale Qualität erreicht.
 
  • Gefällt mir
Reaktionen: DKK007, rumpeLson und ReinerReinhardt
Hat es schon einer auf einer integrierten GPU ausprobiert?
Iris SX zum Beispiel?
 
  • Gefällt mir
Reaktionen: Qyxes
Wolfgang schrieb:
Also die PCGH zeigt in den Benchmarks mit DLSS 3 genau dasselbe komische Verhalten wie bei uns, auch wenn sie irgendwie vergessen haben, dass im Text zu erwähnen. Demnach scheint Frame Generation in Verbindung mit DLSS Super Resolution derzeit wirklich kaputt zu sein.
Auf Seite 1 wurde ja schon eine mögliche Erklärung genannt, die mir auch schlüssig erscheint:
Das Generieren der Zwischenbilder braucht länger als die echten Frames.

Deshalb ist der Zuwachs mit FG auch so gering, weil die Zwischenbilder fast genau so lange dauern wie die echten.
Erhöht man mit DLSS2 nun die Grund-FPS noch weiter, sind die Frametimes so niedrig, dass die GPU mit FG auf die Zwischenframes warten muss.


Das gleiche gibts ja auch bei DLSS2 und FSR2, je höher die FPS sind, desto weniger kann DLSS/FSR rausholen weil die Zeit für den Algorithmus immer gleich lang ist.
Bei sehr hohen FPS ist diese Zeit dann eben irgendwann gleich hoch oder sogar höher, als die Zeit, die durch die reduzierte Auflösung eingespart wird.

Diese Zeit ist aber deutlich geringer als die für FG benötigte Zeit, sodass der Effekt, dass man mit DLSS/FSR FPS verliert, erst bei deutlich höheren FPS auftreten wird.



Nur sind die FPS der 4070 hier nicht so hoch, dass der Effekt auftreten dürfte, sie liegt ja nativ nur bei 70. Dass sie so wenig durch FG gewinnt dürfte dann daran liegen dass sie bereits stark ausgelastet ist und nicht genug Ressourcen frei hat für FG.
In Verbindung mit DLSS und damit noch höheren FPS müssen auch noch mal mehr Zwischenbilder in kürzerer Zeit berechnet werden, womit sie dann völlig überfordert ist
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: DKK007
Was ich nicht verstehe ist folgendes:
Man braucht für 4k Ultra Texturen 16gb VRAM..
Was braucht man aber für 2k Ultra Texturen??
Oder macht das eher der preset"hoch" Sinn??
 
fatherswatch schrieb:
Die dickste und teuerste GPU auf dem Markt ist die beste? :o Jetzt geht's aber los.
Mit so einem gewaltigem Abstand sollte man sich zweimal überlegen ob man wirklich zu einer 7900 XTX oder 4080 greifen will. Dann lieber das bisschen mehr in die Hand nehmen und ruhe haben.
 
Antec P182 schrieb:
Hat es schon einer auf einer integrierten GPU ausprobiert?
Iris SX zum Beispiel?
 
  • Gefällt mir
Reaktionen: graysson, simosh und Antec P182
Vielen Dank für die ersten Einblicke. Bitte noch einen Arc XeSS Test wenn schon verfügbar. Wird auf cb leider sehr stiefmütterlich behandelt.
 
  • Gefällt mir
Reaktionen: Redirion, jo0, 407SW und eine weitere Person
Shinigami1 schrieb:
Mit so einem gewaltigem Abstand sollte man sich zweimal überlegen ob man wirklich zu einer 7900 XTX oder 4080 greifen will. Dann lieber das bisschen mehr in die Hand nehmen und ruhe haben.

Deine Kernaussage verstehe ich, aber für wie viel Leute sind 500-600€ ein "bisschen mehr"?
 
  • Gefällt mir
Reaktionen: Blende Up, MiroPoch, DKK007 und 4 andere
Endlich mal eine erfreuliche Nachricht in Sachen Gaming, wann gab es eigentlich das letzte mal ein Release mit soviel überwiegend positiven Kommentaren?

Würde mich nicht wundern, wenn jetzt etliche wegen diesem Spiel ihre alte HW in Rente schicken um möglichst das Maximum rauszuholen, dementsprechende Anfragen gab es ja schon einige hier in der Kaufberatung.

So ein Mist aber auch, leider gerade keine Zeit zum Zocken... aber D4 scheint wohl ein Pflichtkauf zu werden.
 
  • Gefällt mir
Reaktionen: Holgmann75
Zinured schrieb:
Was braucht man aber für 2k Ultra Texturen??
Ultra Texturen sind unabhängig von der Auflösung. Es sieht damit immer besser aus als ohne.
 
  • Gefällt mir
Reaktionen: Zinured
@Wolfgang Wieso ist eigentlich der AMD-Wert auf der ersten Seite gleich mit den späteren Diagrammen und der Nvidia-Wert nicht? Mir ist das jetzt schon mehrmals bei Spieletests aufgefallen das auf der ersten Seite eine Karte vor der anderen ist und in den späteren Diagrammen ist es dann umgekehrt, sind das unterschiedliche Tests?

1686061536587.png

1686061544819.png
 
Zurück
Oben