• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

Test Diablo IV im Technik-Test: 38 Grafikkarten, 14 CPUs und ROG Ally im Benchmark

Danke für den fairen Test, der weder in den Himmel lobt, noch ein (oft herbei gewünschtes) Armageddon zeichnet.
 
  • Gefällt mir
Reaktionen: Clark Griswold, MiroPoch, Iarn und 8 andere
Diablo IV hat nicht mit Shader-Compilation-Stottern zu kämpfen, mit Traversal-Stottern aber schon. Wenn Levelabschnitte nachgeladen werden, hakt das Spiel auf jeder Hardware kurz.

Kann ich eigentlich nicht bestätigen. Das kann aber auch gut an der Latenz liegen, da jede Zone ein neuer Server ist.
 
So sieht gute Optimierung aus.
Sehr schön.

Danke für den ausführlichen Test.
 
Ein paar schwächere Grafikkarten wären interessant gewesen, also Karten die eher im Massenmarkt zu finden sind.

Die Beta zu Diablo 4 hat mir sehr gut gefallen, jedoch bin ich nicht bereit die 70 oder 80 Euro hinzublättern.
Zum Glück zocke ich im Sommer wenig und kann ohne Probleme bis zum Herbst/Winter warten.
 
  • Gefällt mir
Reaktionen: Clark Griswold, Iarn, autopilot und 3 andere
fox40phil schrieb:
mal abgesehn davon, dass dir 180 FPS in so einem Genre bestimmt viel bringt :'D...
~60fps -> reicht doch easy. Und dann dabei noch Stromsparen.
Ich habe es auf 119 FPS gestellt. Dieses Strom Sparen Argument zieht leider bei mir nicht. Wenn ich spiele die 2-3h am Abend ist mir die 1 KWh (28 cent) ziehmlich egal.
 
  • Gefällt mir
Reaktionen: Clark Griswold, MiroPoch, iceshield und eine weitere Person
CB haut wieder die "8GB sind unbrauchbar Keule" raus.

Mit der RX 6600 lief es wunderbar mit hohen settings in FULL HD.

Komischerweise fragt sich keiner wieso ein Spiel wie Diablo so dermaßen viel VRAM beansprucht.

In Zukunft liest man auf CB nur noch das alles unter 16GB unbrauchbar ist
 
  • Gefällt mir
Reaktionen: EntelodonX, Clark Griswold, Seby007 und 4 andere
Kann mir bei der gebotenen Optik absolut nicht vorstellen, dass das mit der enormen VRAM-Nutzung normal ist und zukünftig auch so bleibt. Schade, dass sie das Problem bis zum endgültigen Release nicht gefixt bekommen haben...
 
  • Gefällt mir
Reaktionen: xXBobbyXx und Tera_Nemesis
Draco Nobilis schrieb:
Dachte 12GB reichen erst ab 2024 nicht mehr. Aber wir haben ja erst 2023.
In 4k(!). Mit Ultra-Presets(!).
Gott. Dieses VRAM-Thema muss auch Jahr für Jahr größer gemacht werden. Texturen etwas nach Links und man ist mit 12 GB noch easy dabei. Das 8 GB hier scheinbar nicht einmal mehr bei FHD reichen, ist natürlich schade. Aber auch hier: Regler ein Schritt nach Links und schon lösen sich die Probleme in Luft auf. Wahrscheinlich ohne, dass man überhaupt einen großartigen Unterschied bei der Bildqualität erkennen kann.

Dürfte eher der Klassiker sein: Komm, lass mal die unkomprimierten Texturen als "Ultra" ins Spiel packen.
 
  • Gefällt mir
Reaktionen: EntelodonX, pabu.roar, Clark Griswold und 9 andere
Nachladeruckler lassen sich minimieren, wenn man die Einstellungen so wählt, dass ca. 80% vom VRAM belegt werden, dann creept das Spiel langsam zu 100%, aber mit weniger Rucklern. Seit der Beta gab es dazu kein Statement, also keine Ahnung ob das technisch so gewollt ist mit dem VRAM.

95% der Spieler beobachten ihre VRAM Nutzung nicht und leben mit den Rucklern etc.
 
Blublah schrieb:
Wenn die Zeit für eine Frame-Generierung bei DLSS3 länger braucht als einen nativen Frame zu generieren, dann sinkt die Performance mit DLSS3. Wenn man DLSS2 benutzt, sinkt ja die durch die niedrigere Auflösung die Zeit für die Generierung des native Frames, aber die Zeit für den DLSS 3 Frame bleibt gleich, da er in der Zielauflösung generiert wird (darüber bin mir aber nicht sicher aber wenn er in der DLSS2 Auflösung generiert wird müsste er auch noch durch das DLSS2 upscaling).

Bei 200fps native (bzw in DLSS2) z.B. braucht es nur 5ms um einen 'echten' Frame zu erzeugen. DLSS3 braucht da evtl schon länger.
Vielleicht liegts aber auch an etwas anderem

Mit der 4080 hab ich in anderen Spielen schon 500 FPS mit Frame Generation in 1440p gesehen. Allerdings war ich dort bei 250 FPS auch im CPU Limit.

Würde mich wundern, wenn die 4070 da so schwach wäre.

Wobei man sagen muss, dass die Kosten von FG natürlich höher sind, wenn die GPU voll ausgelastet ist. In 1440p bekommt man dann nicht mehr doppelte Frames sondern vielleicht 80% mehr. In 4K sind es noch weniger.

Ich denke aktuell ist vielleicht nich nicht ganz klar wie Frame Generation in diversen Situationen skaliert. Vielleicht ist es auch ein Bandbreitenproblem mit dem schmalen Speicherinterface der 4070, das nicht gut mit FG harmoniert?
 
Tunaraxx schrieb:
CB haut wieder die "8GB sind unbrauchbar Keule" raus.

Mit der RX 6600 lief es wunderbar mit hohen settings in FULL HD.

Schön das du nicht den Test gelesen hast. 8GB werden knapp bei 1080p im Ultra Preset...

Tunaraxx schrieb:
Komischerweise fragt sich keiner wieso ein Spiel wie Diablo so dermaßen viel VRAM beansprucht.

Weil die Texturen nunmal so viel Speicher benötigen.
Sieht man auch klar im Vergleich wie viel besser jede Qualitätsstufe ist.
 
  • Gefällt mir
Reaktionen: Scheinriese, xXBobbyXx, MiroPoch und 7 andere
Wenn ich die Tests richtig interpretiere ist mit einer GTX 1070 mit gerade so 60 FPS in FHD zu rechnen. :(
 
iSteven schrieb:
Wie bei 4k die 4090 einfach mit abstand am besten ist xD
Gut das ich eine 4090 mein eigen nennen darf
7900XTX ~1000€ -> 100% UHD Leistung, 100% Preis
4090 ~1600€ -> 140% UHD Leistung, 160% Preis

so krass finde ich das nicht, zumal es kein Spiel gibt was bspw. eine 7900XTX nicht schafft. aber ja, ne 4090 ist schon ein ego boost
 
  • Gefällt mir
Reaktionen: Autoquadplus, Valanx, Clark Griswold und 15 andere
SaxnPaule schrieb:
Wenn ich die Tests richtig interpretiere ist mit einer GTX 1070 mit gerade so 60 FPS in FHD zu rechnen. :(
Eine Mittelklasse Grafikkarte aus dem Jahr 2016 (!) schafft in einem TripleA Titel von 2023 FullHD bei Ultra in 60 FPS. Das ist ein extrem gutes Resultat.
 
  • Gefällt mir
Reaktionen: Autoquadplus, Clark Griswold, MiroPoch und 22 andere
Die Redaktion plant, den Technik-Test über die kommenden Tagen noch zu erweitern. Unter anderem wird es Benchmarks mit älteren und noch langsameren Grafikkarten geben

Gibts denn bei euch keine CPU Tests mehr @Wolfgang ? Hier würde es mich doch wirklich interessieren, wie wichtig hier die CPU ist.
 
  • Gefällt mir
Reaktionen: Crankson, Matthew1992, Edzard und 11 andere
War überrascht wie rund das Game läuft und wie wenig Power eine 4090 + CPU dafür braucht.
Spiele mit 120FPS Gsync Cap und alles auf Ultra + 4K + DLSS Quality und die 4090 zieht dabei 150-160W und der 12900k 50-60W.

Wer nun die Texturdetails zurückstellen möchte oder muss, sei gewarnt: Jede einzelne Stufe bedeutet eine deutlich schlechtere Texturqualität. Schon von „Ultra“ auf „Hoch“ bekommt man deutlich einfachere Tapeten vorgesetzt, vor allem der Boden wirkt ziemlich matschig.
Oh nein wie haben ein Game gefunden wo der Unterschied deutlich zu sehen ist!
Das wird jetzt die nächsten Jahre in jedem Nvidia Thread genutzt! :D
Dass das bei 99% der anderen Games zwischen Ultra und Hoch nicht der Fall ist interessiert dann keine Sau.

Der Unterschied ist aber echt krass, hab das gerade selbst mal nachgestellt an der Position... wobei der Wüstenboden doch schon fast eher ein Bug ist, dass der da so super LowRes geladen wird auf Hoch?
Hier mal der Unterschied in dem ersten Gebiet zwischen Ultra und Hoch, das sieht bei weitem nicht so übel aus.

Generell sieht das Game aber optisch nicht sonderlich hübsch aus was Texturen angeht, da ist auch auf Ultra und 4K ziemlich viel Matsch dabei.
 

Anhänge

  • Ultra.png
    Ultra.png
    6 MB · Aufrufe: 538
  • Hoch.png
    Hoch.png
    7,2 MB · Aufrufe: 538
  • Gefällt mir
Reaktionen: Blaze1987, Seby007, Romanow363 und 3 andere
Danke für den Test @CB :daumen:

Grafikstil, Atmosphäre und das ganze Artdesign gefallen mir äußerst gut.
Er wirkt alles in sich stimmig und ist düsterer wie bei D2R.
Werde es sicherlich irgendwann mal auf der XSX spielen, da nehme ich das an wie es dargestellt wird.
Auf nicht so starken PC's geht es leider in eine matschigere Richtung und läuft wohl nicht immer ganz rund. Mal sehen was sich an der Performance noch tun wird. Es ist ja erst frisch draußen...
Und mal sehen was die Schlingel von Blizzard in Zukunft da noch einbauen werden.:evillol:

Allen jetzigen Spielern, HF!:verwandlung:
 
  • Gefällt mir
Reaktionen: Holgmann75 und Der Lord
honky-tonk schrieb:
7900XTX ~1000€ -> 100% UHD Leistung, 100% Preis
4090 ~1600€ -> 140% UHD Leistung, 160% Preis

so krass finde ich das nicht, zumal es kein Spiel gibt was bspw. eine 7900XTX nicht schafft. aber ja, ne 4090 ist schon ein ego boost
Und um 100% UHD-Leistung zu bringen, brauch die 7900XTX dann genau so viel Strom wie die 4090 mit 140% UHD-Leistung. Alles eine Sache der Relation. Und wenn wir in Spielen dann doch mal RT haben wollen, verabschiedet sich die ganze Rechnung sowieso komplett...
Das bei hochwertigeren Produkten die Preisskalierung auch nicht mehr dem Leistungszugewinnen entspricht, ist ja an und für sich nichts neues.

Wie war das mit Ego Boost? Solche Diskussionen führen doch zu nichts.
 
  • Gefällt mir
Reaktionen: Clark Griswold, nicK--, H6-Mobs und 3 andere
Zurück
Oben