• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

Test Diablo IV im Technik-Test: 38 Grafikkarten, 14 CPUs und ROG Ally im Benchmark

Wolfgang schrieb:
Findest du denn nicht, dass auch Hardware abseits von "Neuste und Beste" in dem Artikel vertreten sind? Ich verstehe halt nicht so ganz was du möchtest. Wir haben High-End-Hardware im Test, aktuelle Mittelklasse, aktuelle Einsteiger-Klasse, aktuelle Low-End-Modelle, alte Grafikkarten, wie testen mit nativer Auflösung, wir schauen uns Upsampling explizit an und empfehlen dies durchweg, wir haben Grafik-Presets getestet, die wir aber für schlecht halten, wir haben verschiedene Texturstufen getestet, nun auch mehrere Prozessoren bis hin zur Einsteiger-CPUs und ältere CPUs...was sollen wir denn noch machen?
Ich hatte eigentlich "nur" festgestellt, dass man auch mit weniger leistungsfähiger Hardware das Spiel noch ordentlich spielen kann. Und dass es mir genau darauf ankommt. In den Tabellen werden ja auch weniger leistungsfähige oder ältere Grafikkarten aufgeführt. Und dass für mich bessere Schatten, Texturen, o. ä. unwichtig sind, solange der Spielfluss erhalten bleibt.

Denn darin besteht ja doch eigentlich der Sinn eines jeden Spiels.

Ich sehe darin keinen Widerspruch zum Test. Mancher andere aber anscheinend schon.
 
SuperHeinz schrieb:
Ich hatte eigentlich "nur" festgestellt, dass man auch mit weniger leistungsfähiger Hardware das Spiel noch ordentlich spielen kann.

"nur"

SuperHeinz schrieb:
Wenn man hier so die Tests sieht, dann fragt man sich doch: Ist dem Autor der Spielfluss wichtiger oder ist es die Optik, so wie sich die erzeugten Bilder anschauen lassen.

SuperHeinz schrieb:
Erst ab 16 GB VRAM stimmt die Optik für den Autor? Ja, schön für ihn.
 
  • Gefällt mir
Reaktionen: GERmaximus, MoinWoll, msv und 3 andere
Ja, genau das ist doch der Knackpunkt: Hier wird die Technik über den Spielfluss gestellt.

Wichtig sollte doch sein, wie man die vorhandene Technik zum besseren Spielfluss nutzen kann und dass immer mehr nicht gleichbedeutend mit immer besser zu verstehen ist. Das ist mir zu einfach.

Kann mir genauso wenig vorstellen, dass die Spieleentwickler das Spiel so gebaut haben.


Bei den CPU-Diagrammen gibt es ein paar Unstimmigkeiten:
 

Anhänge

  • hm.jpg
    hm.jpg
    122 KB · Aufrufe: 207
Zuletzt bearbeitet:
AYAlf schrieb:
Wie kommt man auf so seltsame Ideen?
Weil es schon mal alles so war. Ist halt kein high fps shooter wo das Sinn hat mmn. Das anno Bsp. Liegt ja auch ehr an der CPU. Das die im endgame überfordert ist. Die ganze engine wohl der Flaschenhals ist. Die niedrigen fps liegen wohl ehr nicht an der gpu. Spiele das Spiel nicht... Aber ich denke 60fps konstant würde locker reichen. Das dieses Spiel für einen Grafikkartenvergleich genutzt wird... Mmh fühlt sich komisch an.
 
SuperHeinz schrieb:
Bei den CPU-Diagrammen gibt es ein paar Unstimmigkeiten:
Meinst du, weil der Abstand größer wird? Das liegt vermutlich an den 8 Threads des 13100, da gibt es bei der Bildausgabe dann ein paar mehr Probleme, was man nicht unbedingt an den AVG-FPS erkennen kann, an den Perzentil-FPS aber schon.
 
SuperHeinz schrieb:
Bei den CPU-Diagrammen gibt es ein paar Unstimmigkeiten:
Was ist denn da unstimmig? 4 Kerne sind halt schwächer als 6 wenn die 4 für sich genommen nicht deutlich stärker sind
 
Zuletzt bearbeitet:
Wolfgang schrieb:
Meinst du, weil der Abstand größer wird? Das liegt vermutlich an den 8 Threads des 13100, da gibt es bei der Bildausgabe dann ein paar mehr Probleme, was man nicht unbedingt an den AVG-FPS erkennen kann, an den Perzentil-FPS aber schon.
Schau mal genauer hin: i7-13100 - i9- 12600K - habe ich im Screenshot extra gelb markiert ;)

PS.: Hier nochmal:
 

Anhänge

  • hm.jpg
    hm.jpg
    122 KB · Aufrufe: 158
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Wolfgang
Vielleicht sollten wir aufhören den Troll zu füttern.
 
  • Gefällt mir
Reaktionen: MoinWoll, msv und rumpeLson
Ja, die Hardware-Anforderungen sind selbst für Blizzard-Verhältnisse recht moderat. Nur der relativ hohe VRAM-Verbrauch überrascht mich etwas: 9GB nimmt sich das Spiel gerne in den höchsten Details. Da hätte ich optisch deutlich darunter getippt.

Bei mir stehen in der Regel 20-30W auf der CPU-Seite und 70-90W auf der GPU-Seite. An der Steckdose 135-150W. FullHD, max Details, 60 FPS. Passt.
 
SuperHeinz schrieb:
Bin selbst PC-Schrauber und lege dennoch nicht Wert darauf, immer nur das Neueste und jeweils Beste in einem PC zu verbauen
Das ist auch völlig o.k. Es hilft einer Diskussion aber wenig, wenn es sich anhört, als solle das auch allgemein so gelten. Dein Standpunkt ist nachvollziehbar und kann für sich stehen. Das gilt aber auch für die überwiegende Mehrheit aller anderen, individuellen Sichtweisen.

Also vielleicht hin und wieder mal loslassen und abweichende Sichtweisen akzeptieren. Macht das ganze Leben etwas entspannter.
 
  • Gefällt mir
Reaktionen: simosh, hans_meiser, Tunaraxx und 4 andere
Ich frag mal blöd in die Runde. Ich hab ne 2080 drin und laufe auf nativer Auflösung WQHD in D4 rum. Bekommt man den DLSS FPS Boost nur durch die Einstellung im D4 Menü oder muss man noch Settings im nvidia Treiber vornehmen? Das mit der Skalierung der Auflösung usw. aus dem Test hab ich nicht so richtig verstanden. Da steht was von Full HD nativ und ober in dem Diagramm steht 4k. Kann mir wer da auf die Sprünge helfen?

Ich nehmen mit, dass wenn ich mit der 2080 und dem kleinen i5 8600k auf WQHD Frame Probleme habe, dann sollte ich den Monitor auf FullHD stellen und DLSS reinklicken. Mehr nicht?

Danke euch schon mal!
 
Versuche es erstmal nur mit der Aktivierung von DLSS im D4 Menü, lass den Monitor auf WQHD.
Wenn die DLSS Quality nicht reicht, kannst du auf DLSS Balance runter, aber Quality sollte schon passen, die 2080 kann doch noch was.
 
myu schrieb:
Ich nehmen mit, dass wenn ich mit der 2080 und dem kleinen i5 8600k auf WQHD Frame Probleme habe, dann sollte ich den Monitor auf FullHD stellen und DLSS reinklicken.
Das ist unkompliziert: Du aktivierst im Spiel einfach das DLSS Preset deiner Wahl. Dabei musst du weder vorab Einstellungen im Treiber vornehmen noch die Auflösung händisch ändern. Die Auflösungsreduktion nimmt DLSS von der nativen Auflösung aus intern vor.
 
Jep, mit der 2080 und ein paar Anpassungen in den Settings sollte das in WQHD rund laufen.
 
DLSS macht seine Sache in Diablo 4 super. Das ist (für mich persönlich) das erste Mal wo ich sage, dass DLSS wirklich super und sauber umgesetzt wurde.

In Bewegung ist es selbst in 4K Ultra noch leicht unschärfer als nativ, aber im Stand sind beide nicht zu differenzieren.

Ein richtig großer Pluspunkt ist die Leistungsaufnahme dank DLSS.

Nativ mit 4K120 Ultra Preset, nimmt sich der gesamte Rechner 400W. (Vsync on).

Mit DLSS Qualität geht der Verbrauch um 70W zurück auf ca. 330W fürs Gesamtsystem.

Das lohnt sich auf jeden Fall. Ich hoffe das Frame Generation bald besser implementiert ist.

Dies ist bisher die schlechteste FG Implementierung in einem Spiel.
 
  • Gefällt mir
Reaktionen: Tunaraxx
t3chn0 schrieb:
Mit DLSS Qualität geht der Verbrauch um 70W zurück auf ca. 330W fürs Gesamtsystem.
Ich liege mit UWQHD und 80FPS bei gerade mal 170-190W aus der Dose.
Hier hat DLSS absolut gesehen natürlich einen kleineren Anteil, nativ sind es ca 30W mehr, also 200-220
 
Wolfgang schrieb:
Das ist leider ein Ding der Unmöglichkeit - der Aufwand dazu ist einfach sehr hoch :(

Ich sehe gerade bei DSR war sie auch noch drin (wenn auch nur unter FHD).
Aber bei RE4R ist nicht mal mehr die RX 6600 enhalten.
Seit die RTX 2060 raus ist, nahm ich diese als Referenz. :heul:
 
t3chn0 schrieb:
Das lohnt sich auf jeden Fall. Ich hoffe das Frame Generation bald besser implementiert ist.
DLSS läuft perfekt aber ich denke frame Generation ist absolut unnötig ..

Bringt kaum einen Vorteil.

Wer mehr FPS will soll dlss aktivieren. Ist zwar schön das frame Generation als Option aktiviert werden kann, macht aber absolut keinen Sinn.
Ergänzung ()

t3chn0 schrieb:
Dies ist bisher die schlechteste FG Implementierung in einem Spiel.
Deswegen sage ich ja. Lohnt sich nicht das zu Aktivieren.



Diablo 4 ist gut optimiert und läuft auch auf alten Kisten gut. Dennoch verstehe ich den hohen VRAM Verbrauch nicht

Das Game sieht jetzt nicht so aus als wenn es 16GB VRAM benötigen würde für 4K.
 
Die Zwischenüberschrift besagt zwar, die Benchmarks zeigten keine Überraschungen. Ich finde aber die gibt es durchaus. Wie erheblich schneller die 4090 als die 4080 ist, z.B. Die 3080 ganze 13 % vor der 4070. A770 fast auf Augenhöhe mit der 6700 XT. Das ist im Mittel über viele Games nicht so ausgeprägt.
 
Man muss wirklich mal großes Lob und danke danke sagen @Wolfgang. Will nicht wissen was da für Zeit reingeflosen ist.
Ich persönlich wollte mir nun die 4070 mit diablo4 holen, aber weiß nicht so recht wegen der 12gb ... nicht dass das einem zum verhängnis wird... siehe auch andere Games.
 
  • Gefällt mir
Reaktionen: Celinna, schneeland, hans_meiser und 2 andere
Zurück
Oben