• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

Test Diablo IV im Technik-Test: 38 Grafikkarten, 14 CPUs und ROG Ally im Benchmark

MMIX schrieb:
Also in meinem Falle: Wer auch in 3440x1440 zockt und FSR nutzen möchte, meine Empfehlung ist, lasst es aus. Spielt nativ in Ultra Quality wenn Eure GPU samt VRAM das kann.
Meine Empfehlung ist FSR an, da ~100 Watt weniger Verbrauch der 7900XT und einmal Reshade testen.
Startpost vom Sammler, Abschnitt: Bessere Bildqualität für Diablo IV.

Edit am Morgen, Bilder hinzugefügt. Blass=FSR , Farbvoller=FSR + Reshade.

a.png

b1.png b2.png

c1.png c2.png
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Stimpanse und Krazee
Krautmaster schrieb:
alles über 60 FPS ist bei so einem Titel doch eh fürn A.
Struggled dein alter Skylake-X oder warum so ein Kommentar? Wenn ein 120-144 Hz Monitor vorhanden ist, warum nicht mit den entsprechenden FPS zocken? 60 FPS ist längst nicht das Ende der Fahnenstange was die Smoothness anbelangt.
 
  • Gefällt mir
Reaktionen: cosamed, Samuelz, Celinna und 5 andere
Taxxor schrieb:
Danke für die Info, hab fast exakt das gleiche Setting (nur 2550 statt 2520MHz) und ebenfalls UWQHD.

Dann weiß ich schon mal, dass bei meiner 4090 in Diablo die Lüfter aus bleiben werden, denn mein FPS Limit liegt idR bei 80 und die Lüfter gehen erst ab einem Verbrauch von >80W an^^

Du kaufst dir eine 4090 um dann mit max 80 fps zu spielen? Erkennst du den Fehler? :rolleyes:
 
  • Gefällt mir
Reaktionen: iron_monkey und aLanaMiau
peakyblinder schrieb:
Die dümmsten waren ja die 3090 Käufer, da jetzt eine 850€ Graka a la 4070Ti bereits dieselbe Leistung bringt. ^^
Die 3090 besitzt 24 GB VRAM, die 4070 Ti mit 12 GB gerade mal die Hälfte, und der benötigte Speicher bei einigen neuen Spielen ist gerade das was wesentlich ansteigt und mit ziemlicher Sicherheit in Zukunft noch weiter ansteigen wird.
 
  • Gefällt mir
Reaktionen: Intruder und Dai6oro
Das ist auch der Hauptgrund warum ich mir eine 4090 von Asus gekauft habe. Klar ist der Preis übertrieben, aber so habe ich die nächsten Jahre Ruhe und bei Hogwarts ist sie auch sehr nützlich.
 
  • Gefällt mir
Reaktionen: Intruder
eine 4090 ist nützlich in Spielen, sag bloß. Diese Weisheiten hier, herrlich. :daumen:
 
  • Gefällt mir
Reaktionen: Bimmy&Jimmy
SVΞN schrieb:
Ich spiele auch in 4K mit DLSS Quality und fixen 115 fps auf einem LG OLED mit 120 Hz.

Das Spiel läuft mit maximalen Einstellungen absolut butterweich, auch wenn die 24 GB VRAM schon sehr gut ausgelastet werden.

Technisch kann man nicht meckern, wie ich finden.



So ist es und DLSS (aber auch FSR) machen hier einen sehr guten Eindruck. Hätte ich im Vorfeld nicht erwartet.
24GB werden gut belegt?? Und das soll in Ordnung sein? Ich weiß nicht. Kommt mir mächtig viel vor. Wieso braucht es mehr als ein CyberPunk oder Hogwarts Legacy mit Raytracing aktiviert?

Ich glaube ich werde zu alt oder zu geizig für die ganze Geschichte. Grafisch sieht es zwar gut aus, aber SO gut nun auch wieder nicht. Sei es drum, es wird eh nicht besser und wenn morgen eine Graka mit 64gb vram veröffentlicht werden würde, würde es übermorgen ein Spiel geben, dass mindestens 48GB verlangt und aussieht wie Sacred 1 nur mit raytracing halt
 
  • Gefällt mir
Reaktionen: Mimir und angband1
Danke für den Beitrag.
Ich hatte mich schon gewundert, warum D4 bei mir immer mal wieder kurz ne Sekunde stockt, bevor es dann wieder flüssig weitergeht.
Liegt dann halt am fehlenden VRAM meiner 3080.
Gut zu wissen.
 
Finde die VRAM- Diskussion teilweise etwas aufgeblasen.

Es bleibt weiter zwischen effektiv benötigten und belegten/reservierten Speicher zu differenzieren. Wenn das Spiel den kompletten VRAM größerer Modelle belegt und reserviert, ist das halt so. Warum auch nicht? Wird nicht von Nachteil sein. Habe aber bisher von keiner technischen Möglichkeit gelesen, in diesem Kontext den tatsächlich benötigten Bedarf zu ermitteln, bzw. zwischen reserviert und "in Anwendung" zu unterscheiden.

Das mehr Videospeicher nie schaden kann und bei Nvidia damit unnötig gespart wird, steht außer Frage. Ebenso der steigende Bedarf für neue Technik wie RT/PT, DLSS etc., der Karten mit weniger als 12/16 GB als suboptimal dastehen läßt, insbesondere in 4K.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: schneeland, Zwirbelkatz und rumpeLson
Northstar2710 schrieb:
@Backfisch du solltest beim suchen nicht den erst besten Treffer nehmen, und wenn doch dann bitte auch auf die Jahres Angabe schauen. Diablo 3 kam 2012 und bis 2014 wurden deine 15millionen Exemplarer und mehr verkauft.. Du glaubst doch nicht im Ernst, das in den letzten 9jahren kein einziges Exemplar mehr verkauft wurde.

Die Fans warten schon viel länger auf ein diablo4 als auf Zelda.
Für Diablo 4 wurde auch ein massiver Hypetrain durch die Presse gefahren. Die öffentlichen Betas wurden hoch gelobt und und und. Diablo 3 im Vergleich hatte viel Kritik eingesteckt und von Zelda hat man imho kaum was gehört vor Release.
Also ja erwartet wurde D4 schon deutlich.
Würde das schon mit so Sachen wie Cyberpunk vergleichen.
Ergänzung ()

hamju63 schrieb:
Danke für den Beitrag.
Ich hatte mich schon gewundert, warum D4 bei mir immer mal wieder kurz ne Sekunde stockt, bevor es dann wieder flüssig weitergeht.
Liegt dann halt am fehlenden VRAM meiner 3080.
Gut zu wissen.
auf welcher Auflösung, welchem Texturen Setting und mit oder ohne DLSS?
Ergänzung ()

Vigilant schrieb:
Finde die VRAM- Diskussion teilweise etwas aufgeblasen.

Es bleibt weiter zwischen effektiv benötigten und belegten/reservierten Speicher zu differenzieren. Wenn das Spiel den kompletten VRAM größerer Modelle belegt und reserviert, ist das halt so.
Wenn man bei Tests Ruckler feststellt, scheint es wohl tatsächlich auch soviel zu brauchen...
 
hamju63 schrieb:
Ich hatte mich schon gewundert, warum D4 bei mir immer mal wieder kurz ne Sekunde stockt, bevor es dann wieder flüssig weitergeht.
Liegt dann halt am fehlenden VRAM meiner 3080.

Das kann aber auch an den Servern liegen. Aber ich ärger mich auch ein wenig, dass meine 12Gb der 3080ti grenzwertig sind.

Ab und zu habe ich mich schon gewundert, warum teils (kleine) Flächen so matschig aussehen. Gemäss MSI AB werden aber nie mehr als 11GB ausgelastet.
 
MilchKuh Trude schrieb:
Toll. Kanns kaum erwarten dass das in den sale geht. Unter 40 ist es soweit 😉

Öhm, viel Spaß(?) beim Warten. Hat bei D3 Jahre gedauert. Soll jetzt nicht heißen, dass das hier auch der Fall sein sollte. Doch nach so Bombenreviews jetzt hier gar mittelfristige Preissenkungen zu erwarten, ist unrealistisch.

Ragna-Dracaena schrieb:
Wieso braucht es mehr als ein CyberPunk oder Hogwarts Legacy mit Raytracing aktiviert?

Da ist ein Unterschied zwischen "brauchen" und "nutzen". Es gibt generell Spiele, die krallen sich alles an Ressourcen, was geht.

Ich finds jetzt z.B. auch mit 8GB VRAM sehr gut spielbar mit hohen Settings auf 1440p bei 60fps.
 
  • Gefällt mir
Reaktionen: MilchKuh Trude
Krazee schrieb:
Da ist ein Unterschied zwischen "brauchen" und "nutzen". Es gibt generell Spiele, die krallen sich alles an Ressourcen, was geht.

Ist mit dem VRAM eigentlich ganz simpel, ist wie mit Geld... brauchen und nutzen, man braucht überschaubare Mengen zum Leben, nutzen würde man aber auch sofort Millionen, wenn man sie hätte...
 
Pisaro schrieb:
Jetzt bin ich verwirrt. Das heißt DLSS 3 bringt mir optisch gar nichts?
Du hast es erfasst. FG sind nur die "fake" frames, aber es sollte dann wie oben beschrieben anders getrennt werden. Ist aber auch von NVidia schlecht gewählt, FG hat ja mit super sampling nichts zu tun
 
Zuletzt bearbeitet:
MMIX schrieb:
Hier mal Beispiele von mir, wie FSR die Texturen und Welt matt, steif und nicht mehr lebendig wirken lassen
Da stimmt doch irgendwas nicht.
Mit FSR ist das Bild total überschärft und ohne FSR fehlt es dagegen an Schärfe.
Das kann doch nicht nur an FSR ON/OFF liegen.
 
Bei mir läuft Diablo IV soweit sehr gut (rund 60-80 FPS laut dem Metrik Overlay aus dem Radeon Tool).
Dafür hatte ich beim Verlassen von Kyovashad einmal mehr ziemliches Rubberbanding, aber ich hatte da die Einstellungen allesamt nach rechts gequetscht :daumen: (weil ich sehen wollte, ob meine Kiste das packt)

Alles in Allem läuft es bei mir ein ziemliches Stück besser als in den ersten beiden Betas.
Ich ziehe meinen Hut vor Blizzard :smokin:
 
Das Problem ist nicht, dass maximale Texturen viel VRAM brauchen, das Problem ist, dass man mit 8GB oder weniger gleich mit Texturen konfrontiert wird, die gefühlt vor 10 Jahren in Spielen schon besser ausgesehen haben.

Witcher 3 hat damals glaub ich nichtmal 3GB belegt. Ein Crysis kam mit 500 MB aus und da gabs auch nicht viel Matsch.

Ich verstehe ja, dass man heutzutage mehr unterschiedliche Texturen und damit mehr Varianz will und dass der Footprint des restlichen Spiels auch viel höher ist. Aber eine dermaßen schlechte Skalierbarkeit ist einfach nur der Faulheit der Entwickler geschuldet.

Man hat ja zuletzt auch bei Last of us gesehen, wie viel besser die Texturen jetzt mit dem neuen Patch auf der hohen oder mittleren Stufe aussehen. vorher nur Matsch und jetzt Texturen die kaum von der Maximalstufe unterscheidbar sind bei gleichzeitig deutlich weniger Speichervervrauch.

Das mit abstand dümmste ist, wenn Leute sowas dann auch noch verteidigen mit dem Motto „zum glück hab ich 24 GB VRAM und toll dass sie genutzt werden“
Wie bekloppt ist das bitte.
Ich hab 16 GB VRAM und wenn ein Spiel die 16 GB braucht und gut läuft, aber bei einer Stufe niedriger schon aussieht wie ein PS3 Spiel dann ist das einfach Müll.

Aber hier im Forum gehts ja seit Jahren nur noch darum, zu zeigen wer den längeren hat und sich den Kauf irgendwie zu rechtfertigen anstatt mal auf einer logisch, rationalen ebene über die Technik zu diskutieren. Da werden dann lieber die Leute als dumm hingestellt, die nicht 2000€ für ne GPU hingelegt haben, anstatt den Entwickler zu kritisieren. Sorry, aber das ist nur noch peinlich.
 
  • Gefällt mir
Reaktionen: schneeland, Celinna, Ragna-Dracaena und 7 andere
Zinured schrieb:
Was ich nicht verstehe ist folgendes:
Man braucht für 4k Ultra Texturen 16gb VRAM..
Was braucht man aber für 2k Ultra Texturen??
Oder macht das eher der preset"hoch" Sinn??
Hohe Texturauflösungen braucht man nicht nur in hohe. Auflösungen für ein gutes Bild. Den Unterschied zwischen 4K Texturen und 2K kannst du auch in WQHD und FHD sehen.

Deswegen ist VRAM „Geiz“ auch alles andere als toll, weil man Bildqualität ohne Not verliert. Es geht nicht um Beleuchtung und Co, die Rechenzeit benötigen.
Alex1980 schrieb:
Du kaufst dir eine 4090 um dann mit max 80 fps zu spielen? Erkennst du den Fehler?
Und was ist daran der Fehler? Kläre uns mal auf. Man kann eine 4090 auch kaufen, weil man in möglichst vielen Spielen 80 fps erreichen will. Dabei gibt es Spiele, bei denen sich die Karte langweilt und Spiele, die die Karte ausnutzen.

Ich hab meine Karten auch immer auf 72 fps limitiert und es gibt Spiele, da langweilt sich die Karte und in anderen wird sie weitgehend ausgelastet.

Wer seine Karte limitiert, macht keinen Fehler und wer eine super Karte limitiert auch nicht.

Der Fehler liegt in solchen Fällen er bei Leuten wie dir, die denken, das man Highend nur kaufen darf, damit man immer die maximalen fps hat.
Ragna-Dracaena schrieb:
Wieso braucht es mehr als ein CyberPunk oder Hogwarts Legacy mit Raytracing aktiviert?
Cyberpunk 2077 arbeitet als Speil noch relativ klassisch, was die Assets angeht und es gibt viel Redundanz zwischen diesen.

Neuere Spiele - Hogwarts aber auch Diablo 4 sind darauf bedacht möglichst viele Objekte nur einmal zu verwenden. Das benötigt entsprechend Platz.
 
  • Gefällt mir
Reaktionen: Rag9000, V_182 und Vigilant
Vigilant schrieb:
Habe aber bisher von keiner technischen Möglichkeit gelesen, in diesem Kontext den tatsächlich benötigten Bedarf zu ermitteln, bzw. zwischen reserviert und "in Anwendung" zu unterscheiden.
AIDA64 zeigt dir das an z.B. 👍😉
 
  • Gefällt mir
Reaktionen: Vigilant
Zurück
Oben