• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

Test Diablo IV im Technik-Test: 38 Grafikkarten, 14 CPUs und ROG Ally im Benchmark

DKK007 schrieb:
@Wolfgang

Ich würde mir einen Benchmark mit der AMD Radeon RX 5700 XT wünschen. Insbesondere weil die Karte explizit für "hohe Grafikdetails (1080p, 60fps)" empfohlen wird.

Spannend wird auch wie sich die PCIe 4.0 x16 Anbindung im Vergleich zur PCIe 4.0 x8 Anbindung bei der RX 6600 bzw. RX 7600 auswirkt, wenn die 8 GiB VRAM voll sind.

Wenn ich mir die neu im Benchmark hinzugekommen Werte anschaue, scheint sich meine Annahme bestätigt zu haben.
Die RX 5700 XT ist bei den 1% Perzentil FPS in FullHD schneller als die RX 7600, hat also bessere Framtimes. In WQHD zudem auch bei den AVG FPS.
Dabei hat die RX 7600 eigentlich die neuere Architektur und eine etwas höhere Rohleistung.
 
Super Test - ganz vielen Dank, dass auch ältere Grafikkarten mit getestet wurden. Von der 1060 über die 1080 -> das eignet sich sehr gut um die Leistung der aktuellen Karten einzuschätzen.
 
Warum Frame Generation im Alleingang auf dem Testsystem funktioniert und in Verbindung mit DLSS Super Resolution plötzlich nicht mehr, ist zurzeit völlig unklar. Vermutlich handelt es sich um einen Bug im Spiel, der wie sich mittlerweile herausgestellt hat, nicht nur das Testsystem der Redaktion betrifft.

Hier gibt es eine ganze Einfache Erklärung: Der Overhead ist zu groß.
FG hat jede Menge Overhead pro Pixel. Wenn man es mit CP2077 Pathtracing oder ähnlichen Dingen zu tun hat spielt das keine Rolle. Aber bei leichterer Kost ist der Overhead für das Upscaling größer als der Aufwand das Bild gleich normal zu berechnen.
Native ist der Aufwand der normalen Berechnung des Frames noch etwas höher als FG. Da schaut noch eine kleine Frameratensteigerung heraus.

Das ist genau derselbe Effekt, den wir auch schon z.B. mit FSR 2 auf alten GPUs gesehen haben wenn man mit Low/Medium getestet hat.

Auf der 4090 zeigt sich genau das Gleiche Bild, da sich die Situation nur etwas verschiebt:
Sowohl Upscaling als auch Native Berechnung geht hier doppelt so schnell.

So und jetzt wisst ihr auch warum Nvidia die 4060 Ti als 1080p Karte mit Ultra RT vermarktet. Unter 1440p ohne RT oder 4K Medium kann man DLSS3 derzeit vergessen.
 
DKK007 schrieb:
Dabei hat die RX 7600 eigentlich die neuere Architektur und eine etwas höhere Rohleistung.
Das liegt wohl am Treiber:

Dass die neue Radeon RX 7600 (Test) 6 Prozent langsamer als die Radeon RX 6650 XT ist, liegt vermutlich eher am genutzten Treiber Adrenalin 23.5.1, denn den für Diablo IV optimierten Adrenalin 23.5.2 gibt es für AMDs neue Einsteiger-GPU noch nicht – so etwas sollte nicht passieren.
 
Vielen Danke für das benchen mit Vega64 & gtx10X0 Karten :)
 
  • Gefällt mir
Reaktionen: jdiv
Wolfgang schrieb:
Zwischen 12 und 16 GB gibt es in UHD, ganz gleich ob Upsampling genutzt wird oder nicht, einen Unterschied.
Ok danke für die Klarstellung. Dann werde ich am 4K TV die Details etwas reduzieren. Sollte aber bei einem Sitzabstand von knapp 3 Meter nicht zu sehr auffallen ;)
 
Denke mal FG wird erst relevant und richtig funktionieren wenn RT implementiert ist und die Grafikleistung dementsprechend massiv steigt.
Bis dahin braucht FG keiner der ne Karte hat die das unterstützt.
 
andr_gin schrieb:
Hier gibt es eine ganze Einfache Erklärung: Der Overhead ist zu groß.
FG hat jede Menge Overhead pro Pixel. Wenn man es mit CP2077 Pathtracing oder ähnlichen Dingen zu tun hat spielt das keine Rolle. Aber bei leichterer Kost ist der Overhead für das Upscaling größer als der Aufwand das Bild gleich normal zu berechnen.
Native ist der Aufwand der normalen Berechnung des Frames noch etwas höher als FG. Da schaut noch eine kleine Frameratensteigerung heraus.
Ich halte das immer noch für nicht schlüssig.
Nicht das Argument an sich, das ist schon stimmig. Aber warum passiert das jetzt gerade in Diablo IV? Ich habe FG schon in Spielen mit deutlich mehr FPS genutzt und so etwas habe ich noch nie bemerkt. Also warum ausgerechnet in Diablo IV?

Zumal es halt auch gleich ist, ob eine RTX 4070 oder eine RTX 4090 im Rechner ist, die karten verhalten sich genau gleich. Das müsste sich dann ja eigentlich ändern, weil die Rechenleistung unterschiedlich ist und sich damit der Overhead verschieben würde. Tut er aber nicht.

Und wenn das wirklich richtig so in Diablo IV ist. Warum gibt es das Feature dann überhaupt? Es ist doch völlig sinnlos so. Es gibt aktuell einen einzigen Usecase, wo FG von Vorteil ist.
 
  • Gefällt mir
Reaktionen: McTheRipper und Mimir
peakyblinder schrieb:
Die Option bei der Installation für die hochauflösenden Texturen gibt's ja nicht nur in einer 4K Auflösung, davon ab werden die meisten die sich eine 3090 geholt haben wohl kaum in Full HD spielen, zumindest wird das bei den meisten nicht das angestrebte Ziel gewesen sein.
 
Falls es wen interessiert

7800X3D, 4090

3840x1600
Ultra settings
DLSS Q + FG

100fps limit
150w CPU+GPU 👌
1686131711060.png


140fps limit
230w CPU+GPU
1686131952399.png
 
  • Gefällt mir
Reaktionen: St3ppenWoLF, simosh, 9t3ndo und eine weitere Person
MIr ist die letzten Tage beim Spielen aufgefallen, dass vereinzelt Texturen nicht mit der vollen Qualität angezeigt werden. An vollem Grafikspeicher kann es eigentlich nicht liegen, den an den Stellen sind die 12 GB meiner RX 6750 XT nur zwischen 8,8 GB und 10,2 GB belegt bei Textureinstellung auf "Hoch".

Screenshot009.jpg
Screenshot010.jpg
Screenshot011.jpg
 
DrFreaK666 schrieb:
Wegen meiner CPU Krücke wären CPU Benchmarks interessant, oder wer nutzt eine A750 mit einer 7950X3D?

Schaue mal in den Benchmark bei PCGH.
https://www.pcgameshardware.de/Diab...arks-Tuning-Tipps-Technical-Review-1421206/3/

Haswell CPUs wie der i7-4770K bzw. i7-4790K oder dein Xeon 1230v3 liegen deutlich zurück.
Das ein neuer 8 Kerner so viel mehr Leistung in Spielen bringt hatte ich bisher auch noch nicht gesehen und hat mich deutlich überrascht.

Wobei man dazu sagen muss, dass man vermutlich trotzdem im GPU-Limit sein wird, wenn man keine nagelneue GPU hat.
 
  • Gefällt mir
Reaktionen: NumbrThirty

Speicherbedarf: Erst ab 16 GB wirklich sorgenfrei​


und welche nVidia-Grafikkarten haben 16+ GB? 3090 4080 4090

"Danke" nVidia und "danke" an eine Presse, die diese Praxis der Gewinnmaximierung seit Jahren wohlwollend begleitet.
 
  • Gefällt mir
Reaktionen: McTheRipper und ShowOff
Pisaro schrieb:
Faktisch gesehen kann DLSS besser als nativ aussehen.
Ist auch ganz normal so und auch logisch. Wenn ich meiner Frau ein Foto mit uns beiden und eines, auf dem ich wegretuschiert bin, vorlege und sie sich mich dann nur vorstellt, sehe ich in zweiterem Fall auch besser aus als in der ersten nativen Darstellung.
Ist zwar schade aber trotzdem der Beweis, daß phantasievolle Herleitung besser als das native Original aussieht...
 
  • Gefällt mir
Reaktionen: iron_monkey
Wolfgang schrieb:
Insgesamt spielt es sich auch mit 12 GB in Ultra HD gut, es ist eben nicht optimal. Mit Upsampling wird es mit etwas Glück ein wenig besser, ist aber auch dann noch nicht optimal (aber eben absolut gut spielbar). Optimal ist es eben erst ab 16 GB. Zwischen 12 und 16 GB gibt es in UHD, ganz gleich ob Upsampling genutzt wird oder nicht, einen Unterschied. Aber nicht optimal mit 12 GB.
Wie kommt ihr zu diesem Entschluss?
Ist es in den Frametimes sichtbar? Oder matschigen Texturen? Prüft Ihr auch die VRAM Nutzung neben der Reservierung?
Ich kann nämlich keine Einschränkungen erkennen mit meinen 12 GB. Die VRAM Nutzung liegt bei mir bei 7-9 GB in UHD.
 
Wir schauen uns Texturen an, achten auf Frametimes und Spielgefühl. Steht so alles im Artikel. Und in UHD schießt die VRAM-Belegung bei richtig großen Grafikkarten auch auf 20 GB hinauf, das bringt einen so nicht weiter. Wie schon geschrieben, man kann derzeit mit klassischen Tool den wirklichen Speicherbedarf eines Spieles nicht auslesen.
 
  • Gefällt mir
Reaktionen: iron_monkey, Celinna, Aduasen und eine weitere Person
Pisaro schrieb:
Ist ja nicht so das GPU´s ein Vermögen kosten würden und man nicht alle 2-3 Jahre wechseln kann.
Solche Aussagen halte ich in Zeiten von GPUs für 1500€ und mehr für gewagt :confused_alt:
 
  • Gefällt mir
Reaktionen: Intruder und Aduasen
Ich zocks in FHD auf Hoch mit 60FPS und FSR aktiv. Ob es was bringt? Kein Plan, aber der PC wurde nicht mehr so heiß wie in nativer Auflösung. Sieht jetzt auch nicht schlechter oder besser aus, aber ich kann entspannt zocken. Rest juckt mich nicht. Für 4k hab ich die PS5 :evillol:
 
Wolfgang schrieb:
Wir schauen uns Texturen an, achten auf Frametimes und Spielgefühl. Steht so alles im Artikel. Und in UHD schießt die VRAM-Belegung bei richtig großen Grafikkarten auch auf 20 GB hinauf, das bringt einen so nicht weiter. Wie schon geschrieben, man kann derzeit mit klassischen Tool den wirklichen Speicherbedarf eines Spieles nicht auslesen.
Ich hatte Wolfgang vorhin schon direkt angeschrieben zum Thema reservierter vs. verwendeter VRAM, schauen wir mal.
Ich nehme an, dass du dich beim benutzten VRAM auch auf mem/process im Afterburner bzw. Riva Tuner beziehst. Sämtliche Tech Seiten reiten gerade auf der VRAM Welle, aber über die Unterscheidung zwischen reserviert vs. genutzt liest man kaum was, ich frage mich, warum das so ist. Sind die Zahlen im Afterburner unzuverlässig bzw. nicht die ganze Wahrheit? Mir scheint, dass hier Klärungsbedarf besteht.
Bei mir geht unter 1600p mem/process auch niemals über 9GB, alles aufgedreht mit Soße und scharf.
 
  • Gefällt mir
Reaktionen: Krazee und wtfNow
Kadett_Pirx schrieb:
und welche nVidia-Grafikkarten haben 16+ GB? 3090 4080 4090

"Danke" nVidia und "danke" an eine Presse, die diese Praxis der Gewinnmaximierung seit Jahren wohlwollend begleitet.
Wohlwollend? Gerade die Presse kritisiert Nvidia doch seit Jahren für leistungsstärkere Karten mit geringer Speicherbestückung und hohen Preisen. Bei kaum einer Karte der 3000er oder 4000er Serie von Nvidia wurde mindestens einer der beiden Punkte nicht kritisiert.

Das Problem ist eher, dass Nvidia trotz aller berechtigter Kritik mit dieser Strategie bislang erfolgreich durchkommt.
 
  • Gefällt mir
Reaktionen: Captain Mumpitz, McTheRipper und Aduasen
Zurück
Oben