• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

Test Diablo IV im Technik-Test: 38 Grafikkarten, 14 CPUs und ROG Ally im Benchmark

Anti-Monitor schrieb:
Ich bevorzuge Teil 3, gönne aber allen ihren Spaß mit Teil 4.
je mehr D3 Gamer auf D4 umsteigen, umso mehr werden die D3 Server entlastet, umso besser für die Gamer dort 🙂 Meine komplette Freundesliste ist von D3 nach D4 gewechselt - komplette Freundesliste meiner besseren Hälfte ist von D3 nach D4 gewechselt... gefühlt sind die Server in D3 leer und endlich kann man auch hoch zocken ohne das irgend jemand herum mault, das man Flächenschaden wegen Lags in 2 stelligen Sekundenbereichen ausschalten muss.
 
  • Gefällt mir
Reaktionen: Anti-Monitor und Krazee
Wolfgang schrieb:
Das, was schnell geladen werden muss, muss einfach in den VRAM.
Bekannter von mir hat 48GB VRAM auf seiner GPU und hat davon 24GB als Datenträger umkonfiguriert. Geniale Geschwindigkeit was man darüber realisieren kann.

Wer weiß... vielleicht wird irgendwann auch der RAM oder die Laufwerke auch mit so schnellem Speicher ausgestattet sein, wie man sie heute bei Grafikkarten hat.

Auf jeden fall vielen Dank für die Arbeit und den Bericht @Wolfgang. Sehr interessant gewesen. Vor allem wo wir gerade überlegen, ein zweites System doch vorzeitig aufzubauen. Da kann man gleich gucken was für eine GPU reicht oder ob man doch was besseres holt (Preis/Leistung/Zukunft Sicherheit etc (geplante Laufzeit bis Karte defekt))

Ergänzung ()

peakyblinder schrieb:
Die Non Ti ist eine schrecklich schlechte Karte.
die ein vielfaches besser ist als alles was langsamer ist und weniger VRAM hat, als eine 4070 🙂
 
  • Gefällt mir
Reaktionen: andi_sco
@SavageSkull , Ja ich weiß es, es sieht dann halt nur wie Frisch gewaxt aus, wenn ich mit der Taschenlampe auf meinen Küchenboden Leuchte dann sieht es genauso aus^^ Frisch gewischt und noch etwas feucht.
 
haudegen84 schrieb:
Hallo,

Vielen Dank für den Test - gerade bei einem Spiel wie Diablo wäre es schön gewesen, ältere Hardware in den Benchmarks zu sehen.
Naja, selbst die schnarch langsame RX 6400 ist dabei...
Und irgendwo muss man eine Grenze ziehen, was den Aufwand betrifft
 
  • Gefällt mir
Reaktionen: schneeland
RigoMD schrieb:
Warum der Artikelverfasser aber auf die Idee kommt zu schreiben, dass das Spiel mit DLSS besser aussieht als Nativ kann ich nicht nachvollziehen...
Weil bei DLSS 2 und FSR 2 mehr Pixel vorhanden sind, als beim nativen Rendern. Bei der nativen Auflösung gibt es pro Pixel genau 1 Sample. Bei DLSS/FSR kommen pro Pixel jedoch mehr Samples zum Einsatz, je nachdem, wie viele Frames zur finalen Generation genutzt werden.

UHD nativ wären es 3840 × 2160 also 8,2 MPixel. Bei DLSS/FSR wird die Auflösung reduziert - z.b. 2560 × 1440 also 3,6 MPixel, gleichzeitig fließen jedoch mehrere Frames in das Bild - alle wieder mit 3,6 MPixel. Kommt der Frame selbst + ein vergangener Frame (also 2 Frames) ist man bereits bei 7,2 MPixel, wird ein zweiter vergangener Frame hinzugezogen, ist man bei 10,8 MPixel - also hat man schon 1,3 Sample pro Pixel, statt eben nur 1 Sample. Bei 3 Frames in der Vergangenheit erhöht sich es dann auf 14,4 und damit auf 1,75 Sample pro finalen Pixel.

Zum Tragen kommt hier dann auch, wenn zwischen den Frames ein "Versatz" ist, sind mehr wirkliche Daten vorhanden, als wenn fest nur mit einem Raster gerechnet wird.
Pisaro schrieb:
Faktisch gesehen kann DLSS besser als nativ aussehen
Das zu erklären ist nur leider sehr schwer, weil man hier sich mit Mathematik befassen muss und ebenso, dass alleine beim Raster in nativer Auflösung eben Details "verloren" gehen, die in den anderen Bildern aber da sind, weil das neue Raster eben immer leicht verschoben ist.
Shelung schrieb:
Games sehen nicht besser aus als manch AAA ein paar Jahre zuvor aber fressen doppelt so viel Leistung und 3x so viel VRAM.
Beim VRAM kommt es halt darauf an, wie die Spiele aufgebaut sind und wie viele Assets einmalig oder eben mehrmalig verwendet werden.

Die VRAM-Auslastung bei modernen Spielen steigt nicht unbedingt dadurch, dass die "Details" besser werden oder man schlechter optimiert, sondern zum Teil daher, dass in modernen Spielern immer weniger Assets mehrfach verwendet werden, sondern immer häufiger Objekte einmalig verwendet werden.
Wolfgang schrieb:
Das ist nur mit Entwicklertools von AMD und Nvidia möglich, doch ganz ehrlich: Die verstehe ich nicht.
Mit den Tools alleine ist es an der Stelle auch nicht getan. Klar, man kann zwar die Tools anwerfen, der Aussagewert ist nicht mehr verständlich. Solche Tools verwendet man in der Regel mit den Spielversionen, die ein Debug-Layer enthalten und damit auch entsprechend Informationen vorhanden sind. Ich glaube aber kaum, dass ihr entsprechende Versionen bekommt.

Daher: Schön zu sehen, aber ohne entsprechende Informationen kann man da schnell falsch liegen.
SavageSkull schrieb:
Würde denn Direct Storage dem Problem mit dem hohen VRAM Bedarf entgegenkommen?
Kurze Antwort: Nein.

Lange Antwort: DirectStorage sorgt dafür, die Daten nicht mehr über den Umweg CPU+RAM in den GPU-VRAM geladen werden, sondern dass die Daten direkt in den VRAM geschaufelt werden können und dort entsprechend entpackt werden. Die Daten benötigen dennoch eine gewisse Menge an Speicher. Wenn ein Frame mehr Daten benötigt, als im VRAM passen, müssen diese Daten nachgeladen werden und der Zugriff auf die SSD ist dann viel zu langsam, egal ob per DirectStorage oder den Umweg über die CPU.
 
  • Gefällt mir
Reaktionen: Rag9000, Vigilant und Wolfgang
peakyblinder schrieb:
In etwa so:
3070 = 2080Ti (wobei die 3070 mittlerweile drüber liegt)
4070Ti = 3090 (nur in 4K überholt die 3090 die 4070Ti)
5070/Ti = 4090 (Spekulation weil seit 2 Generationen es eben der Fall war!)

Bei der Spekulation ignorierst du aber eben den enormen Abstand zwischen 4080 und 4090.

3090 und 3080 waren sehr nah beieinander, 2080 und 2080Ti genauso.

Dadurch war es leicht für die nächste 70er, diese Karten einzuholen, bei der 4090 wird das deutlich schwerer, denn eine 5070 müsste dann ~70 % auf eine 4070 drauflegen.


Und das ist der Wert mit dem man eher arbeiten sollte, wie viel hat sich von xx70 auf xx70 verändert und ist davon auszugehen, dass es von 4070 auf 5070 70% werden?

970>1070: ~50%
1070>2070: ~30%
2070>3070: ~50%
3070>4070: ~30%
4070>5070: ???
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Celinna und Buggs001
Intruder schrieb:
Bekannter von mir hat 48GB VRAM auf seiner GPU und hat davon 24GB als Datenträger umkonfiguriert. Geniale Geschwindigkeit was man darüber realisieren kann.
Wo bringt es denn etwas?
 
Ich kann mir zeitlich jetzt nicht den ganzen Thread durchlesen - es wurde vermutlich bereits mehrfach geäußert. Heidewitzka: Finde den Technik-Check einfach nur Hammer gut, mega ausführlich und jetzt gar mit 38 Grafikkarten bis runter zur 1060!

Deshalb bleibe ich sowas von bei meinem Abo. Echt mal. Super Arbeit!!!
 
  • Gefällt mir
Reaktionen: EmilEsel, Holgmann75, Pleasedontkill und 2 andere
aldaric schrieb:
Ist doch bei der 3060 Ti und 4060 Ti nicht anders.
Good catch! Das is mir noch gar nicht aufgefallen.
 
Ich hab nen 4090 rtx und zocke auf 2K. Soll ich jetzt DLSS aktivieren oder nicht ?
 
Blublah schrieb:
Wenn die Zeit für eine Frame-Generierung bei DLSS3 länger braucht als einen nativen Frame zu generieren, dann sinkt die Performance mit DLSS3. Wenn man DLSS2 benutzt, sinkt ja die durch die niedrigere Auflösung die Zeit für die Generierung des native Frames, aber die Zeit für den DLSS 3 Frame bleibt gleich, da er in der Zielauflösung generiert wird (darüber bin mir aber nicht sicher aber wenn er in der DLSS2 Auflösung generiert wird müsste er auch noch durch das DLSS2 upscaling).

Bei 200fps native (bzw in DLSS2) z.B. braucht es nur 5ms um einen 'echten' Frame zu erzeugen. DLSS3 braucht da evtl schon länger.
Vielleicht liegts aber auch an etwas anderem
Das wäre das Paradebeispiel gewesen für DLSS3 FG.
Hier hätte man mit wenig bis keine Nachteile auftrumpfen können. Reaktionszeit wäre nicht so wichtig gewesen für das Spielgefühl.
 
Also der Unterschied 2070 zu 3060 ist schon hart. Liegen die nicht Leistungstechnisch eigentlich ziemlich nah beieinander?
 
Wenn die Entwicklung so weiter geht kann man in spätestens 2 Jahren alle Grafikkarten mit 12 GB VRAM oder weniger nicht mehr zumindest für Spiele mit High-End Grafik nutzen, momentan ist das noch kein so großes Problem wird sich aber drastisch ändern. ^^
 
Wolfgang schrieb:
Wo findest du denn was negativ am Text?

Da war auch nichts zu finden xD

War doch absolut ausgewogen und griff alle Punkte rund ums Spiel gut auf. Die Positiven sowie die Befürchtungen der Leute. Diese Befürchtungen, die jetzt nun mal viele Leute berechtigterweise haben, als persönliche Negativpunkte des Authors auszulegen, ist - also ich ringe gerad um das richtige Wort - unfair.

Topperharley schrieb:
Raitracing ist überbewertet, mehr Glitzer und Leuchten macht das spiel nicht wirklich "Schöner" es sieht dann nur aus als hätte jemand die Böden und Wände Frisch gewaxt^^

In gewissen Situationen kann das schon cool aussehen. Wenns Performance-mäßig besser wird, wäre ich irgendwann auch dabei. Sehe immer noch nicht ein paar tiers höher zu gehen nur wegen dem Feature. Zumal die Implementierung von Spiel zu Spiel auch extrem schwankt. Hauptsache damit kann geworben werden - so kommt mir das vor. Da find ich in D4 ganz gut, dass sie es nicht gleich gebracht haben. Dann lieber erst wenn es rund läuft. Das ist mal ein Ansatz, den ich mir auch von anderen Studios wünsche.

Topperharley schrieb:
Da gefallen mir "Persönlich" die kleinen aber Feinen Dinge an den Texturen, oder eben vollbebackte Bücheregale wie bei D4 zb. viel besser als Funkel Funkel. Oder bessere NPC KI denen man bei ihrem Tagesablauf zusehen kann , wie bei RdR2 ^^ da hat mir einer in der Wildniss ne Karte verkauft , der ist dann mit seinem Esel ind die stadt galoppiert und hat dort an der Bar einen gehoben bis er wieder aufbrach weiter karten zu verkaufen , xD Lange Rede, Kurzer sinn ^^ RT ist mehr Funkel und das wars .

Stimme dir zu, doch sag ich mir auch: why not both? ^^

Sind ja alles unterschiedliche Abteilungen. Die Grafikleute werden sicher jetzt nicht unbedingt an der KI arbeiten und umgedreht.

Als ich gestern in D4 durch war, hab ich die Credits mal bis zu Ende durchlaufen lassen. (Tradition beim ersten Playthrough). Die Menge der Leute, die da arbeiten und irgendwie beteiligt sind/waren, ist schon echt heftig und auch die schiere Unmenge an Abteilungen weltweit. Würde gern wissen wie lang die Entwicklung dauerte und wie teuer das war. Da müssen zich Millionen Stunden Arbeit drinnen stecken.
 
Mir kommen die 4070 TI werte zu niedrig vor. in full HD und wqhd müsste die Karte locker auf 3090 TI Level sein wie sie es auch in anderen Spielen ist. Die Differenz zwischen den beiden karten macht mich skeptisch.

1686143844755.png
 
Zuletzt bearbeitet:
J Natürlich sieht mit RT alles etwas Edler und Cooler aus, ich mein halt nur, da gäbe es noch viel mehr andere Sachen was spiele optisch Aufwerten würden.
 
Wozu braucht man für d4 mehr als 60fps?
Für die Stromrechnung etwa?
Bei mir ist limitiert und die 2080 schafft diese durchgehen stabil inkl DLSS quality und ultra settings in wqhd
 
  • Gefällt mir
Reaktionen: mibbio
Noch letzten Monat habe ich mich geärgert, dass ihr keine älteren GPUs testet, um seine eigene GPU im Vergleich zu heutigen bewerten zu können. Aber jetzt zumindest für ein Spiel, richtig toll! Das bietet nach kurzer Recherche auch keine andere Redaktion.😊

Meine grobe Formel lautet, bei 3x Leistung lohnt ein Upgrade auf die neue Generation.😁
 
Zurück
Oben