• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

Test Diablo IV im Technik-Test: 38 Grafikkarten, 14 CPUs und ROG Ally im Benchmark

Ist wie vieles relativ und eine Frage der persönlichen Prioritäten. Hier haben viele Menschen viele Jahre dran gearbeitet und ich werde eine weit 3-stellige Anzahl an Stunden damit verbringen.
Kino finde ich im Verhältnis teurer, Essen gehen auch.
 
  • Gefällt mir
Reaktionen: Krazee und simosh
Krautmaster schrieb:
weil Stromverschwendung? ^^
-> is schon "ewig" ein 13900K drin übrigens ;) müsste mal updaten.

'Stromverschwendung' und 13900k ist nun auch keine ungewöhnliche Kombination.
 
Habe das Spiel in der ersten Beta getestet. Mit meiner "alten" Kisste ging es ganz gut.
Nun gehe ich davon aus dass man zwischenzeitlich eine kleine Verbesserung erwarten kann.
Kaufen werde ich das Spiel erstmal nicht um mich zu vergewissern.
DAs Spiel ist aber wohl jeden Cent wert.

Ich muss sagen dass die Entwickler einen Hammer job gemacht haben.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Klever und simosh
Menmo schrieb:
Manche verhalten sich halt wie Kühe und werden gerne gemolken, liegt eventuell am IQ
Wow ... Was für ein bullshit.

Ich kauf mir Spiele, wenn und wann ich will. Die 70 oder 90€ alle paar Monate mal tun mir nicht weh. Liegt vielleicht an meinem IQ, dass ich mir das leisten kann ohne groß überlegen zu müssen. 😛

Könnte es günstiger sein, besonders mit den ganzen Microtransactions? Absolut, hab ich auch oft genug gesagt.
Andere versaufen solche Beträge an einem Wochenende. D4 werd ich bestimmt mindestens 100 Stunden spielen.
 
  • Gefällt mir
Reaktionen: Krazee, Klever, Edzard und 8 andere
Menmo schrieb:
Manche verhalten sich halt wie Kühe und werden gerne gemolken, liegt eventuell am IQ
Schade, dass Dein IQ nicht mal im zweistelligen Bereich zu sein scheint, selten so einen Mist gelesen, egal wie man zu dem Spiel steht!
 
  • Gefällt mir
Reaktionen: nicK--
Es gibt NICHTS das günstiger ist in de Unterhaltungsbranche als Videospiele.
 
MMIX schrieb:
Hm, gerade drei Lost-Connection am Stück innerhalb von 30min.
Das war beim Vorabzugang nie vorgekommen. Man merkt, dass immer mehr das Game zocken (können)...

Hier mal Beispiele von mir, wie FSR die Texturen und Welt matt, steif und nicht mehr lebendig wirken lassen:


Mit FSR:
Anhang anzeigen 1364367


Ohne FSR:
Anhang anzeigen 1364368



Mit FSR
Anhang anzeigen 1364365


Ohne FSR:
Anhang anzeigen 1364366


Mit FSR:
Anhang anzeigen 1364369



Ohne FSR:
Anhang anzeigen 1364370



Also in meinem Falle: Wer auch in 3440x1440 zockt und FSR nutzen möchte, meine Empfehlung ist, lasst es aus. Spielt nativ in Ultra Quality wenn Eure GPU samt VRAM das kann.
Oder man schärft mal kurz per Treiber oder Reshade nach. Scheint aber für manche eine Mammutaufgabe zu sein. 💪🏻
 
Hat es den überhaupt ein Grund wieso die RX 6900 XT NICHT in der Liste ist aber alle anderen AMD GPUs schon?
 
Samuelz schrieb:
Oder man schärft mal kurz per Treiber oder Reshade nach. Scheint aber für manche eine Mammutaufgabe zu sein. 💪🏻
Die Bilder sehen mir generell aus als wäre da ohne FSR der Schärferegler viel zu übertrieben eingestellt, das Bild ist ja voll von Überschärfungsartefakten.


MMIX schrieb:
Hier mal Beispiele von mir, wie FSR die Texturen und Welt matt, steif und nicht mehr lebendig wirken lassen:

Der spielinterne Schärferegler ist für jede DLSS/FSR Einstellung getrennt, also wenn du ihn dir für Nativ eingestellt hast und dann auf DLSS/FSR Quality schaltest, geht er auch wieder auf seinen Standardwert.
Und du scheinst ihn nativ sehr weit hochgedreht zu haben.
Deshalb wirkt es weniger scharf, nicht wegen DLSS/FSR.

Schade, dass das dann so hier ohne weiter nachzuforschen gepostet wird, wo man doch offensichtlich sieht, dass die Unterschiede zwischen den Bildern auf keinen Fall nur durch FSR vs Nativ kommen können und auch die Redaktion bestätigt hat, dass FSR und DLSS nicht unschärfer sind.



Hier mal ein Vergleich, ebenfalls in UWQHD aber sogar mit DLSS Performance, also 720p Renderauflösung, beide mit 50% Schärfe
nativ 50%.jpg

dlss p 50%.jpg


Dabei hab ich extra Performance genommen damit man überhaupt einen Unterschied zwischen den beiden Bildern sieht, bei Quality hätte ich auch 2x das gleiche Bild posten können^^
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: C0rteX und MoinWoll
Rubyurek schrieb:
[...] RX 6900 XT NICHT in der Liste [...]

Weil die 6950XT ja auch um 32974230470329% schneller ist und nicht quasi identisch^^

Man kann doch bei quasi baugleichen Grafikkarten die 5% plus minus selbst im Kopf rechnen. Oder einfach den Wert der 6950XT annehmen.
Solche kleinen Leistungsunterschiede sind bei mir eig. Messungenauigkeit.
Ob jetzt (bei 4k) 100fps oder 95 fps in den Balkendiagrammen angezeigt wird - ich bitte euch. Ist doch Wumpe^^

MfG, R++
 
  • Gefällt mir
Reaktionen: McFritte, simosh, denbaschu und 7 andere
Hab mir extra die mittlere Edition geholt damit ich Freitag schon anfangen konnte.
Ja 70 Euro ist auf dem ersten Blick viel Geld, aber ich werde wohl eine lange Zeit beschäftigt sein. Aber das muss am Ende jeder selber wissen.

Hab mir in Escape from Tarkov auch die Edge of Darkness für den vollen Preis geholt und es keine Minute bereut. Hab knapp 1200 Stunden drin versenkt.
 
  • Gefällt mir
Reaktionen: H6-Mobs
Warum sind manche Balken gefadet? - In der Legende steht zumindest nichts.
 
Rubyurek schrieb:
Hat es den überhaupt ein Grund wieso die RX 6900 XT NICHT in der Liste ist aber alle anderen AMD GPUs schon?
Alle anderen AMD GPUs schon? Es fehlen aus den letzten Jahren auch die 6750 XT, 6700 (ohne XT), 6600 XT, 5700 (ohne XT), Radeon VII, Vega 56, RX 590 und alle Karten die älter als die RX 580 sind. Und das hat auch einen einfachen Grund:

Hast Du schonmal 38 mal nacheinander eine Grafikkarte ausgepackt und eingebaut, Rechner verkabelt, Windows gestartet, ggf. Treiber installiert, Spiel gestartet, in 2 bis 3 verschiedenen Auflösungen gebenchmarkt, Daten erfasst, Rechner runtergefahren und entkabelt, Grafikkarte ausgebaut und eingepackt? Kannst Du Dir etwa vorstellen wie lange sowas dauert? Was glaubst Du wie viel Sinn es ergibt dann noch zig weitere Zwischenversionen zu testen, die bis auf 5-10% höhere/niedrigere Taktraten und entsprechende Leistungsunterschiede baugleich sind? Schau in Deinem Fall einfach auf das Ergebnis der 6950 XT und zieh 5% ab.

Zumal man sicherlich auch nicht jede einzelne Grafikkarte der letzten 4 Jahre im Lager hat. Dass es trotzdem 38 Stück geworden sind, ist mehr als beeindruckend.

Diese Kommentare von zig Leuten, dass ihr exaktes Modell nicht dabei ist, obwohl jeweils vergleichbare Karten en masse getestet wurden, kann ich mittlerweile echt nurnoch schwer lesen...
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Krazee, Captain Mumpitz, McFritte und 11 andere
Ist doch wirklich nicht so schwer, nicht getestete Karten über deren Ergebnisse in anderen Tests im Verhältnis zu den hier getesteten Karten einzuordnen.

Oder? Na ja... ist schon eine kleine Transferaufgabe... meine ja nur 🙃.
 
  • Gefällt mir
Reaktionen: MoinWoll
Vigilant schrieb:
Na ja... ist schon eine kleine Transferaufgabe...
Da wundern mich die Rufe nach CPU benchmarks mit kleinerer GPU/höherer Auflösung dann auch immer weniger, wenn die Transferleistung nicht mal dafür ausreicht von einer 6950 auf eine 6900 zu kommen ^^
Ergänzung ()

Biedermeyer schrieb:
Warum sind manche Balken gefadet? - In der Legende steht zumindest nichts.
Springt das nicht ins Auge? Das sind alles Karten, die nicht zur aktuellen Generation gehören
 
  • Gefällt mir
Reaktionen: simosh und MoinWoll
BlazinRyder2 schrieb:
Zocke es in 3440x1440 mit DLAA und FrameGeneration, alles auf Maxed Out, läuft erste Sahne und sieht top aus, erst recht mit HDR! Alles sehr gut umgesetzt.

so isses, versteh die Leute nicht das die nicht DLAA nutzen, sieht man beim Totenbeschwörer richtig gut an den Skeletten das die nochmal besser aussehen als mit DLSS Quality, zudem keine UNSCHÄRFE beim laufen, zumindest ist mir nichts aufgefallen in 4K maxed out. Dazu wer kann FG an und man hat genausowenig Verbrauch wie jemand der mit DLSS spielt
 
Zuletzt bearbeitet:
WTF! mein 10900k und meine 3080ti ist nicht mal in der Liste ......ich brauch einen neuen PC!!! *hust:heul:..........irgendwann !!
Aber mal im Ernst........ich traue Blizzard nicht mehr so schnell.........ich habe immer noch so eine Art Bluthochzeit im Kopf.......alles schön und gut ,und dann schließen sich die Tore hinter einem .
;)
 
Zuletzt bearbeitet:
Celinna schrieb:
so isses, versteh die Leute nicht das die nicht DLAA nutzen, sieht man beim Totenbeschwörer richtig gut an den Skeletten das die nochmal besser aussehen als mit DLSS Quality, zudem keine UNSCHÄRFE beim laufen, zumindest ist mir nichts aufgefallen in 4K maxed out. Dazu wer kann FG an und man hat genausowenig Verbrauch wie jemand der mit DLSS spielt
Wofür nutzt man DLSS wenn man eine RTX 4090 hat?

Ich habe eine RX 480 und werde weder FSR noch DLSS nutzen, weil ich die beste Bildqualität haben möchte. Ich spiele Spiele nur nativ. Wenn es irgendwann nicht mehr geht, kaufe ich mir eine neue Grafikkarte, keine Lust auf hochskalierte Grafik.
 
  • Gefällt mir
Reaktionen: Banker007
Thukydides schrieb:
Ich habe eine RX 480 und werde weder FSR noch DLSS nutzen, weil ich die beste Bildqualität haben möchte.
Die du laut Test mit DLAA bekommst(was du mit ner AMD Karte nicht nutzen kannst).

Darauf folgen DLSS Quality(was du ebenfalls nicht nutzen kannst), dann FSR Quality und danach kommt Nativ.


Also auf deine Frage die Gegenfrage:
Warum will man bei gleichen FPS >30% mehr verbrauchen ohne dass es besser aussieht?
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: simosh, nicK--, Celinna und 2 andere
Zurück
Oben