• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

Test Diablo IV im Technik-Test: 38 Grafikkarten, 14 CPUs und ROG Ally im Benchmark

Man muss aber fairer Seite auch sagen das Entwickler immer häufiger bei der Optimierung schlampen.

Games sehen nicht besser aus als manch AAA ein paar Jahre zuvor aber fressen doppelt so viel Leistung und 3x so viel VRAM.

Natürlich ist Nvidia immernoch greedy.

Aber ab n gewissen Punkt kann die Hardware auch nicht mehr helfen, oder ist unbezahlbar für viele.
 
  • Gefällt mir
Reaktionen: Celinna
Wun Wun schrieb:
Solche Aussagen halte ich in Zeiten von GPUs für 1500€ und mehr für gewagt
Ich persönlich nicht. Klar sind GPUs mit der Zeit teurer geworden. Wenn man jetzt aber alle 2-3 Jahre mal 2k für ne GPU ausgibt sehe ich da kein Problem.

Das ist meine Meinung. Die muss natürlich keiner teilen.
 
  • Gefällt mir
Reaktionen: iron_monkey
Marius schrieb:
Welche Details sollen denn in mehrern Frames in 1k oder 2K da sein, die nativ in 4K nicht da wären!?
Viele
Wenn du in 8 Teilbildern a 4 Millionen Pixeln immer leicht verschoben die Bildinformation berechnest (durch die Bewegungsvektoren weiß DLSS ja auch wohin sich jedes Objekt bewegt), hast du einen Datensatz der 8k entspricht. Das knifflige ist es jetzt die Bewegung der einzelnen Objekte auszugleichen und alles an den richtigen Platz zu bringen.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: Marius
Schlumpfbert schrieb:
Ich hatte Wolfgang vorhin schon direkt angeschrieben zum Thema reservierter vs. verwendeter VRAM, schauen wir mal.
Ich nehme an, dass du dich beim benutzten VRAM auch auf mem/process im Afterburner bzw. Riva Tuner beziehst. Sämtliche Tech Seiten reiten gerade auf der VRAM Welle, aber über die Unterscheidung zwischen reserviert vs. genutzt liest man kaum was, ich frage mich, warum das so ist. Sind die Zahlen im Afterburner unzuverlässig bzw. nicht die ganze Wahrheit? Mir scheint, dass hier Klärungsbedarf besteht.
Bei mir geht unter 1600p mem/process auch niemals über 9GB, alles aufgedreht mit Soße und scharf.
Generell gibt es natürlich einen Unterschied zwischen reserviertem und wirklich genutzten VRAM. Das Problem ist eben, dass man den wirklich genutzten VRAM nicht auslesen kann. Das ist nur mit Entwicklertools von AMD und Nvidia möglich, doch ganz ehrlich: Die verstehe ich nicht.

Wie du richtig sagst, gibt es Tools, die dir explizit den reservierten Speicher eines Spiels anzeigen können. Nur bringt das eben einen auch nicht weiter, es ist eben wieder nur der reservierter, aber nicht der wirklich benutzter Speicher.

Was es dann auch noch gibt: Es gibtr Spiele (Hogwarts Legacy zum Beispiel) die nutzen nie den vollen Speicher (zumindest laut der Anzeige), geraten aber dennoch in VRAM-Probleme. In dem Spiel wird bei der RTX 4060 Ti zum Beispiel etwas mehr als 7 GB adressiert, und man erkennt dann, dass das Spiel andauernd VRAM wieder rausschmeißt und nachlädt bis knapp über 7 GB (und dabei hakt).

Mit den normalen "Consumer-Tools" kommt man bei wirklicher VRAM-Nutzung einfach nicht weiter.
 
MMIX schrieb:
Hm, gerade drei Lost-Connection am Stück innerhalb von 30min.
Das war beim Vorabzugang nie vorgekommen. Man merkt, dass immer mehr das Game zocken (können)...
bei mir habe ich gestern Nacht übelst Probleme mit Rubberbanding und Zurücksetzen bei den Übergängen der Regionen gehabt. Auf "leistungsstarke" Hardware machen die vielen anderen Spieler in der Open World nicht so viel zu schaffen aber bei "leistungsschwacher" Hardware führt das vermehrt zu Ruckeln, Rubberbanding, FPS Drops was bei dem Server Slam oder den Vorabzugang definitiv nicht der Fall war [kann das sehr gut vergleichen denn sowohl neues wie "uraltes schwaches" System stehen gleich nebeneinander]
MMIX schrieb:
Also in meinem Falle: Wer auch in 3440x1440 zockt und FSR nutzen möchte, meine Empfehlung ist, lasst es aus. Spielt nativ in Ultra Quality wenn Eure GPU samt VRAM das kann.
Ich habe mal für dich ein paar Screenshots von diversen Settings gemacht. Allerdings FHD und RTX 3090.
Restliche Settings auf Ultra, wie es vom System vor eingestellt war.

Bei dem Bildausschnitt habe ich maximal herein gezoomt um die Details vom Eis, Wasser und Feuer besser erkennen zu können. Bei dem Eis (Reflexionen) scheinen die Auswirkungen am größten zu sein.

Hier Auflösung 100% ohne jegliche weitere Einstellung von Nvidia DLSS
auflösung 100%.png

im Vergleich dazu Erhöhung auf 200% [höchster Stromverbrauch / Temperatur]
auflösung 200%.png

DLSS Qualität [geringster Stromverbrauch / Temperatur]
DLSS Qualität.png

DLAA Qualität [geringfügig höhere Stromaufnahme als DLSS]
DLAA.png

Ich persönlich sehe nur Unterschiede bei dem Eis und halt das die Texturen im Bereich Wasser/Eis sich bei jedem Wechsel der Einstellung veränderte - der Rest allerdings relativ unverändert blieb.

Denke mal das man unter 4K aufwärts mehr Auswirkungen haben wird.

Seht ihr da noch mehr Unterschiede außer den Reflexionen bei dem Eis/Wasser und ist das so ein großer Unterschied mit der Texturqualität von AMD/Nvidia?
 
  • Gefällt mir
Reaktionen: MMIX und Marius
Alex1980 schrieb:
Du kaufst dir eine 4090 um dann mit max 80 fps zu spielen? Erkennst du den Fehler? :rolleyes:
man kauft sich sicherlich keine 4090 um damit nur max 80 fps zu spielen.

Ich habe mir auch keine 3090 gekauft damit ich "nur" max 60 fps seit über einem Jahr damit spiele sondern weil ich für die nächsten x Jahre Ruhe haben möchte. Mein Ziel ist es die gekaufte Hardware so zu nutzen bis sie kaputt ist. Heute und morgen habe ich Leistung im "Überfluss" in ein paar Jahren habe ich ausreichend Leistung und in 10 Jahren liege ich noch immer gut über den Mindestanforderungen.

So habe ich es die letzten 20 Jahre auch gemacht und bin relativ gut mit der Strategie gefahren.


Aber man kann ja auch sich alle 1 bis 2 Jahre eine neue Karte kaufen die für aktuelle Games gerade ausreichend ist wenn einem das lieber ist.

Btw. vor einigen Jahren hatte man nur 2GB VRAM, dann 4GB, 8GB, 12GB, 16GB, nun 24GB... in ein paar Jahren sicherlich 32GB / 48GB und so weiter und so fort.
Also was spricht dagegen wenn man für die Zukunft vom VRAM her gut gerüstet ist?

Ergänzung ()

Ragna-Dracaena schrieb:
24GB werden gut belegt?? Und das soll in Ordnung sein? Ich weiß nicht. Kommt mir mächtig viel vor.
ist mit Sniper Elite 5 auch nicht anders. Da hatte ich auch schon fast 23GB im VRAM liegen. Wenn der Speicher vorhanden ist, wird einfach alles da rein gelagert was man noch gebrauchen könnte umso späteres eventuelles Nachladen zu vermeiden.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: NerdmitHerz, McTheRipper, Topperharley und 3 andere
Also meine GTX1080 bringt mindestens 60 Bilder in WQHD. Deckt sich mit meinem Betaerlebnis. Mir persönlich reicht das. Wobei meine Ansprüche da nicht extrem sind.

Den ersten Teil Anno 19xx hab ich auch mit cineastischen 24 fps gespielt. Auf 800x600.

Da brauch ich noch nichtmal FSR anmachen 😀

Gruß
Holzinternet
 
  • Gefällt mir
Reaktionen: Intruder
Holzinternet schrieb:
Also meine GTX1080 bringt mindestens 60 Bilder in WQHD.
Die GTX 980 schafft fast konstant 60 FPS in FHD - allerdings FidelityFX Super Resolution 2 auf Ausbalanciert und Voreinstellung auf hoch

für so eine alte Karte mit nur 4GB VRAM recht beeindruckend.
 
  • Gefällt mir
Reaktionen: Holzinternet
IsaacClarke schrieb:
Computerbase,
warum gibt es keine CPU-Tests?
MfG
Mit dem Personal das wir haben muss man sich eben entscheiden, was man genau testen möchte. Wir haben uns für Grafikkarten entschieden, die in Diablo IV auch wichtiger sind für eine gute Spielerfahrung als die CPU.

Mit etwas Glück wird es aber dennoch ein paar CPU-Benchmarks geben :)
 
  • Gefällt mir
Reaktionen: Fab0r, iron_monkey, Celinna und 10 andere
Läuft D4 noch mit der integrierten Vega GPU von einem Ryzen 4680U - also so dass man auf minimalen Settings casual mal ein paar Stunden zocken kann?
Würde mal gerne reinschauen aber nur dafür PC/Konsole zulegen lohnt sich nicht.
 
  • Gefällt mir
Reaktionen: Qyxes
Pisaro schrieb:
Ich persönlich nicht. Klar sind GPUs mit der Zeit teurer geworden. Wenn man jetzt aber alle 2-3 Jahre mal 2k für ne GPU ausgibt sehe ich da kein Problem.

Das ist meine Meinung. Die muss natürlich keiner teilen.
Deine Meinung werden auch nicht viele teilen.
Aber schön für dich dass du genug Kohle hast. Wobei diese Meinung natürlich keiner teilen muss.
 
Schon zu sehe das selbe die alte Dame namens GTX1070TI/1080 in WQHD sich so gut schlägt, sogar schneller als eine rtx3050 oder 2060.

Und ich denke mir FSR2.x kann sicherlich auch was raus holen. Und sogar in 4K spielen sofern der Speicher reicht.
 
guggi4 schrieb:
Die bis auf auf den Takt idente 6950XT ist ja vorhanden
Daran fällt auch mal wieder auf, wie sehr AMD die Nomenklatur der 7000er-Serie verkackt hat.

Ne 69(5)0 XT is hier quasi gleich auf mit ner 7900 XT - so kann man sich auch selbst ins Bein schießen (indem es quasi so aussieht, als seien die alten Karten nur umgelabelt worden). Wäre der Name z.B. 7800 (non-XT), dann würde das zumindest deutlich weniger lächerlich aussehen.
 
cool.. danke für das update. die entwickler haben sich da echt mühe gegeben, dass das game auch auf alten grafikkarten rund läuft
 
Pisaro schrieb:
Wenn man jetzt aber alle 2-3 Jahre mal 2k für ne GPU ausgibt sehe ich da kein Problem.

kommt drauf an, was man mit der alten Karte macht.
Wenn man sie verkauft, dann ist es fast ein Nullsummenspiel (zumindest in den letzten 2-3 Jahren) - da hast Du dann recht.

Wenn man sie im Familienkreis weitergibt, dann geht es ordentlich ins Geld.
 
  • Gefällt mir
Reaktionen: Celinna und Pisaro
@Wolfgang Würde denn Direct Storage dem Problem mit dem hohen VRAM Bedarf entgegenkommen?
Ihr habt ja gerade einen neuen Artikel zu Direct Storage 1.2 online. Denke mir gerade das Thema VRAM Bedarf, was ja hier gerade hochkocht und dann fehlt halt so eine neue Technik ist schon irgendwie etwas Schade.
Mich ärgert dabei auch, dass Raytracing noch nicht drin ist.
 
Wolfgang schrieb:
APUs tun das mittlerweile dynamisch, du wirst je nachdem gar nicht wissen, wie viel Speicher sich die GPU gerade abzwackt.
auch nicht über GPU-Z Sensoren?
 
Soso!
Und so ein Test zu D4.
Dabei wäre es doch generell mal interessant und nicht nur wegen D4. Ich hasse diesen Hype.
 
Zurück
Oben