• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

News Diablo IV: Blizzard gibt finale Systemanforderungen bis 4K bekannt

Man kann zwar mehr als 60 FPS einstellen, aber ich meine irgendwo gehört zu haben, dass einige Animationen an die 60 FPS gekoppelt sind? Mir ist allerdings mit über 100 FPS in der Beta nichts negatives aufgefallen.

Aber selbst mit gelockten 60 FPS sollte man zur mehr Frames keinen großen unterschied merken. Ist ja kein Shooter und man darf die FPS auch nicht mit den Hz vom Monitor gleichsetzen. 60 FPS auf einem 12h Hz Monitor fühlen sich immer noch besser an, als 60 FPS auf einem 60 Hz Monitor.

Ich arbeite auch lieber zu Hause mit 120 Hz, als bei der Arbeit mit 60 Hz... das ist schon ein ziemlicher Unterschied.
 
Blizzard hat entschieden dass alle veröffentlichte Spiele ab 2020 gpu-bound sind. Somit sind teure GPUs erforderlich um die Spiele flüssig erleben zu können :/
Zur Veröffentlichung der Sc2, D3, wc3, D2, D2:LoD, sc1 usw brauchten man damals nur eine leistungsstarke CPU.
 
  • Gefällt mir
Reaktionen: Romanow363 und di26
Auf dem Desktop hatte ich mit einer RTX 3090 in 4K/Ultra mit DLSS Quality durchschnittlich 120 fps.

Das sah dann zugegebenermaßen noch einmal deutlich besser aus als auf dem Steam Deck. ^^
 
  • Gefällt mir
Reaktionen: Sturmwind80
fox40phil schrieb:
das geht gut? auch mit der Steuerung und so?
Das ging sogar ziemlich gut, hatte viel Spaß auf dem SteamDeck mit D4.
 
  • Gefällt mir
Reaktionen: SVΞN und fox40phil
Freue mich schon mit meiner 4090 in 4k 120FPS zu zocken.
Dank DLSS3 sollte die GPU auch unter 200W ziehen.

Ich frage mich ob in der nächsten Beta auch DLSS3 dabei ist.

Sturmwind80 schrieb:
Man kann zwar mehr als 60 FPS einstellen, aber ich meine irgendwo gehört zu haben, dass einige Animationen an die 60 FPS gekoppelt sind? Mir ist allerdings mit über 100 FPS in der Beta nichts negatives aufgefallen.

Aber selbst mit gelockten 60 FPS sollte man zur mehr Frames keinen großen unterschied merken. Ist ja kein Shooter und man darf die FPS auch nicht mit den Hz vom Monitor gleichsetzen. 60 FPS auf einem 12h Hz Monitor fühlen sich immer noch besser an, als 60 FPS auf einem 60 Hz Monitor.

Ich arbeite auch lieber zu Hause mit 120 Hz, als bei der Arbeit mit 60 Hz... das ist schon ein ziemlicher Unterschied.

Es ist einfach die "Flüssigkeit" der Kamera und Animationsn... etc.
Man merkt es im direkten Vergleich sofort, auch in D4.

Wichtig ist es meiner Meinung aber auch die minFPS dementsprechend hoch zu haben.
 
Nero1 schrieb:
Allein, dass jedes Scrollen und Fenster bewegen um einiges smoother ist und Schrift beim verziehen nicht so verschmiert ist ein Segen.
OMG... da gelobe ich doch meine bescheidenen Augen die dafür sorgen das mich das nicht stört oder je gestört hat.

Vielleicht sollte ich doch mal wieder zum Augenarzt obwohl ich vor 2 Jahren noch keine Brille fürn LKW brauchte...

Ich vermute mal eher das man sich an alles gewöhnen kann, wenn man nichts anderes vorher nutzte.
Wenn ich denn mal drölf Hz Bildschirm haben sollte, vielleicht will ich in Zukunft auch nur noch drölf fps haben?!? Wer weiß.
Bis letztes Jahr Frühjahr haben mich die zum Teil 30fps bei diversen Games auch nicht gestört. Habe mich gefreut das diese auf Ultra Settings liefen und ich mich an der Grafikpracht erfreuen konnte.
Abgesehen von der Lärmbelästigung, die ich deswegen erdulden durfte
Ergänzung ()

Sturmwind80 schrieb:
Man kann zwar mehr als 60 FPS einstellen, aber ich meine irgendwo gehört zu haben, dass einige Animationen an die 60 FPS gekoppelt sind?
ja weil glaube die FPS bei einigen Filmsequenzen bis ins Unendliche hoch gejagt sind und wohl RTX 3080Tis gekillt haben. Habe es nur aufgeschnappt gehabt und nicht weiter verfolgt.
 
Khalinor schrieb:
Mit solchen Einstiegskarten sollte man langsam mal lernen die Regler zu bedienen.
Einerseits von Einstiegskarten sprechen, aber im nächsten Atemzug von 20GB Belegung einer 24GB Karte.
Die schwachen Texturen sollten in 4K nicht mehr benötigen als 6GB.
 
  • Gefällt mir
Reaktionen: Romanow363 und Northstar2710
Intruder schrieb:
@NerdmitHerz solche Szenarien habe ich zum Glück nicht. Bin kein Streamer.
Youtube oder Spotify im Hintergrund hat für mein Empfinden fast keine Auswirkungen auf den Speicher und sonstige Programme im Hintergrund... naja die üblichen Verdächtigen halt. Aida und HWiNFO fressen auch nicht Ram wie nur was und Software von Logitech läuft auch mit...
keine Ahnung.

Vielleicht ist es hier genauso wie mit den Games, die sich alles krallen was sie bekommen können nur wenn nichts da ist sich mit dem begnügen, was zugeteilt wurde.

Oft ist es ja im Speicher nur gecacht damit es für den nächsten Aufruf schneller verfügbar ist. ??
Ergänzung ()


nein da hast du natürlich recht 😊

wozu braucht man im HomeOffice und Windows 180hz???
Kommen die Excel Formeln so schnell geflogen oder kann man in Word schneller schreiben?


zu deinnem 1sten zitat:

man muss dafür kein streamer sein, denn ich schaue auch die streams von freunden und/oder leuten die ich selbst folge. jetzt im HomeOfffice bin ich bei 8 von 63,3GB RAM, weil nur VM (+ global protect) offen ist und im hintergrund: spotiy, better discord, software für logitsch mousepad bzw. corsair tastatur, hwinfo. auf meinem gaming-pc wenn ich wieder nutze, dann sieht die auslastung anders aus. bzw. wenn ich feierabend habe und am Office-PC dann das mache wie am anfang geschrieben (ohne gaming) bin ich auch ein wenig höher als 8GB RAM.

zu deinem 2ten zitat:

Ich finde es angenehmer für meine augen, wenn ich 1080p 240hz + 1440p 180hz arbeite. 1x büro arbeiten bei 1080p60 und ich bekomme kopfschmerzen egal ob 4 oder 8h davor. 8h vor meinen monitoren keine kopfschmerzen, hab einige kollegen denen geht es ähnlich nur deren monitore sind nur 144 - 165 hz zu hause.

da die höhere Hz zahl auch durch die VM geschliffen wird hab ich kein Zeilenskipping beim lesen, was in der firma super oft vor kommt.
 
Intruder schrieb:
ja weil glaube die FPS bei einigen Filmsequenzen bis ins Unendliche hoch gejagt sind und wohl RTX 3080Tis gekillt haben. Habe es nur aufgeschnappt gehabt und nicht weiter verfolgt.
Ach waren deshalb am 2ten Tag der Beta die FPS in den Storyszenen auf 24 begrenzt? Ist mir zumindest jedes mal stark negativ aufgefallen wie abgehackt alles gewirkt hat. Richtig unangenehmer Kontrast zu 60FPS Gameplay.
 
schturmyy schrieb:
Krass, dann spielst du ja nichts mehr. Die Publisher heulen sicher weil du nicht kaufst, aufgrund irgendwelcher cringe richtlinien.
Und für diesen Shitpost hier extra nen Account angelegt 👍
 
  • Gefällt mir
Reaktionen: Piep00, MR2007, mixn_mojo und 3 andere
Na da bin ich ja gespannt ob der CB-Test das alles so bestätigt. Werden diesen auf jeden Fall abwarten und dann eventuell sogar mal über ein GPU-Upgrade nachdenken.
 
Selbst auf meinem über acht Jahre alten Laptop ist die Beta problemlos und flüssig gelaufen.
Das sollte also jeder halbwegs aktuelle Reiskocher Easy wuppen können...
 
Ich muss ehrlich sagen, so gut sieht das Spiel nicht aus das es die Systemanforderungen rechtfertigt.
Die Skills nehmen nur minimale Auswirkung auf die Physik der Spielwelt. Es gibt unzählige matschige Texturen, sowohl an den NPCs (sah man in cutscenes, high res, low poly und low res gemixed) und matschige Texturen in der Umgebung (Asche Klumpen in Fakelständern wo kein Feuer brennt), dazu immer wieder dieselben Assets, dazu Dörfer und Städte wo die NPCs tot und leblos wirken und die Gestik (Handlung in ihrem Gewerk) nur unter der Lupe und bei genauem Hinsehen zu sehen sind.

Also puh, es wirkt wieder sehr sehr schlecht programmiert und optimiert.
Zudem auch in den Cutscenes da sah das Original Witcher 3 von 2015 besser aus.
Es muss kein Himmel rendern, nur echt minimal Wetter/Umgebungswitterungs-Effekte gezeigt werden, keine Tiefe, keine Rückwände usw.

Ich werde viele Stunden ins Spiel stecken aber optisch, da sieht man weder das Activision Blizzard ein großer Konzern ist, noch das man da viel Zeit rein gesteckt hat.
Und die Anforderungen sagen jetzt auch nicht „wir haben es so gemacht das alle es spielen können“.
Ne, das sind schon Anforderungen aus der Hölle für diesen Grundsatz.

Das Spiel muss, es muss wirklich spielerisch überzeugen, bei allem anderen wird es nicht die Klasse neu definieren.
 
Jakxx schrieb:
Ich glaube, 2023 ist auf jeden Fall das Jahr, wo 32GB RAM zum Standard werden, wenn es um neue Spiele PC Konfigurationen geht.
Du ich habe spontan am Samstag upgedated auf 32gb DDR4.
Der ist momentan so günstig, da geht das gut.
Bin sogar am überlegen den wieder zurückzugeben und direkt 64gb zu kaufen (2x 32gb).
An dieser Stelle noch mal danke @Hate01 der hat mich nämlich davon überzeugt, dass man ganz entspannt upgraden kann :D

Und die preise für m2 SSDs sind auch verdammt niedrig. Mein board unterrstützt nur PCIe 3 und da kriegt man 1tb von Samsung schon für 56€ (59€ wenn man die entws bessere Evo plus haben will).
Ich habe vor 2 Jahren für meine Samsung PM9A1 512GB (oem version der 980 pro) 78€ gezahlt (gebraucht). ist zwar ne PCIe 4er aber damals hatte ich keinerlei ahnung.
Und selbst ne 4er mit 1tb kriegt man bei kingston für 64€.

Also wenn man jetzt nicht aufrüstet,....
 
nunja, ich hab die beiden betas im märz mit dem pc aus meine rsig, ABEr noch einer 980ti gezockt und es lief beeindruckend gut. bis auf die cutscenes, die meine 980ti gemaxed haben und auf ca 45fps droppten, lief es mit konstanten 60fps ohne auch nur ansatzweise ins gpu limit zu laufen (cpu-seitig zieht es absolut nichts, da reicht locker nen ryzen 1000 ohne jemals unter 60fps zu limitieren). habe es damals mit der 980ti maximiert mit texturen auf medium und fsr auf quality gezockt.

mache mir also nun mit der rtx 4070er keine sorgen, sollte locker maximiert nativ laufen. einziges problem, falls blizzard das nicht in den griff bekommen hat, könnten die maximierten texturen sein. die zogen in den märz betas abnormal viel. bei leuten mit 64gb ram und ner 4090er zogen die maximierten texturen mal eben 21-23gb VRAM und dazu noch 30-36gb RAM.. DAS ist natürlich jehnseits gut und böse, aber ich denke blizzard wird das in den griff bekommen haben. die 3080er hat ja "nur" 10gb vram also sollte es mit 10gb vram dann auch butterweich in 4k laufen mit maximierten texturen. folglich sollte es in 1440p wolh mit 8gb vram locker laufen also sollten meine 12gb so oder so ausreichen :P
 
Das
Intruder schrieb:
wieviele hatten "Diablo 4 run out of memory" in der Beta 😂
selbst ich mit meinem 32GB Ram und der RTX 3090 war davon betroffen und nicht nur einmal.

Da waren erst die 24GB VRAM der GPU voll, dann war mein Arbeitsspeicher voll...
und dann war der Speicher von GPU und RAM schlagartig leer und D4 hat sich verabschiedet.

Wird es ein DLSS 2 für die RTX 30 Serie geben? Hatte das bisher noch nicht so ganz herauslesen können.
lag aber daran das es ein Momery Leak gibt.
Nicht weil das Spiel/Engine wirklich den den VRAM/RAM braucht.
 
  • Gefällt mir
Reaktionen: NerdmitHerz
Ich gucke mir dann gemütlich ein LP/walkthrough an, das muss erstmal bis zu dem Punkt reichen an die Krankheiten weg sind. :p:evillol:
 
Humbertus schrieb:
Ach waren deshalb am 2ten Tag der Beta die FPS in den Storyszenen auf 24 begrenzt? Ist mir zumindest jedes mal stark negativ aufgefallen wie abgehackt alles gewirkt hat. Richtig unangenehmer Kontrast zu 60FPS Gameplay.
glaube FPS Limit im Game wurde von den Sequenzen nicht beachtet wenn ich das richtig verstanden habe. Man muss wohl Systemweit über den Treiber FPS Limit einstellen nur das machen viele ja nicht. Die lassen alles offen und freuen sich über drölf fps und naja...

ärgerlich das sowas überhaupt passieren kann.
Habe viele Games gehabt die in Game mit 60fps eingestellt waren und die GPU leise war und sobald man im Menu war, gab es mehr fps und das Ding hat mich an gequietscht.
Ein Cut von 60fps auf 24fps finde ich auch schon hart. Man hätte einfach die fps der Szenen mit der eingestellten im Game synchronisieren sollen. So schwer ist das doch nicht umzusetzen. Aber anscheinend war kein Limit und festes Limit auf 24 die schnellste Lösung.
 
Nero2019 schrieb:
Somit sind teure GPUs erforderlich um die Spiele flüssig erleben zu können :/
nicht wirklich
Eine 6800XT für 4K Ultra mit allem pipapo sind jetzt keine sehr extremen Anforderungen.
 
  • Gefällt mir
Reaktionen: shaboo und Intruder
Zurück
Oben