• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

Test God of War im Test: Benchmarks und DLSS/FSR-Vergleich zur PC-Version

Apocalypse schrieb:
und im Testen waren ja von was? 30-50% mehr FPS die Rede mit der Playstation Grafik?
über 80% in 1080p und noch ~50% in 4K
 
  • Gefällt mir
Reaktionen: Apocalypse
Dann muss ich mir ja nicht mal mit meiner RX580 sorgen machen.
 
  • Gefällt mir
Reaktionen: Tritom73
projectneo schrieb:
Der Unterschied in der Grafik ist extrem gering und betrifft quasi nur die Schatten. Nur ist eben die Frage wieso sich die FPS am PC wegen ein paar Schatten halbieren und vor allem, sieht das Bild der PS5 nur anders aus, aber nicht schlechter. Die PC Version hat scheinbar weder mehr Details, bessere Texturen oder Effekte. Es sind nur die Schatten, sonst nichts. Das finde ich dann schon etwas schade nach 3 Jahren.

Ich habe die Vergleiche alle schon gesehen und die PC-Version ist schon um einiges schärfer. Aber die Kosten, die man aktuell tragen muss um das bisschen bessere Optik zu haben ist halt nicht schön. Eine RTX 3080 hat eine UVP von 699/719€ und nach einem Jahr wäre sie unter normalen Umständen schon längst auf 500€ runter gefallen. Eine 3060 gäbe es stellenweise ab 249€, eine 1660Ti für 150€. Keiner würde sich dann beschweren, dass es sich um einen schlechten Port handelt, weil man mit einer 250€ GPU nicht in UHD spielen kann und WQHD auch wackelt. Es wäre halt einfach in Ordnung. Wenn man für die Mittelklasse aber schon 1000€ ausgeben darf sieht man plötzlich nicht mehr ein, warum ein 3 Jahre altes PS4-Game so "unrund" läuft, wobei ich die Performance i.O. finde.
 
  • Gefällt mir
Reaktionen: rojadesign, Tritom73 und Gesualdo
Gameplay in 21:9 und M/T

Warnung: massive Spoiler!


Im 3DC wird außerdem von von einem Speicherleck gesprochen den das Spiel derzeit hat und der erst nach gewisser Zeit auftritt, je nachdem wieviel VRAM/RAM man hat.

https://www.forum-3dcenter.org/vbulletin/showthread.php?p=12895643#post12895643
Das ist übrigens zweifelsfrei falsch. Ich habe das Spiel nun 15 Stunden mit einer Radeon RX 6600 (die hat 8 GiByte) mit FSR gespielt und da geht's mit steigender Spielzeit stetig bergab - inklusive Speicherleck und Absturz. Das hatte ich mit 32 GiByte RAM noch nie. Das passiert bei 25-Sekunden-Benchmarks nicht, aber beim Reisen im "echten Spiel" mit Gewissheit.
Dafür wird hoffentlich alsbald ein Fix kommen.
 
  • Gefällt mir
Reaktionen: rumpeLson und Markenprodukt
ACG hat in seinem Review auch erwähnt, dass nach Stunden Popins und kurze Ruckler auftreten. Das mag wohl ebenfalls damit zusammenhängen.
 
  • Gefällt mir
Reaktionen: timmey77
qu1gon schrieb:
Mal eine rein informelle Frage... wieso testet man mit der quasi teuersten Gaming-CPU?
Mein Hintergrund zur Frage: Ich denke der größte Teil der Spieler hat eine günstigere CPU.
Wäre es da nicht näher an der Realität einen 5600X/5800X (als Beispiel) zu nehmen.
Ist zwar schön zu sehen was das Maximum ist, aber wie gesagt, was bringt es wenn die meisten wohl keine aktuelle nonplusultra CPU haben.
Das sage ich schon seit Jahren!

Ich schau mir das an und schätze wie performt mein System.

Das interessiert die Tester nicht. Sie wollen hypothetische Werte," kein CPU limmit oder kein GPU Limmit", sagen Sie.

Schade um die viele Mühe. Die Qualität mag stimmen die Nutzbarkeit ist halbazig.
Wieder muss ich auf Youtube einem GTX1080 Besitzer beim spielen zusehen um mir ein Bild zu machen.

:mussweg:
 
  • Gefällt mir
Reaktionen: qu1gon und gidra
Pleasedontkill schrieb:
Das interessiert die Tester nicht. Sie wollen hypothetische Werte," kein CPU limmit oder kein GPU Limmit", sagen Sie.

Schade um die viele Mühe. Die Qualität mag stimmen die Nutzbarkeit ist halbazig.
Das interessiert Tester völlig zurecht nicht. Natürlich muss man bei nem GPU Benchmark aus dem CPU Limit rauskommen.

Sonst hat man ja nicht die GPUs getestet, wenn die von der CPU ausgebremst werden.

Wenn - hypothetisch - alle GPUs bei 40fps ins CPU Limit rennen, ja was hast du dann von dem Benchmark? Gar nichts, weil die GPUs dann nicht ihre volle Leistung ausfahren konnten.

Wenn du die Leistung deines Systems mit deiner CPU sehen willst, dann schau dir an, was die GPU in dem Spiel schafft und dann was die CPU in dem Spiel schafft. Davon nimmst du die kleinere Zahl, dann hast du das Limit, welches dein spezifisches System schafft.
 
  • Gefällt mir
Reaktionen: Bright0001 und Apocalypse
Nun das leiße sivh einfach feststellen indem man die schwächste cpu nimt die derzeit im umlauf ist den bench macht mit gpu load dazu
Und das hat man sowieso bei den programmen msi afterbuner mit general logview oder einfacher mit capframex
Was dann so aussieht
1642119537580.png


1642119795211.png


Selbe bzw zeitgleich aufgenommen
Wie man sieht hab ich selbst mit dem 3800xt schon mit der rtx3060 ein cpu limit in farcry 6 addon.
zwar knapp aber vorhanden.
Und das hauptspiel ist noch stärker im cpu limit
 
@Wolfgang
Statt einmal „E“ für Respekt zu drücken
Das fiel mir gerade noch auf. Meintest du vielleicht "F", passend zum Meme? Ansonsten verstehe ich hier vielleicht etwas nicht :)

Nachdem ich mir nun übrigens den Artikel komplett durchgelesen habe (und nicht nur die Benchmark-Werte studiert habe), muss ich sagen, dass ich schon richtig viel Lust auf das Spiel habe und selbstverständlich auch in "Original-Grafik" spielen würde - die ja alles andere als schlecht aussieht.
 
  • Gefällt mir
Reaktionen: Captain Mumpitz

8 GB VRAM ist für alle Lebenslagen genug​

8 GB VRAM sind für God of War inklusive Ultra HD ausreichend. Das Spiel adressiert stellenweise zwar teils deutlich mehr, der zusätzliche Speicher scheint aber nicht wirklich benötigt zu werden, zumindest konnte die Redaktion keine Leistungs- oder Grafikprobleme in dem Fall feststellen. In Full HD sind auch 6 GB Speicher auf der Grafikkarte für volle Texturdetails genug.




@Wolfgang

Kleiner Hinweis von einer anderen Publikation..

https://www.forum-3dcenter.org/vbulletin/showpost.php?p=12895643&postcount=114

Raff;12895643 schrieb:
Das ist übrigens zweifelsfrei falsch. Ich habe das Spiel nun 15 Stunden mit einer Radeon RX 6600 (die hat 8 GiByte) mit FSR gespielt und da geht's mit steigender Spielzeit stetig bergab - inklusive Speicherleck und Absturz. [...] Das passiert bei 25-Sekunden-Benchmarks nicht, aber beim Reisen im "echten Spiel" mit Gewissheit.

MfG
Raff


dargo;12895647 schrieb:
Lol... schon wieder Speicherlecks? Was treiben die DEVs da? :freak:


Raff;12895650 schrieb:
Mit der RTX 3090 hatte ich das Problem übrigens nicht, trotz 4K nativ. Insofern kann man das Problen durchaus mit Hardware erschlagen (oder zumindest so arg hinauszögern, dass das Spiel selbst bei langen Sessions nicht kollabiert). :ugly:




Eventuell sollte man das mit 8GB VRAM reicht in allen Lebenslagen wie üblich nicht von einem 25 Sekunden Benchmark abhängig machen.
Es sei denn Du konntest die Beobachtung von Herrn Vötter bei längeren Sessions nicht nachvollziehen.
 
  • Gefällt mir
Reaktionen: Tagesmenu und DJMadMax
DJMadMax schrieb:
@Wolfgang

Das fiel mir gerade noch auf. Meintest du vielleicht "F", passend zum Meme? Ansonsten verstehe ich hier vielleicht etwas nicht :)
Das stammt aus dem Teil von @AbstaubBaer , da kann ich dir jetzt leider nichts zu sagen.

johnieboy schrieb:
Im 3DC wird außerdem von von einem Speicherleck gesprochen den das Spiel derzeit hat und der erst nach gewisser Zeit auftritt, je nachdem wieviel VRAM/RAM man hat.

https://www.forum-3dcenter.org/vbulletin/showthread.php?p=12895643#post12895643

Dafür wird hoffentlich alsbald ein Fix kommen.
Konnte ich beim längeren Spielen am Stück (um die 4, 5 Stunden) jetzt nicht nachvollziehen. Ausschließen will ich es aber auch nicht, mir ist nur nichts diesbezüglich aufgefallen.
 
  • Gefällt mir
Reaktionen: sethdiabolos und DJMadMax
IGN hat übrigens ein recht ausführliches Vid mit Performance ratings und optimalen Settings veröffentlicht:


Bereits das Reduzieren weniger Settings boostet eine 6800 auf nativem 4K von 55 auf über 60fps, ohne dass man an visueller Qualität einbüsst.


Hier sieht man ab 4:31 Gameplay und Analyse mit einer Midrange-Kiste (1660Ti)


Somit scheinen 60fps auf Midrange Karten machbar, unter Original Presets.


Eine RX570 wiederum schafft knapp über 50fps

 
  • Gefällt mir
Reaktionen: MegaDriver, Czk666, Tuetensuppe und eine weitere Person
muss ich wirklich das spiel kaufen um zu beweisen das irgendwas am cpu limit ist
Die grenze zwischen einer cpu mt cb110 und cb170 und ner apu mit 1,8tf vs 4,1tf bis 29,8tf am desktop
und da soll nur 28-103fps auf 1080p sein
Das schreit nach cpu limit bzw bandbreitenlimit
irgendwas blockiert hier den durchsatz
 
Artikel-Update: Wie mehrfach von der Community gewünscht, hat ComputerBase weitere Grafikkarten-Benchmarks mit der original PlayStation-Grafik durchgeführt. Wenig verwunderlich zeigt sich, dass diejenigen, die auf die verbesserte PC-Grafik verzichten, keinen High-End-Beschleuniger für hohe Frameraten benötigt. Selbst mit einer GeForce GTX 1060 oder Radeon RX 580 ist God of War dann noch spielbar, wenn auch nicht optimal.

Bei den neu hinzugefügten Grafikkarten handelt es sich um:
  • AMD Radeon RX 580
  • AMD Radeon RX Vega 64
  • AMD Radeon RX 5700 XT
  • AMD Radeon RX 6700 XT
  • Nvidia GeForce GTX 1060
  • Nvidia GeForce GTX 1080
  • Nvidia GeForce RTX 2060
  • Nvidia GeForce RTX 2070 Super
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: MegaDriver, Epistolarius, LukS und 19 andere
Danke fürs Update. Dann werd ich mit meiner 1080 wieder irgendwie beim Preset hoch landen, texturen Und Weitsicht o.Ä. auf Ultra, so wie bei einigen spielen in letzter Zeit. 👍 Muss nicht immer alles auf Max sein, Hauptsache besser als auf den alten Konsolen :D
 
  • Gefällt mir
Reaktionen: LukS, Tanzmusikus und s0ja
Ist es nicht schon immer so gewesen, dass man mit mittleren Details ("Original PS Grafik") wesentlich mehr FPS erhält?!
Ob es bei GoW nun 80% mehr FPS (von Ultra zurück auf Mittel) sind, und damit vielleicht ein wenig mehr als im Durchschnitt aller Games, juckt doch auch nicht mehr.

Was wundert ihr euch jetzt alle so darüber? :D

Nichts neues beim Benchmarken...
 
Des schaut doch schon besser aus.
Wenn ich Pi mal Daumen den Leistungsunterschied zwischen V64 und V56 beachte, dann müsste das mit 60fps hinhauen.

It's a buy. Nochmals ^^

Danke @Wolfgang
 
danyundsahne schrieb:
Ist es nicht schon immer so gewesen, dass man mit mittleren Details ("Original PS Grafik") wesentlich mehr FPS erhält?!
Ob es bei GoW nun 80% mehr FPS (von Ultra zurück auf Mittel) sind, und damit vielleicht ein wenig mehr als im Durchschnitt aller Games, juckt doch auch nicht mehr.

Was wundert ihr euch jetzt alle so darüber? :D

Nichts neues beim Benchmarken...
Natürlich gibt es mit mittleren Details immer mehr Performance als mit den höchsten. Aber das der Unterschied so groß ist wie in GoW, ist dann doch selten finde ich.
 
  • Gefällt mir
Reaktionen: Epistolarius, LukS, SVΞN und 2 andere
Zurück
Oben