• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

Test Dragon's Dogma 2 im Test: GPU- und CPU-Benchmarks der unoptimierten PC-Version

Nooblander schrieb:
Frame Generation ist scheinbar nicht implementiert von Nvidia.
Na, wenn es nur scheinbar nicht implementiert ist, ist ja alles gut :mussweg:
 
Die Unternehmen holen wieder einmal die alte Engine aus dem Keller. Sieht man ja nur noch heutzutage.
Neu machen oder auf UE5 umzusteigen kostet wohl zu viel..
 
habla2k schrieb:
Bei RE 3 Remake gab es eine Speicherwarnung bei der Nutzung von RT mit 8GB VRAM, das Spiel lief aber flüssig. Nur gab es dann sporadisch Abstürze ohne Begründung.
Im IGN Video wird von 13 GB Videospeicher gesprochen, die benötigt werden können, aber detailliert wird darauf nicht eingegangen (ob es da um Belegung oder Reservierung geht, wer weiss, aber es würde zu der von @Wolfgang erwähnten 12GB Warnung passen) und wenn eine RTX 4090 in der Stadt auf ca. 45 fps in 4K/UHD Maximalsettings absinkt (wie von IGN gezeigt), ist das schon heftig und dürfte wohl auch am CPU Limit liegen.

Naja, ich werde mir Dragon's Dogma 2 wohl einmal im Twitch Stream eine Weile anschauen, aber bei mir stünde der Vorgänger soiweso erst einmal an und mit längerem Warten dürfte der Preis nachlassen und vor allen Dingen das SPiel besser gepatcht werden (gut möglich, dass es hier auf CB auch irgendwann einen Nachtest geben wird, wenn sich da spürbar in mehreren technischen Bereichen des Spiels etwas tun sollte).
 
Zuletzt bearbeitet:
habla2k schrieb:
Also dann in Zukunft ohne AA testen, weil wenn es ohne AA flimmert, dann soll das sichtbar sein, wie schlecht hier optimiert wurde?
Also Spiele wurden damals eigentlich immer mit verschiedenen AA Stufen gebenchmarked, auch ohne. Also ja, kann man gerne so machen 😁

habla2k schrieb:
Und natürlich nur noch Tests mit Grafikkarten die 8GB VRAM haben, denn wenn ein Spiel mehr braucht, weil es nicht gut optimiert wurde, dann soll das sichtbar sein.
Nö, wieso? Das macht ja irgendwie keinen Sinn.

Liest du eigentlich auch was du schreibst und verstehst du nicht worauf ich hinaus will?

habla2k schrieb:
und es wird eben nach Möglichkeit mit den optisch besten Settings getestet und das ist in diesem Fall MIT DLSS.
Ist zwar dann vielleicht optisch am schönsten, verzerrt aber eben das native Ergebnis und um das geht es mir. Die NATIVE Leistung, nicht die Verschleierung der tatsächlichen Leistung mit dem KI-Vorhang.

AA aus, 2x, 4x, 8x? Alles nativ.
AF 4x, 8x, 16x? Alles nativ.
Presets Niedrig, Mittel, Hoch? Alles nativ.
RT an/aus? Alles nativ.
DLSS/FSR? Nichts nativ da KI-Berechnung mittels Algorithmen.
 
habla2k schrieb:
Zu Zeiten von Crysis kostete eine Top Karte aber auch nicht fast 2.000€
Zu Zeiten von Crisis war die Top-Konfiguration aber auch nicht nur eine Karte...

Die 4090 Zielgruppe von heute ist die Quad-SLI Zielgruppe von damals. 17 Jahre Inflation sind auch noch ins Land gezogen...
 
  • Gefällt mir
Reaktionen: Sirhaubinger, Crifty, Coeckchen und eine weitere Person
Vielleicht kommt ja ein kurzfristiger Patch für frame gen... Dann wäre es super spielbar. So ists eher meh...
 
habla2k schrieb:
Zu Zeiten von Crysis kostete eine Top Karte aber auch nicht fast 2.000€
Ja aber dafür hat man auch 3 grafikkarten gebraucht und war immer noch zu wenig.
 
  • Gefällt mir
Reaktionen: MrHeisenberg
Chismon schrieb:
Eine Speicherwarnung bei 12GB und 4K/UHD ohne Folgen ist auch neu
Dachte man in Resi 4 auch bis man lange genug gespielt hat. :D
 
Kadett_Pirx schrieb:
und das kann man dann noch Benchmarks unter gleichen Bedingungen nennen?
Performancemäßig schon, bei der Bildqualität jedoch nicht.
Das ist etwas, was leider nur völlig separat von der Performance betrachtet werden kann.
Das lässt sich aber einfach nicht ändern, bevor Upsampling von AMD, Nvidia und Intel optisch absolut vergleichbar sind.
 
Intel schafft es echt immer, die Grafiktreiber dann zu bringen, wenn alle Tests durch sind. Heute kam wieder einer mit up to 30+% Leistung in dem Spiel.
 
weis nicht weshalb man hier dauernd den Crysis Vergleich herzieht, damals waren auch 30-60FPS im PC gaming noch gang und gebe, weshalb man auch entsprechend keine Probleme damit hatte mit diesen zu zocken, Entwicklung schreitet voran oder zockt einer von Euch noch in 720P am PC ?

wie gesagt wir haben heute keine 1500€ PC's um damit in 60FPS in DLSS bzw. FSR zocken zu können, auch wenn diese ausreichen für so ein Game, sollte aber bei dem gezeigten dann doch mehr als 60FPS drinne sein, wenn man mal ähnliche und teils grafisch opulentere Open World Spiele vergleicht
 
  • Gefällt mir
Reaktionen: jo0 und Azeron
Xes schrieb:
Ein weiterer Titel für die:
"Sieht interessant aus, spiele ich aber frühestens in einem Jahr, wenn alles gefixt und optimiert wurde"-Liste.
Wenn ich mir Dying Light 2 so anschaue, vorallem im Coop, ist da auch nach 2 Jahren noch nix mit rundem Spielen ^^
 
Azeron schrieb:
Ist zwar dann vielleicht optisch am schönsten, verzerrt aber eben das native Ergebnis und um das geht es mir. Die NATIVE Leistung, nicht die Verschleierung der tatsächlichen Leistung mit dem KI-Vorhang.
Was für einen Stellenwert hat denn die native Leistung wenn es niemand so spielen würde, weils nicht nur schlechter läuft sondern auch noch schlechter aussieht?
Du kannst die Performance genau so gut mit DLSS/FSR bewerten.

Wenn das Spiel bei der gebotenen Optik mit DLSS 60FPS erreicht, kann man genau so gut sagen, dass das zu wenig ist, wie wenn es ohne DLSS 50FPS erreicht.
 
  • Gefällt mir
Reaktionen: Sirhaubinger, Crifty, Obvision und eine weitere Person
Hm, ich finds ganz schön "krass", dass ~60FPS inzwischen selbst durch CB (hinter vorgehaltener Hand) quasi als nicht spielbar verkauft werden. Ich finde mich nicht so super naiv, wenn ich bei einem aktuellen Titel auf meinem UWQHD Monitor mit einer 3080 durchaus zufrieden bin, wenn ich den Diagrammen zufolge selbst mit RTX on nativ mit ~60FPS rechnen kann. Ich bin in "eher slow paced" Spielen sogar zufrieden, solange die FPS über 40 sind.

Klar muss da nochmal nachgefeilt werden hinsichtlich Optimierung, das steht doch wohl ausser Frage und ist jetzt auch nichts worüber man sich echauffieren müsste, aber es ist erstens nicht "unspielbar" und zweitens wird man ja von Capcom genauso wenig wie seinerzeit von CD Project erwarten, dass die alle gängigen Rechnerkonfigurationen rumzustehen haben.

Irgendwie bekomm ich mental das Gap nicht hin zwischen "Oh Uh oooh...die Grafikkarten sind ja sooo teuer" und "Ja gut, aber 60FPS bei 4k mit RTX an und vollen Details muss schon irgendwie mindestens sein auf meiner Mittelklasse GPU damits überhaupt spielbar ist, ich seh das total wenns nur 55 FPS sind".
 
  • Gefällt mir
Reaktionen: Corpus Delicti und darthbermel
Taxxor schrieb:
Was für einen Stellenwert hat denn die native Leistung wenn es niemand so spielen würde, weils nicht nur schlechter läuft sondern auch noch schlechter aussieht?
Einfach um als großes Medium ein Zeichen zu setzen dass sich die Spieleindustrie nicht einfach so alles erlauben kann wie sie lustig ist. Aber ja, ich habs eingesehen. Es wird ob der unfähigen Entwickler nur noch mit DLSS getestet weil das jetzt halt normal ist und jeder so spielt weil es die Entwickler nicht mehr geschissen bekommen ihr grafisch durchschnittliches Spiel ordentlich zu optimieren und in ein paar Jahren ist dann die KI-Zwischenbildberechnung normal und jeder wird es feiern wenn ein Spiel mit Frame Generation bei ner xx90 Karte ihre 60FPS erreicht obwohl es so aussieht wie von vor 10 Jahren weil das ist dann halt so der Standard. Hurra. Und dafür dann 80€+ verlangen inkl. Ingameshop weil Spieleentwicklung ist ja sooooooooooooo viel aufwendiger als früher. Danke für nichts.
 
  • Gefällt mir
Reaktionen: RoboHackfeld
Jaja, die Entwickler sind einfach nur faul und unfähig. Tolles Argument.
 
  • Gefällt mir
Reaktionen: DIE_KUH, Sirhaubinger, Taxxor und eine weitere Person
Azeron schrieb:
Einfach um als großes Medium ein Zeichen zu setzen dass sich die Spieleindustrie nicht einfach so alles erlauben kann wie sie lustig ist.
Nochmal: DLSS sieht besser aus als nativ, warum sollte man dann nativ testen? Die Entscheidung hat 0 mit der Spieleindustrie und der generellen Performance der Spiele zu tun.
 
  • Gefällt mir
Reaktionen: DIE_KUH, bluna und MrHeisenberg
Azeron schrieb:
Einfach um als großes Medium ein Zeichen zu setzen dass sich die Spieleindustrie nicht einfach so alles erlauben kann wie sie lustig ist.
Das passiert durch den Käufer. Siehe z.B. Skull and Bones.
Wenn die Nutzer es aber doch bzw. trotzdem kaufen, ist das eben nur dein persönliches Problem und kein allgemeines ;)
 
Azeron schrieb:
AA aus, 2x, 4x, 8x? Alles nativ.
AF 4x, 8x, 16x? Alles nativ.
Presets Niedrig, Mittel, Hoch? Alles nativ.
RT an/aus? Alles nativ.
Wenn ich mal die Kombinationen außen vor lasse, sind das was, 12 Tests? Pro Grafikkarte? Und das findest du verhältnismäßig?
 
  • Gefällt mir
Reaktionen: DIE_KUH, Sirhaubinger und MrHeisenberg
Klar, spätestens nach seiner Aussage, dass er für DD2 höchstens 5€ im Sale zahlen würde, wird das doch offensichtlich. :freak:
 
Zurück
Oben