• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

Test Dragon's Dogma 2 im Test: GPU- und CPU-Benchmarks der unoptimierten PC-Version

bondki schrieb:
Ich hoffe auch, dass deine Arbeit durch KI ersetzt wird und du folglich arbeitslos bist.

Raffst du überhaupt was du da schreibst?
Ja ich weis genau was ich da schreibe. Wenn ich durch die KI endlich wieder mehr Spiele mit deutscher Sprachausgabe bekomme finde ich das eine gute Sache.
 
  • Gefällt mir
Reaktionen: Coeckchen
Schaunwermal, ob und wie die ganze Chose nach ein paar Patches läuft.
Vielleicht gibt es ja auch irgendwann einen Kein-Denuvo-Patch...
 
  • Gefällt mir
Reaktionen: Grendizer
Enurian schrieb:
War das Absicht? :D
Kann man denke ich von ausgehen, das ist ja schon ein heiß erwartetes Release (und zieht sicher mehr Leute an als Dragons Dogma).
Nein, war keine Absicht. Danke für den Hinweis 😁.
edenjung schrieb:
Du schreibst am Handy oder :D
Jop xD.
Ergänzung ()

Enurian schrieb:
Kann man denke ich von ausgehen, das ist ja schon ein heiß erwartetes Release (und zieht sicher mehr Leute an als Dragons Dogma).
DD2 ist halt sicher so ein Influencer gekauft und gehyptes Spiel. Wie es immer ist.
Leider!

HZD war ja am Anfang auch kein 1A PC Port. Obwohl es war ja auch ihr Erster.
 
Zuletzt bearbeitet:
Alles halb so wild, Spiel ist soeben einfach aus der "MöchteHaben" - Liste geflogen. Is ja nicht so dass es nicht genug anderes zu spielen gibt :-). Mittlerweile überlege ich mir gut, ob ich nem Entwickler mein Geld in den Rachen werfe, wenn se nicht imstande sind technisch vernünftige Ergebnisse abzuliefern. Dafür ist mein "Pile of Shame viiiiel zu groß" :-)
 
  • Gefällt mir
Reaktionen: Krazee und flynn9
Azeron schrieb:
Native FPS sollten als Vergleich schon dabei sein finde ich.

Native Auflösungen gehören der Vergangenheit an. Entwickler werden nur noch mit Upsampling im Hinterkopf gestalten. Selbst wenn die Engine effizienter ist, werden halt mehr optische Schmankerl eingebaut.

Das kann man mögen oder nicht, aber das ist in Zukunft einfach so. Bei Konsolen schon lange Gang und Gebe, jetzt kommt es halt (besser) auch auf den PC.
 
  • Gefällt mir
Reaktionen: MrHeisenberg
habla2k schrieb:
@Ankhseramun
Hm, sehe ich etwas anders.
  • 5 Jahre ist ja schon ziemlich viel, mit Karten von 2019 wird es heute schon schwierig.
  • Muss GFN ja nicht die ganze Zeit genutzt werden, sondern bei Spielen, wo die vorhandene Karte aus welchen Gründen auch immer nicht ausreicht.
  • Bekomme ich in den 5 Jahren in den höheren Stufen Upgrades dazu. Erst war es eine 3090, jetzt eine 4080 in einem Jahr dann ne 5080, die Leistung wächst also mit, bei einer gekauften Karte ist das nicht so. Selbst mit Verkauf der alten muss ich draufzahlen um wieder aktuell zu sein.
Abzocke sehe ich da nicht. Es ist natürlich nicht für jeden etwas, aber bei bestimmten Anwendungsgebieten oder bestimmter Nutzung durchaus eine Option.

PS: Der Finger ist von links und rechts gezählt derselbe. ;)
Jo deine Argumente machen schon Sinn.
Die Abo-Modelle sind jetzt nicht per se eine Abzocke, ich kann mir einige Einsatzmöglichkeiten vorstellen von solchen Geschichten.
Ich lebe halt gedanklich immer noch in der schönen Zeit der Maxwells und Pascals wo eine 80ti für die nächsten 5-6 Jahre mehr als genug gewesen ist.
Der Frust, dass die Zeiten vorbei sind, schwappt bei mir leider immer wieder über, sorry für die harschen Worte 😂
 
  • Gefällt mir
Reaktionen: habla2k
MaverickM schrieb:
Selbst wenn die Engine effizienter ist, werden halt mehr optische Schmankerl eingebaut.
Wenn das denn wenigsten die Regel wäre, also dass der Leistungsgewinn durch Upscaling konsequent für schönere Spiele genutzt wird. Nur ist es aber, wie man ja gerade an DD2 sieht, immer wieder mal so, dass das grafisch gebotene (bei Weitem) nicht zur Performance passt.
 
@mibbio
Ohne würde es vermutlich noch schlechter aussehen, weil man dann einfach Effekte (etc.) weggelassen hätte. Das Problem ist da halt einfach die veraltete Engine. Und hässliche Spiele gab es auch früher schon, das hat nichts mit den neuen Techniken zu tun.
 
  • Gefällt mir
Reaktionen: Quidproquo77, Fallout667 und MrHeisenberg
Packt doch bitte noch ne RTX 3080 TI mit in die Benchmarks rein ...
 
Das Spiel ist hart im CPU Limit und scheint besser mit Intel zu laufen...da kriege ich echt Starfield-Vibes...
Und noch nicht mal DLSS FG eingebaut...
Araska schrieb:
Vielleicht gibt es ja auch irgendwann einen Kein-Denuvo-Patch...
Arrrrr

Situationskomik schrieb:
Wird es eigentlich einen Nachtest mit "game ready" Treibern geben?
Meinst du GPU Treiber werden viel bei der CPU Leistung ändern?
 
Zuletzt bearbeitet:
habla2k schrieb:
aber mit DLSS noch besser aussieht.

Besser würde ich nicht sagen, ich tausche einige mir lange bekannte Grafikeigenheiten gegen andere... ich bekomme feinere Zäune, weniger Geflimmer und mehr FPS, dafür habe ich dann Schlieren/Ghosting bei sich bewegenden Objekten oder Gittersstrukturen auf Texturen.

Muss jeder selber wissen was einen mehr stört...
 
Cool Master schrieb:
Es zeigt sich, dass meine Befürchtung zu DLSS und co. immer häufiger wahr werden. Die Entwickler sagen, ach DLSS und co. regelt, müssen wir nichts neues Entwickeln oder Optimieren.
Was DLSS jetzt mit der schlechten Umsetzung auf PS5 und Series zu tun?

Game dürfte im Gegensatz zu Baldurs Gate 3 als erstes für PS5 als Leadplattform entwickelt worden sein. So wie es bei gut 60-70% der Multiplattformspiele der Fall ist.

Auf Konsole kommt kaum FSR oder TAAU zum Einsatz. Trotzdem gibt es immer mehr Games die schon Sub 1080p erreichen. Von dem her gesehen gibt es kaum Tendenz die rein durch die Upscaler hervorgerufen wurde. Zumal Checkerboard schon vorher gab.

Ob Game schlecht skaliert hat oft viele Ursachen. Sonst kannst allein Existenz von 3 GPU Hersteller von Nvidia, AMD bis Intel verantwortlich machen weil Spiele häufig auf einen Hersteller besser optimiert sind. Sehen Games die 16GB Vram fressen aber nicht besser aussehen als Spiele denen 8GB genügt. Ergo dürften Grafikkarten gar nicht mit viel Vram auf den Markt kommen weil es Entwickler verleitet schlampig zu arbeiten.

Wette wir hätten auch ohne DLSS, FSR und XeSS Games die mit UE5 schlecht performen Heutzutage. Einfach weil Entwickler für 10% bessere Optik 30-40% mehr Leistung verbraten.
 
habla2k schrieb:
Du sagst, Grafik ist nicht alles, weil Zelda auch nicht immer so schön aussieht. Aber Zelda läuft auf der Switch mit einer viel viel schwächeren Hardware.

Es geht ja hier nicht darum, dass es nicht so gut aussieht, sondern dass es dafür viel zu hohe Anforderungen hat. Sähe es so aus, liefe aber auch auf 5 Jahre alten Karten flüssig, wäre das weniger ein Problem.
Mir ging es in meinem Post gar nicht ums aussehen oder wie die Anforderung sind, sondern um Spaß am Spielen.
Der Vorteil am PC ist, wenn es schlecht läuft, stellt man halt paar schalte aus Mittel.

Versteh aber jetzt was du meinst🙂
 
Ach Herrje! ist wieder ein Spiel rausgekommen das super aussehen - aber auf einer 580 mit 300 FPS in 4K ohne Upsampling laufen muss?

Macht ihr das jetzt jedesmal wenn ein Spiel mit hohen Anforderungen rauskommt? Ich hab nicht viel gelesen, aber lasst mich raten: "Die Bösen Entwickler waren zu faul zu optimieren" wie immer, wie bei jedem Spiel das in CB mit der Mistgabel durchs Forum gejagt wird. Diese Anschuldigungen kommen übrigens oft von Personen ohne jeglichen Background über Spiele Engins / optimierung. Gibt ein ganz gutes Video von Gamers NExus dazu. Vielleicht das mal anschaunen. Das ist auch ganz gut didaktisch reduziert, damit die Meisten auch folgen können. Spoiler: es ist komplizierter als_ IF_Frames<=60: Optimise!

naja, ich geh mal zocken:D
 
Wo bleibt FG? :D Dann geht die 4060 wieder auf 80 FPS und das reicht :D. Naja auf meiner 4080 sollte es keine Probleme geben :)
 
Zurück
Oben