• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

Test Dragon's Dogma 2 im Test: GPU- und CPU-Benchmarks der unoptimierten PC-Version

Yikes, das würde auf meiner 1080Ti wahrscheinlich nicht mal flüssig in meiner gewählten Auflösung 3440x1440 laufen... Schade, hätte Lust drauf gehabt. Aber ok, dann halt wie üblich bei einem Großteil der PC Ports einfach ein halbes Jahr warten und dann läuft es nicht mehr ganz so schlimm.
 
  • Gefällt mir
Reaktionen: -=[CrysiS]=- und Mcr-King
mfJade schrieb:
GS hat schon abgewertet und erwähnt es deutlichst im Video und auf der Seite.
Danke für die Info. Finde es gut das sie es abgewertet haben.
 
LordBelakor schrieb:
Ich spiele mal Devils Advocate. Capcom hat ja eine Aussage veröffentlicht dass die CPU-Last von daher kommt weil sei jedem NPC CPU-Last reservieren für dynamische Berechnungen. Frage an Tester, wurde das genauer betrachtet ob da was dahinter ist und es evtl. nicht nur vergeudete Leistung ist? Kann das mal genauer analysiert werden?
Nunja, wie soll man das denn testen? Dazu müsste man das ja abstellen können. Sonst kann man ja höchstens raten.
Azeron schrieb:
Mehr Bildinformationen als nativ? Ja wo kommen die dann her? Die werden aus den bestehenden Informationen quasi hergezaubert. Ein Algorithmus der Sachen "dazuerfindet" aus den Informationen die schon da sind.
Doch, Super-Resolution-Upsampling, ganz gleich ob DLSS, FSR oder XeSS, verfügt über mehr Bildinformationen als die native Auflösung. So funktioniert Super Resolution. TAA übrigens auch, nur in einer vereinfachten Form.

Wie geht das? Einfach gesagt, Upsampling nutzt anders als die native Auflösung (ohne TAA) für jeden Frame nicht nur die Bildinformation vom Frame, das gerade gerendert wird, sondern auch von einer verschiedenen Anzahl vorheriger Frames. Wurde alles korrekt implementiert, kann ein aktueller Frame daher mit Informationen einzelner Pixel von dutzenden vorheriger Frames gefüttert werden. Dadurch schafft es Upsampling zum Beispiel, feine Pixellinien wiederherzustellen, die mit nativer Auflösung nicht korrekt/durchgehend dargestellt werden.

Dadurch verliert Upsampling normalerweise (anders als in Dragon's Dogma 2) auch keine Bildschärfe/Bilddetails bei einer verringerten Renderauflösung. Die Bildinformationen sind ja dennoch da, nur eben aus älteren Frames.
 
  • Gefällt mir
Reaktionen: DIE_KUH, Sirhaubinger, Celinna und 15 andere
Cool Master schrieb:
Es zeigt sich, dass meine Befürchtung zu DLSS und co. immer häufiger wahr werden. Die Entwickler sagen, ach DLSS und co. regelt, müssen wir nichts neues Entwickeln oder Optimieren.
DLSS hat rein gar nichts mit CPU Performance zu tun. Das Spiel wäre ohne DLSS nur noch kaputter.
 
  • Gefällt mir
Reaktionen: Faultier
Azeron schrieb:
Mehr Bildinformationen als nativ? Ja wo kommen die dann her? Die werden aus den bestehenden Informationen quasi hergezaubert.
Seit Jahren gibt es dazu regelmäßig News und Beiträge, die genau das erklären. Es wird nichts herbeigezaubert.
DLSS arbeitet mit mehreren Samples oder auch Frames aus der Vergangenheit. Fünf 1080p Frames enthalten mehr Informationen als ein 4K Frame und da ist das Jitter, also die Verschiebung der Pixel pro Frame, noch gar nicht berücksichtigt.

Es ist aber immer wieder faszinierend zu sehen, dass die User, welche DLSS so massiv ablehnen, absolut keine Ahnung haben wie es funktioniert und fast immer denken, dass was "dazuerfunden" wird.
 
  • Gefällt mir
Reaktionen: DIE_KUH, Sirhaubinger, _Cassini_ und 10 andere
Nett, kommt auf "haben wollen und spielen" Liste

Achso - der Vorteil eine Liste, die ich nach Datum "abarbeite": Die Spiele kosten dann nur noch die Hälfte und noch wichtiger - der Betatester/Strüzab Murks und miese Performance Mist ist zumeist dann gefixt.

Spiele gleich nach Release kaufen, muss man heutzutage schon ein arg dickes Fell haben - in der Regel. Gibt immer ein paar "Perlen" dazwischen.
 
Zuletzt bearbeitet:
habla2k schrieb:
Sagt ja auch niemand. Aber nur weil es "missbraucht" wird, macht das DLSS in Spielen nicht grundsätzlich schlecht. Und weil du ja sagtest, dass du DLSS niemals benutzt, klingt es schon so, als würdest du das Feature per se ablehnen. Dafür gibt es eben keinen Grund.
Wenn ich für ne 3090 bei einem Spiel, was aussieht wie von vor 10 Jahren, DLSS brauche damit es performant läuft und "besser" aussieht als nativ, dann ist das in meinen Augen ein sehr guter Grund es abzulehnen und zwar nicht weil DLSS im allgemeinen böse ist sondern weil solche Entwickler einfach nicht unterstützt gehören.

Ist bei dem Spiel jetzt nicht der Fall dass es ohne DLSS bei mir nicht laufen würde aber allein aus Prinzip gehört die Praktikt der Entwickler, sich nicht mehr anstrengen zu müssen weil DLSS/FSR werden schon klären, stark kritisiert.
 
eazen schrieb:
Sieht wie Skyrim aus, wenn’s hochkommt
Leute Leute, ich bin ja dabei, dass es nicht gut genug aussieht für die Anforderungen.

Aber Skyrim? Gothic 3? Come on.

Das hier
https://pics.computerbase.de/1/1/1/6/6/3-769fa180d2a55f70/3-2160.cd4f5cf1.jpg

sieht ja dann doch etwas besser aus als das hier (Skyrim)
https://www.gamersdecide.com/sites/...006/top-15-skyrim-best-npc-mods-we-love-7.jpg

Verwechselt eure hochgezüchteten mit Mods vollgestopften Versionen von Skyrim bitte nicht mit dem eigentlichen Spiel. 😅

@Azeron
Dazu passt dann aber deine Aussage grundsätzlich kein DLSS zu nutzen nicht.
 
  • Gefällt mir
Reaktionen: Mcr-King, Meines und Obvision
Grafik ist nicht alles.
Zelde sieht an manchen Stellen auch aus wie ein Spiel auf einem
Nintendo 64, trotzdem macht es fun.
 
  • Gefällt mir
Reaktionen: Mcr-King
Azeron schrieb:
Wenn ich für ne 3090 bei einem Spiel, was aussieht wie von vor 10 Jahren, DLSS brauche damit es performant läuft und "besser" aussieht als nativ, dann ist das in meinen Augen ein sehr guter Grund es abzulehnen und zwar nicht weil DLSS im allgemeinen böse ist sondern weil solche Entwickler einfach nicht unterstützt gehören.
Wenns DLSS nicht gäbe, würde es trotzdem nicht besser laufen/aussehen.
RDR2 lief auch wie ein Sack Nüsse und zu der Zeit gab es weder FSR, noch DLSS.
 
  • Gefällt mir
Reaktionen: Celinna, Shinigami1, Quidproquo77 und 2 andere
Dann werde ich es wohl auf der PS5 spielen. Im Vergleich zur PS3 damals scheint es dort ja traumhaft zu laufen (30+ FPS!!!!)
 
mcdexter schrieb:
Zelde sieht an manchen Stellen auch aus wie ein Spiel auf einem
Nintendo 64
Na dann versuch mal DD2 auf der Switch zu spielen...
 
  • Gefällt mir
Reaktionen: Mcr-King
habla2k schrieb:
Dazu passt dann aber deine Aussage grundsätzlich kein DLSS zu nutzen nicht.
Wieso? Ich persönlich nutze es nicht weil ich keine Entwickler unterstütze die nicht mehr in der Lage sind ihre Spiele so zu entwicklen dass sie auch nativ gut laufen, vorallem wenn sie schlechter aussehen als Spiele die älter sind und auch ohne DLSS/FSR gut laufen und auch besser aussehen.

Und damit man das sieht, wäre es gut Benchmarks ohne DLSS/FSR zu haben. Ich wüsste jetzt nicht wo ich mir da widerspreche.

MrHeisenberg schrieb:
Wenns DLSS nicht gäbe, würde es trotzdem nicht besser laufen/aussehen.
Es würde natürlich schlechter laufen und das sollte man auch mit Benchmarks zeigen finde ich.

Red Dead Redemption 2 sieht viel besser aus als Dragons Dogma 2, läuft bei mir auf ner 3090 und 10700k in WQHD und alles auf Ultra mit etwa 60-80 FPS (je nach Gebiet) und das ohne DLSS.

Dragons Dogma würde mit meinem Setup wohl etwa genauso laufen allerdings MIT DLSS (weiß jetzt nicht wo genau die 3090 da anzusiedeln wäre. Irgendwo zwischen der 3080 und 4070 Super denke ich), sieht aber nicht mal annähernd so gut aus wie Red Dead Redemption 2. Da würde mich halt einfach interessieren wie es denn ohne laufen würde. Das Verhältnis zwischen dem Aussehen des Spiels und der Performance, ohne nem Upscalinggedöns wäre ja eben interessant um da ordentlich mit alten Spielen, die besser aussehen UND auch besser laufen, vergleichen zu können.
 
Zuletzt bearbeitet:
Ich informiere mich mittlerweile schon garnicht mehr über neue Spiele, wenn etwas gut ist, bekommt man es eh mit und wenn etwas extrem scheiße ist auch. Alles dazwischen hab ich dann eh meistens schonmal in der Richting gespielt gehabt und interessiert mich daher kaum noch (Mittelmaß gedöns)
 
  • Gefällt mir
Reaktionen: iron_monkey
sieht aus wie grütze
 
Das hatte ich tatsächlich bereits befürchtet. Spielerisch wie es aussieht ein sehr gutes Spiel geworden, aber technisch eine ziemliche Katastrophe. Wenn ich mir mit meinem System Gedanken machen muss, ob ich die 60 fps in 4K bei der gebotenen Grafik stabil halten kann, dann stimmt etwas ganz und gar nicht.
 
Azeron schrieb:
Wieso? Ich persönlich nutze es nicht weil ich keine Entwickler unterstütze die nicht mehr in der Lage sind ihre Spiele so zu entwicklen dass sie auch nativ gut laufen, vorallem wenn sie schlechter aussehen als Spiele die älter sind und auch ohne DLSS/FSR gut laufen und auch besser aussehen.
Und was bringt dir das? Der einzige, der dadurch einen Nachteil hat, bist du selbst.
Die große Masse interessiert sich nicht dafür und der Entwickler auch nicht. Erst recht nicht, wenn die Performance unabhängig von DLSS und co. sowieso bescheiden wäre und DLSS nicht der Grund ist.
Damit schießt du dir ins eigene Bein, aber wenns dich glücklich macht.
 
  • Gefällt mir
Reaktionen: Sirhaubinger und Shinigami1
Wolfgang schrieb:
Nunja, wie soll man das denn testen? Dazu müsste man das ja abstellen können. Sonst kann man ja höchstens raten.
Wären auch eher Gameplay-Tests als Performance-Tests. NPC-Verhalten beobachten und testen und schauen ob die NPCs mehr leisten und zu bieten haben als in anderen Spielen.

Ich hätte gesagt leitet den Auftrag an eine Partner-Seite weiter die Spiele-Tests macht aber ihr habt keine Partner-Seiten.
 
Zurück
Oben