• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

Test Dragon's Dogma 2 im Test: GPU- und CPU-Benchmarks der unoptimierten PC-Version

MrHeisenberg schrieb:
Wie gesagt, dann liefert dafür Beweise. Skyrim, Crysis, FC3 und co. liefen damals schlechter als sämtliche aktuellen Spiele ohne DLSS, bei denen hier immer so über die Optimierung gehetzt wird.
Wir müssen überhaupt nichts liefern. Du nennst drei Beispiele, die allesamt auch noch falsch sind und hoffst dass du Argumente hast? Crysis lief super damals auf meiner 88GT und meinem Core2Duo 6750. Skyrim läuft mies weil Bethesda nen fauler Haufen ist denen die Performance schon immer egal war. und Far Cry 3 lief bei Release auch wunderbar.

Vor allem verlangst du Beweise für etwas was in der Zukunft liegt... Not so smart...
 
  • Gefällt mir
Reaktionen: jo0, Asustuftuf und Azeron
Postman schrieb:
27 Zöller unterwegs sind.
Wie gut das ich erst jetzt einen WQHD OLED 27 Zoll Brand neu gekauft habe… ist erst alles ab 27 Zoll neu?!
So ein schwachsinn
 
MrHeisenberg schrieb:
Skyrim mit 47 FPS
Da hast du aber die CPU Tests. Bei den GPU Tests kommen dann auch knapp 60FPS vor:
https://www.pcgameshardware.de/The-...essantes-Leistungsbild-Test-des-Tages-854110/

Wichtig für einen Vergleich wäre aber auch, wie gut die Optik von Skyrim damals war. Also ob die Anforderungen gerechtfertigt waren. Und Skyrim, FC3 und Mists of Pandaria sind schon sehr alte Beispiele.

Die Optimierung von PC Ports großer Spiele war die letzten Jahre selten wirklich gut. Zumindest zu Release gab es immer wieder Probleme. Und DLSS war eigentlich nicht unbedingt dazu gedacht FHD laufbar zu machen, sondern 4K Optik zu bekommen, ohne native 4K Leistung zu haben. Dieser Zweck gerät aber immer mehr in den Hintergrund, weil inzwischen Spiele erscheinen, die DLSS in allen Auflösungen brauchen, damit sie spielbar werden.

Das ist für mich keine gute Entwicklung.
 
  • Gefällt mir
Reaktionen: Azeron
Azeron schrieb:
Dragons Dogma 2? Sieht das für dich so aus als ob es zwingend ne High End Karte braucht damit es auch ohne DLSS performant läuft?

Laut Benchmark erreicht man mit ner 3080 in WQHD MIT DLSS im Schnitt 80 FPS, bei Red Dead Redemption 2 erreicht man mit ner 3080 in WQHD OHNE DLSS im Schnitt 83 FPS (laut CB-Test). RDR2 sieht grafisch aber viel besser aus.
Bei "richtigem" Sonnenstand hat man mit einer RTX 4080 Super in Ultra HD mit DLSS Quality fast schon lächerlich 50 FPS. Also ja, man braucht zwingend eine High-End-Karte für hohe Einstellungen.

Bitte nicht nur auf die Balken schauen, sondern auch mal den Text erklären, um die Benchmarks sowie die Testszene richtig zu verstehen. Das ist absolut entscheiden für Dragon's Dogma 2.
RoboHackfeld schrieb:
Das ist hoffentlich nur unglücklich formuliert. Immerhin hängen da auch viele Jobs und damit verbundene Existenzen dran.
Nicht nur das.

Vielleicht bin ich ja einer der wenigen, aber ich habe null Interesse daran, dass abseits von allerhöchstens unwichtigen, kleinen Rollen eine KI die Sprachausgabe übernimmt. Genauso wenig wie ich auch kein Interesse daran habe, mir in Serien oder Filmen KI-generierte Charaktere, die Menschen sein sollen, abseits von Animationsfilmen, anzuschauen. Das macht für mich alles kaputt. Ich will wissen, dass hinter der gezeigten Leistung, die etwas mit Menschen zu tun hat (sei es Sprachausgabe oder Schauspieler oder auch Motion-Capture in Spielen) Menschen stecken. Und keine KI. Das hat auch mit der Qualität nichts zu tun. Das killt für mich die gesamte Immersion.
 
  • Gefällt mir
Reaktionen: Celinna, Spike S., jo0 und 2 andere
MrHeisenberg schrieb:
beschwerst dich über DLSS
Nein, @Azeron beschwert sich darüber dass Test mit DLSS hochgeladen werden anstatt native Auflösungen mit ihren nativen FPS. Was vollkommen legitim ist - die Verbesserungen sollten optional sein, ähnlich wie medium und low presets.
 
  • Gefällt mir
Reaktionen: ST18, Beatmaster A.C., eXe777 und 2 andere
mibbio schrieb:
Würde es auch gut finden, wenn bei Benchmark-Tests von Spiele generell auch die nativen FPS als Referenzert enthalten sind.
Nunja, jeder Benchmarks kostet aber Zeit und das ist aufgrund der vielen Grafikkarten ohnehin schon ein nicht zu unterschätzender Faktor bei Spiele-Techniktests. Und das wären schlussendlich dann schon deutlich mehr Benchmarks, weswegen das nicht zu realisieren ist.
 
@Wolfgang Meiner Meinung nach ist das der falsche Weg. Lasst einfach die Upscaling-Benchmarks weg, schon ist die Anzahl wieder identisch.
 
  • Gefällt mir
Reaktionen: Spike S., Mordekai2009 und Azeron
Mir ist aufgefallen seitdem wir mit lowlevel API‘s auf dem PC in Form von Spielen beliefert werden und dadurch der Großteil der Verantwortung der Optimierung von AMD/Nvidia zu den Spiele-Entwicklern gewandert ist, bekommen wir in 90% der Fälle, grauenhaft optimierte Spiele. Mir kann doch keiner erklären das wir so eine Fülle an schlechten Spielen zu dx9 und dx11 Zeit hatten.
 
  • Gefällt mir
Reaktionen: Corpus Delicti
mfJade schrieb:
Wir müssen überhaupt nichts liefern. Du nennst drei Beispiele, die allesamt auch noch falsch sind
Wo sind sie falsch? Liefere Fakten ;)

mfJade schrieb:
Crysis lief super damals auf meiner 88GT und meinem Core2Duo 6750.
Schwachsinn: https://www.pcgameshardware.de/Crys...rafikkarte-fuer-Crysis-639407/galerie/805138/
Gerade eben so 30 FPS in 1024x768, aber DD2 in 4K läuft scheiße mit 50 FPS+. Klar doch ;)
Nicht mal SLI oder Dual GPU Systeme haben die 60 FPS erreicht.

mfJade schrieb:
Skyrim läuft mies weil Bethesda nen fauler Haufen ist denen die Performance schon immer egal war. und Far Cry 3 lief bei Release auch wunderbar.
Far Cry 3: https://www.pcgameshardware.de/scre...Cry-3-Catalyst-12.11-b11-1080p-4x-MSAA-v2.png
45 FPS auf der schnellsten Karte in 1080p als gut zu betiteln aber hier rumzuheulen ist schon harter Tobak.

Dagegen läuft DD2 butterweich, also wo sind deine Beweise?
 
  • Gefällt mir
Reaktionen: Sirhaubinger, Fallout667 und Shinigami1
Wolfgang schrieb:
Nicht nur das.

Vielleicht bin ich ja einer der wenigen, aber ich habe null, Interesse daran, dass abseits von allerhöchstens unwichtigen, kleinen Rollen eine KI die Sprachausgabe übernimmt. Genauso wenig wie ich auch Interesse daran habe, mit in Serien oder Filme KI-generierte Charaktere, die Menschen sein sollen, abseits von Animationsfilmen anzuschauen. Das macht für mich alles kaputt. Ich will wissen, dass hinter der gezeigten Leistung, die etwas mit Menschen zu tun hat (sei es Sprachausgabe oder Schauspieler oder auch Motion-Capture in Spielen) Menschen stecken. Und keine KI. Das hat auch mit der Qualität nichts zu tun. Das killt für mich die gesamte Immersion.
Bin ja der Meinung dass der Hauptgrund für das ganze Dilemma dieser mega Arbeitsaufwand für Spieleentwicklung gepaart mit entsprechendem Zeitdruck heutzutage ist.

Da ja wirklich jeder meint auf Teufel komm raus rießen Spielwelten schaffen zu müssen nimmt das glaube ich ultra viele Ressourcen in Anspruch und führt dann mitunter dazu dass die Spiele aufgrund des dann entstehenden Zeitdrucks in diesem verbuggten und schlecht optimierten Zustand auf den Markt geworfen werden.

Aufgrund dessen fänd ich es grundsätzlich gar nicht mal sooo schlimm K. I. in bestimmten Bereichen gezielt miteinzubeziehen, da es ja doch irgendwo Zeit sparen könnte.
 
Also für RT braucht man halt DLSS oder FSR. So einfach ist das. Nichts neues.
Aber wenn man für normale Rastergrafik DLSS bräuchte, dann stimmt da was nicht.
Solange man >60 fps mit 4080 schafft in 4k ist alles ok. für mehr wird eh nicht optimiert.
Wozu sollte man auch aus Publisher Sicht. Das Pacing könnte besser sein, kommt vermutlich wieder ein Patch.

Insgesamt sehe ich es hier noch gelassen. Da hatten wir schlimmeres. Bsp. Diablo 4 VRAM Bedarf zu Release.

Die Grafik ist relativ. Passt der Stil ist die subjektive Grafik deutlich besser.
Für Rest wird es wieder Mods geben.
Der Eldenring Farbschleier bsp. den konnte ich auch nicht ausstehen.
 
Wolfgang schrieb:
Abgesehen vom Gras ghostet das TAA mindestens genauso viel, dafür flimmert alles deutlich mehr. Das finde ich deutlich schlimmer als das Ghosting vom Gras. Damit will ich sagen, ganz ohne Ghosting geht es in Dragon's Dogma 2 nicht.

Auch die Charaktere, NPCs, Monster und Waffen haben extremes Ghosting. Mit den richtigen Einstellungen wird man sicherlich wieder kein Ghosting haben und weder auf AA noch DLSS zurückgreifen müssen. Motion Blur, chromatische Aberration und Depth of Field werden zusätzlich ausgeschaltet. Sieht nur unglaubwürdig aus und spart auch nochmal Performance. Ich denke da werden Treiber und Spiel Einstellungen schon helfen.
 
  • Gefällt mir
Reaktionen: Azeron
MrHeisenberg schrieb:
Gerade eben so 30 FPS in 1024x768, aber DD2 in 4K läuft scheiße mit 50 FPS+. Klar doch ;)
Vor allem 30FPS mit 4xAA - sowas macht keiner bei Crysis - aber ok...

Du vergleichst ernsthaft eines der grafisch wegweisensten Spiele, welches heute noch per meme zitiert wird "can it run crysis" mit Dragons Dogma, welches aussieht als wäre es 6 Jahre zu spät auf dem Markt angekommen. Das macht keinen Sinn, ebenso wie die Diskussion mit dir - du verrennst dich immer mehr und mehr, das ermüdet. Schönen Tag noch.
 
  • Gefällt mir
Reaktionen: ST18, Spike S., jo0 und 3 andere
mfJade schrieb:
Du vergleichst ernsthaft eines der grafisch wegweisensten Spiele, welches heute noch per meme zitiert wird "can it run crysis"
So würde ich Far Cry 3 jetzt nicht gerade bezeichnen...
 
  • Gefällt mir
Reaktionen: MrHeisenberg
mfJade schrieb:
Du vergleichst ernsthaft eines der grafisch wegweisensten Spiele, welches heute noch per meme zitiert wird "can it run crysis" mit Dragons Dogma, welches aussieht als wäre es 6 Jahre zu spät auf dem Markt angekommen. Das macht keinen Sinn, ebenso wie die Diskussion mit dir - du verrennst dich immer mehr und mehr, das ermüdet. Schönen Tag noch.
Natürlich sah Crysis verhältnismäßig besser aus, aber ich habe auch andere Beispiele genannt, bei denen das nicht der Fall war. Abgesehen davon lief es in 30 FPS und einer Auflösung von 1024x768.
DD2 läuft in 4K mit wesentlich mehr FPS. Die Auflösung und FPS relativieren die tolle Grafik von Crysis.

Ihr zieht euch hier an etwas hoch, was nicht neu ist und schiebt einem Feature die Schuld zu, obwohl es nicht daran liegt.

Was ist denn jetzt mit FC3, Skyrim, WoW und co. die damals schon allesamt beschissen liefen und das, obwohl es DLSS und co. noch gar nicht gab? Wo wird hier also weniger optimiert als früher?
 
  • Gefällt mir
Reaktionen: Fallout667
Wie immer in der heutigen Zeit "leider" heißt es lieber abwarten und nach einigen wichtigen Patches das Spiel irgendwann kaufen. Für 30€ in 6 Monaten wäre ich dabei :D
 
  • Gefällt mir
Reaktionen: Serandi
MrHeisenberg schrieb:
Ihr zieht euch hier an etwas hoch, was nicht neu ist und schiebt einem Feature die Schuld zu, obwohl es nicht daran liegt.
Lass gut sein, du verstehst es einfach nicht, egal wie sehr man versucht es zu erklären. Manche haben einfach Pech beim Denken.
 
  • Gefällt mir
Reaktionen: Phobsen, ST18, Spike S. und 4 andere
Dann sollen die das einfach besser optimieren!
Ist wie mit High End Karten, einfach solange nicht kaufen, bis die billiger werden.
Also Spiele solange nicht kaufen, bis die besser laufen!
 
  • Gefällt mir
Reaktionen: Azeron
Gibts keine "Benchmarks" mehr ohne DLSS/FSR?
 
  • Gefällt mir
Reaktionen: frames p. joule, Mordekai2009, Asustuftuf und eine weitere Person
Zurück
Oben