Test Watch Dogs: Legion im Test: Hohe Anforderungen und etwas viel Raytracing

Das Spiel macht ein bisschen Spaß, für 14,99€ schon ok.
Performance ist natürlich grottig.
Von den ganzen Bugs und Glitches fang ich erst gar nicht an, die sind ab und an da... okay, immer. :D
 
BrainLagg schrieb:
Ich finde Watch Dogs Legion ist richtig anstrengend zu spielen, vorallem wenns ingame Tag ist.
Alles ist gefühlt überbelichtet, farbuntreu und total seltsam "abgemischt".

Ich weiß nicht obs mir nur so geht aber da sehen andere Games deutlich besser aus.

War doch in Teil 2 auch schon so. Sieht oft einfach künstlich aus. Es sieht eh vieles nach Plastik aus. Von der schäbigen Physik, wenn man mit Autos fährt mal ganz zu schweigen, das machte schon ein GTA IV von 2008 um Welten besser.
 
  • Gefällt mir
Reaktionen: McFritte, GINAC und Krautmaster
petepow schrieb:
Die derzeit noch aktuellen Konsolen (xbox one, ps4) hatten doch auch AMD Hardware und am PC hat man davon nicht profitiert.
Liegt wohl eher daran, dass die Spiele in DX12 sind, DX11 war AMD einfach nicht so gut wie Nvidia.
Welcher Entwickler steckt sich denn gerne eine mittelklasse Karte zum Testen in den Rechner.
foo_1337 schrieb:
Guter Punkt: Our graphics card test system is based on an eight-core Intel Core i9 9900K processor on the Z390 chipset platform.

Wenn es daran liegt, sind die GPU Balken des CB Tests nutzlos, weil die Testkiste immer im CPU Limit hing und das nvidia DX12 bashing fehl am Platz.
Kann ja auch eine andere Benchmark Szene gewesen sein. Niemand bescht Nvidia, es geht nur darum dass raytracing scheiße aussieht
 
foo_1337 schrieb:
Wenn es daran liegt, sind die GPU Balken des CB Tests nutzlos.

3800x vs 8700k:
Habe letztlich als meine 2080ti noch da war, mit nem Kumpel RDR2 verglichen.
Beide eine 2080ti (exakt gleichen Takt, vram etc) selbst settings (mehrfach kontrolliert uns geht es dabei um den technischen Vergleich). Er hatte einen 5,1ghz 8700k mit allem was geht (RAM Ring Bus...)
Ich einen 3800x mit 3800er 15cl RAM bei 1900er infinity.

bei 100-99% GPU LAST hatte er rund 10-15% mehr fps. Ja im angezeigten GPU Limit. Das bedeutet für mich das ein gebürsteter Intel noch immer dermaßen schnell ist und selbst im angeblichen GPU Limit bremsen KANN (RDR2 war ein Extrem diesbezüglich)

und Nun haben wir solche Unterschiede im Bench hier. Ich wette CPU Limit, auch bei vermeintlich voller GPU Last.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Highskilled, Ctrl, xexex und 2 andere
@Experte18 Zitate aus dem Test:

Zudem fällt auf, dass AMD-Grafikkarten vor allem in niedrigen Auflösungen deutlich besser als die Nvidia-Beschleuniger abschneiden. So liefert die Radeon RX 5700 XT in 1.920 × 1.080 14 Prozent mehr Durchschnitts-FPS als die GeForce RTX 2070 Super und 25 Prozent bessere Perzentil-FPS.
So liegt die Radeon RX 5700 XT gar nicht so weit hinter der GeForce RTX 3070 zurück.
Das Problem der Nvidia-GPUs ist die DirectX-12-API.

Die Ergebnisse auf Guru3d sind halt komplett anders. Zwischen 5700xt und 3070 liegen 26fps. Wenn das "nicht so weit ist", hab ich da ein anderes Verständnis.
1604505799052.png
 
  • Gefällt mir
Reaktionen: GERmaximus
Kann den CB-Test nicht bestätigen. DLSS Balanced liefert bei mir die besten Ergebnisse. Ultra Performance kann man in die Tonne kloppen. Performance gefiel mir auch nicht. Teilweise leidet die Grafikqualität an einigen Stellen zu stark darunter. Bei DLSS Qualität konnte ich im Vergleich zu DLSS Balanced hinsichtlich des Bildes keinen Unterschied feststellen jedoch deutlich bei den FPS. Ich spiele weiter auf DLSS Balanced liefert schnelle Ergebnisse und das Bild sieht top aus. 4K und Schärfegrad des Bildes bei 30%. Das Bild ist grandios !

Kp was der VRAM Quatsch soll, hab immer ~8GB VRAM, sollte also auch für ne 3070 reichen. Wir reden hier von einem extrem schlecht performanceoptimierten Spiel. Hab diesbezogen aber auch nicht viel getestet, weil unnötig. Texturen sind alle scharf.

Ich finde die Shadereffekte des Meereswasser im Spiel ohne Raytracing okay und mit Raytracing DLSS absolut erbärmlich. Man merkt das RT und DLSS noch im Anfangsstadium der Entwicklung sind, ich fands ganz nett zu sehen was teilweise technisch derzeit möglich ist und wenn die Spieledesigner erstmal damit umgehen können werden wir auch wieder höhere FPS bekommen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: foo_1337
Experte18 schrieb:
Kann ja auch eine andere Benchmark Szene gewesen sein.

verstehe eh nicht warum keine internen Benches genommen werden, wenn die denn vorhanden sind. Empfinde ich für die Vergleichbarkeit besser wenn interne genommen werden
 
  • Gefällt mir
Reaktionen: Waaargh
@Wolfgang ein Statement hierzu wäre schön.
Habe mir jetzt auch diverse YT Videos dazu kurz angeschaut und auch da sin die Frameraten eher wie bei dem Guru3d Test. Gemeinsamkeit: Intel CPU.
 
  • Gefällt mir
Reaktionen: Waaargh und mylight
Ich verstehe den Test auch nicht so ganz.
Bei mir läuft das Spiel auf einer (inzwischen eben alten) RTX 2080 (ohne S) mit UHD und Raytracing sowie DLSS ON wirklich flüssig mit auf 40 FPS limitierter Ausgabe.
Ich habe da nichts zu meckern.
 
  • Gefällt mir
Reaktionen: foo_1337
foo_1337 schrieb:
@Wolfgang ein Statement hierzu wäre schön.
Habe mir jetzt auch diverse YT Videos dazu kurz angeschaut und auch da sin die Frameraten eher wie bei dem Guru3d Test. Gemeinsamkeit: Intel CPU.

Ne liegt in der Szene von CB nicht vor.
Habs getestet.
 
  • Gefällt mir
Reaktionen: LukS und foo_1337
foo_1337 schrieb:
Mich wundern etwas die Ergebnisse hier schon. Bei anderen Tests, anbei einer von Guru3d sieht es etwas anders aus. Auch die 2070s liegt da vor der 5700xt. Wie kann das sein, dass eine 5700xt bei guru3d 49 fps hat, bei cb 43.3. Und noch krasser: die 3070 72fps und bei cb 51,5fps?

Wird entweder ein anderes Testsystem verwendet worden sein oder eine andere Szene zum Benchen (schätz ich mal)
 
Sebst wenn es nur an der Szene läge, sieht man hier ganz gut, dass eine Szene absolut nicht als Maßstab genommen werden kann. Die Ergebnisse liegen massiv auseinander. Auch dieser Test (mit i9) deckt sich null mit den CB Ergebnissen:
1604506798610.png
 
Könnt ihr bitte in den Raytracing Charts nur ein Wert pro Karte darstellen und dafür dann mehrere Charts für Low / High / etc. zeigen? Das @Low @No @Klo liest sich furchtbar!
 
  • Gefällt mir
Reaktionen: Aduasen
HardRockDude schrieb:
Klingt danach, als sei der Titel direkt für Ablage P entwickelt: Pile of Shame in diesem Fall. Bin enttäuscht in Anbetracht der Wertungen, und gleichzeitig wenig überrascht, weil Teil 2 bereits übertrieben hip war und gleichzeitig flach. Dass ausgerechnet Teil 2 in Retrospektive auch noch besser abschneidet, ist hart...

Teil 2 war technisch am PC auch ein Debakel, zumindest auf der RTX 20xx Gen, egal was ich einstelle, entweder flackert der Himmel oder Texturen in der Ferne, dann noch das Hipster-Setting.
Ich führe ein Textdokument über meine gespielten Spiele, für WD2 habe ich nach 3 Stunden PoS als neue Kategorie eingeführt, steht in dem Fall für Piece of .......
 
  • Gefällt mir
Reaktionen: HardRockDude
Affe007 schrieb:
Könnt ihr bitte in den Raytracing Charts nur ein Wert pro Karte darstellen und dafür dann mehrere Charts für Low / High / etc. zeigen? Das @Low @No @Klo liest sich furchtbar!

Hier!
 
  • Gefällt mir
Reaktionen: Affe007 und Hallo32
Faust2011 schrieb:
Watch Dogs: Legion ist der Vorzeigetitel von Nvidia fürs Raytracing der RTX 3000 Karten

Was nützt es, wenn es nicht mehr ist als langweiliger unoptimierter Kram. Aber Hauptsache übertriebenes RTX Gedöns. Ein Schelm wer Böses denkt.^^

Zitat 4PTest: Obwohl Ubisoft eigentlich alle Fäden in der Hand hält, ist Watch Dogs: Legion nicht mehr als ein belangloser Themenpark, der ein paar Minuten lang durchaus unterhaltsam ist - inhaltlich und spielerisch allerdings so erfüllend wie ein Bluescreen. Ende
https://www.4players.de/4players.ph.../Allgemein/40472/84580/Watch_Dogs_Legion.html

GZ Ubisoft. Da hat wohl die 0815 Ubi Formel nicht mehr funktioniert?^^
 
  • Gefällt mir
Reaktionen: McFritte, GINAC, Celinna und eine weitere Person
25Plus schrieb:
Warum sollte es denn wichtig sein, immer 60 FPS zu haben? Auf den Konsolen sind 30 FPS Standard, der durchschnittliche Spiele PC wird in einem ähnlichen Bereich liegen mit reduzierten Details.

Weil es einfach flüssiger ist. Wozu hab ich einen PC wenn ich dann erst auf Konsolenstandard spiele? Das wäre dann Geld verbrennen.
 
Mal ne Frage wäre es möglich die Qualität des Bildes mit einer realen Ansicht Foto aus London zb beim Parlament oder beim Handy oder Ei zu vergleichen? Denn wenn er überschwänglich genutzt wird das es nicht mehr realistisch ist ist es sinnlos.
 
@think->write! schau mal hier:

Und bzgl Konsolen Version:

Der erste Vergleich zur PC-Version wirkt jedoch eher ernüchternd. Im Vergleich zu den Ultra-Einstellungen des PCs lassen vor allem die Raytracing-Fähigkeiten zu wünschen übrig. Zur Sichtweite oder Schattendetails lassen sich aufgrund der Videoqualität aktuell noch keine genauen Angaben machen. Im direkten Vergleich lässt sich daher also in erster Linie eines sagen: die Xbox Series X verwendet für das Raytracing die mittleren (Medium) Einstellungen der PC-Version.

https://www.pcgameshardware.de/Watc.../News/Xbox-Series-X-vs-PC-Raytracing-1361137/
 
  • Gefällt mir
Reaktionen: v_ossi und think->write!
foo_1337 schrieb:
Sebst wenn es nur an der Szene läge, sieht man hier ganz gut, dass eine Szene absolut nicht als Maßstab genommen werden kann. Die Ergebnisse liegen massiv auseinander.
Vllt. zeigt die CB-Szene besonders krass den RT-Architekturunterschied zw. Turing und Ampere.
In der Tabelle scheint Zeile 1+2 vollkommen gegensätzlich zu sein.(T kommt an ein Limit?)
Und bei dem Video von danyundsahne dann halt die 3070. (ggü. der 3090)
(da RX6000 ähnlicher Turing ist, müsste dann in der CB-Szene auch dort weniger Fps als im Standardbench auftreten)
 

Anhänge

  • RT-Leistung.png
    RT-Leistung.png
    24,2 KB · Aufrufe: 297
Zurück
Oben