Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
TestWatch Dogs: Legion im Test: Hohe Anforderungen und etwas viel Raytracing
Das Spiel macht ein bisschen Spaß, für 14,99€ schon ok.
Performance ist natürlich grottig.
Von den ganzen Bugs und Glitches fang ich erst gar nicht an, die sind ab und an da... okay, immer.
Ich finde Watch Dogs Legion ist richtig anstrengend zu spielen, vorallem wenns ingame Tag ist.
Alles ist gefühlt überbelichtet, farbuntreu und total seltsam "abgemischt".
Ich weiß nicht obs mir nur so geht aber da sehen andere Games deutlich besser aus.
War doch in Teil 2 auch schon so. Sieht oft einfach künstlich aus. Es sieht eh vieles nach Plastik aus. Von der schäbigen Physik, wenn man mit Autos fährt mal ganz zu schweigen, das machte schon ein GTA IV von 2008 um Welten besser.
Die derzeit noch aktuellen Konsolen (xbox one, ps4) hatten doch auch AMD Hardware und am PC hat man davon nicht profitiert.
Liegt wohl eher daran, dass die Spiele in DX12 sind, DX11 war AMD einfach nicht so gut wie Nvidia.
3800x vs 8700k:
Habe letztlich als meine 2080ti noch da war, mit nem Kumpel RDR2 verglichen.
Beide eine 2080ti (exakt gleichen Takt, vram etc) selbst settings (mehrfach kontrolliert uns geht es dabei um den technischen Vergleich). Er hatte einen 5,1ghz 8700k mit allem was geht (RAM Ring Bus...)
Ich einen 3800x mit 3800er 15cl RAM bei 1900er infinity.
bei 100-99% GPU LAST hatte er rund 10-15% mehr fps. Ja im angezeigten GPU Limit. Das bedeutet für mich das ein gebürsteter Intel noch immer dermaßen schnell ist und selbst im angeblichen GPU Limit bremsen KANN (RDR2 war ein Extrem diesbezüglich)
und Nun haben wir solche Unterschiede im Bench hier. Ich wette CPU Limit, auch bei vermeintlich voller GPU Last.
Zudem fällt auf, dass AMD-Grafikkarten vor allem in niedrigen Auflösungen deutlich besser als die Nvidia-Beschleuniger abschneiden. So liefert die Radeon RX 5700 XT in 1.920 × 1.080 14 Prozent mehr Durchschnitts-FPS als die GeForce RTX 2070 Super und 25 Prozent bessere Perzentil-FPS.
So liegt die Radeon RX 5700 XT gar nicht so weit hinter der GeForce RTX 3070 zurück.
Das Problem der Nvidia-GPUs ist die DirectX-12-API.
Die Ergebnisse auf Guru3d sind halt komplett anders. Zwischen 5700xt und 3070 liegen 26fps. Wenn das "nicht so weit ist", hab ich da ein anderes Verständnis.
Kann den CB-Test nicht bestätigen. DLSS Balanced liefert bei mir die besten Ergebnisse. Ultra Performance kann man in die Tonne kloppen. Performance gefiel mir auch nicht. Teilweise leidet die Grafikqualität an einigen Stellen zu stark darunter. Bei DLSS Qualität konnte ich im Vergleich zu DLSS Balanced hinsichtlich des Bildes keinen Unterschied feststellen jedoch deutlich bei den FPS. Ich spiele weiter auf DLSS Balanced liefert schnelle Ergebnisse und das Bild sieht top aus. 4K und Schärfegrad des Bildes bei 30%. Das Bild ist grandios !
Kp was der VRAM Quatsch soll, hab immer ~8GB VRAM, sollte also auch für ne 3070 reichen. Wir reden hier von einem extrem schlecht performanceoptimierten Spiel. Hab diesbezogen aber auch nicht viel getestet, weil unnötig. Texturen sind alle scharf.
Ich finde die Shadereffekte des Meereswasser im Spiel ohne Raytracing okay und mit Raytracing DLSS absolut erbärmlich. Man merkt das RT und DLSS noch im Anfangsstadium der Entwicklung sind, ich fands ganz nett zu sehen was teilweise technisch derzeit möglich ist und wenn die Spieledesigner erstmal damit umgehen können werden wir auch wieder höhere FPS bekommen.
verstehe eh nicht warum keine internen Benches genommen werden, wenn die denn vorhanden sind. Empfinde ich für die Vergleichbarkeit besser wenn interne genommen werden
@Wolfgang ein Statement hierzu wäre schön.
Habe mir jetzt auch diverse YT Videos dazu kurz angeschaut und auch da sin die Frameraten eher wie bei dem Guru3d Test. Gemeinsamkeit: Intel CPU.
Ich verstehe den Test auch nicht so ganz.
Bei mir läuft das Spiel auf einer (inzwischen eben alten) RTX 2080 (ohne S) mit UHD und Raytracing sowie DLSS ON wirklich flüssig mit auf 40 FPS limitierter Ausgabe.
Ich habe da nichts zu meckern.
@Wolfgang ein Statement hierzu wäre schön.
Habe mir jetzt auch diverse YT Videos dazu kurz angeschaut und auch da sin die Frameraten eher wie bei dem Guru3d Test. Gemeinsamkeit: Intel CPU.
Mich wundern etwas die Ergebnisse hier schon. Bei anderen Tests, anbei einer von Guru3d sieht es etwas anders aus. Auch die 2070s liegt da vor der 5700xt. Wie kann das sein, dass eine 5700xt bei guru3d 49 fps hat, bei cb 43.3. Und noch krasser: die 3070 72fps und bei cb 51,5fps?
Sebst wenn es nur an der Szene läge, sieht man hier ganz gut, dass eine Szene absolut nicht als Maßstab genommen werden kann. Die Ergebnisse liegen massiv auseinander. Auch dieser Test (mit i9) deckt sich null mit den CB Ergebnissen:
Könnt ihr bitte in den Raytracing Charts nur ein Wert pro Karte darstellen und dafür dann mehrere Charts für Low / High / etc. zeigen? Das @Low @No @Klo liest sich furchtbar!
Klingt danach, als sei der Titel direkt für Ablage P entwickelt: Pile of Shame in diesem Fall. Bin enttäuscht in Anbetracht der Wertungen, und gleichzeitig wenig überrascht, weil Teil 2 bereits übertrieben hip war und gleichzeitig flach. Dass ausgerechnet Teil 2 in Retrospektive auch noch besser abschneidet, ist hart...
Teil 2 war technisch am PC auch ein Debakel, zumindest auf der RTX 20xx Gen, egal was ich einstelle, entweder flackert der Himmel oder Texturen in der Ferne, dann noch das Hipster-Setting.
Ich führe ein Textdokument über meine gespielten Spiele, für WD2 habe ich nach 3 Stunden PoS als neue Kategorie eingeführt, steht in dem Fall für Piece of .......
Könnt ihr bitte in den Raytracing Charts nur ein Wert pro Karte darstellen und dafür dann mehrere Charts für Low / High / etc. zeigen? Das @Low @No @Klo liest sich furchtbar!
Was nützt es, wenn es nicht mehr ist als langweiliger unoptimierter Kram. Aber Hauptsache übertriebenes RTX Gedöns. Ein Schelm wer Böses denkt.^^
Zitat 4PTest: Obwohl Ubisoft eigentlich alle Fäden in der Hand hält, ist Watch Dogs: Legion nicht mehr als ein belangloser Themenpark, der ein paar Minuten lang durchaus unterhaltsam ist - inhaltlich und spielerisch allerdings so erfüllend wie ein Bluescreen. Ende https://www.4players.de/4players.ph.../Allgemein/40472/84580/Watch_Dogs_Legion.html
GZ Ubisoft. Da hat wohl die 0815 Ubi Formel nicht mehr funktioniert?^^
Warum sollte es denn wichtig sein, immer 60 FPS zu haben? Auf den Konsolen sind 30 FPS Standard, der durchschnittliche Spiele PC wird in einem ähnlichen Bereich liegen mit reduzierten Details.
Mal ne Frage wäre es möglich die Qualität des Bildes mit einer realen Ansicht Foto aus London zb beim Parlament oder beim Handy oder Ei zu vergleichen? Denn wenn er überschwänglich genutzt wird das es nicht mehr realistisch ist ist es sinnlos.
An dieser Stelle steht ein externer Inhalt von YouTube, der den Forumbeitrag ergänzt. Er kann mit einem Klick geladen und auch wieder ausgeblendet werden.
Der erste Vergleich zur PC-Version wirkt jedoch eher ernüchternd. Im Vergleich zu den Ultra-Einstellungen des PCs lassen vor allem die Raytracing-Fähigkeiten zu wünschen übrig. Zur Sichtweite oder Schattendetails lassen sich aufgrund der Videoqualität aktuell noch keine genauen Angaben machen. Im direkten Vergleich lässt sich daher also in erster Linie eines sagen: die Xbox Series X verwendet für das Raytracing die mittleren (Medium) Einstellungen der PC-Version.
Sebst wenn es nur an der Szene läge, sieht man hier ganz gut, dass eine Szene absolut nicht als Maßstab genommen werden kann. Die Ergebnisse liegen massiv auseinander.
Vllt. zeigt die CB-Szene besonders krass den RT-Architekturunterschied zw. Turing und Ampere.
In der Tabelle scheint Zeile 1+2 vollkommen gegensätzlich zu sein.(T kommt an ein Limit?)
Und bei dem Video von danyundsahne dann halt die 3070. (ggü. der 3090)
(da RX6000 ähnlicher Turing ist, müsste dann in der CB-Szene auch dort weniger Fps als im Standardbench auftreten)