• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

Test Watch Dogs Legion im Test: Patch und Treiber steigern vor allem auf GeForce die Leistung

Blackfirehawk schrieb:
Die testen mit nem übertakteten und RAM optimierten 5950x.. also da kommt kaum was ran..

Es geht da bei den Games auch mehr um die Leistung pro Kern..
Mit nem älteren CPU wie zb Intels 8000er/9000er reihe oder ryzen 3000, die ja auch haufenweise mit neuen GPUs kombiniert werden,

hast du das Problem schon eher
Ja, eben, es geht um die Leistung pro Kern bei den Spielen, aber für den Driver Overhead bleibt beim 5950X ja noch genug frei.
Wenn CB mit nem R5 1600 getestet hätte, wäre das CPU-Limit bei NVidia wohl vom Driver Overhead, beim 5950X bin ich mir da nicht so sicher, weil der genug Leistung für Treiber + Spiel haben sollte.
Wenn das Spiel einige Kerne voll beansprucht bleiben für den Treiber ja andere frei. Mir wäre bisher nicht bekannt, dass der Software Scheduler auf demselben Kern laufen muss wie das Spiel. Würde auch den Aussagen von HU widersprechen, dass das Problem nur mit CPUs auftritt, die keine freien Kerne mehr haben.
Ergänzung ()

GerryB schrieb:
Man kanns drehen und wenden wie man will, aber in DX12 hat Ampere nen größeren DriverOverhead und läuft erst mit viel teuereren CPU´s halbwegs rund.
Siehe oben, sollte irrelevant sein, wenn hier mit einem 5950X getestet wurde und nicht mit einem R5 1600.
 
@KarlKarolinger
Das ist ja das Fiese daran.. alle Magazine benchen immer mit der aktuell schnellsten CPU.. deswegen ist die Problematik jahrelang nicht aufgefallen.

Und was den sheduler angeht.. das ist so n Thema für sich.
.auch der Nvidia Treiber versucht zb seine Interrupts und berechnungen bevorzugt auf core 0 (oder was cppc als stärksten core angibt) zu legen. Und nicht alle Spiele sind gut in Parallelisierung.

Aber der 16kerner ist vielleicht einfach das falsche Beispiel da wir hier CPU Ressourcen on Mass haben...

Aber wie viele sind noch mit ryzen 3000 oder 2000 unterwegs oder nem Intel 9700k ohne HT.. 8700K oder gar ein Intel komplett ohne "K" und haben ihre GPU aufgerüstet weil sie denken daß ihre CPU noch genug Leistung hat in 1440P?

Wie oft haben wir das Märchen Gehört spare an der CPU und investiere in ne stärkere GPU?

Das Video von Hardware unboxed ist dementsprechend schon keine Kleinigkeit.. eine AMD karte hat im Moment einfach den Vorteil das man mit weniger CPU Leistung weiter kommt
 
Mithos schrieb:
Verstehe ich die Angabe falsch oder bezieht sich die 0,2% Perzentil tatsächlich auf die "schlechtesten" 0,2% FPS? Das wäre doch quasi nichts. In 10 Minuten macht das doch nur ca. 1s aus.
Wenns jetzt z.B. die schlechtesten 1% wären ok, aber so?
Wo ist mein Denkfehler?
CapframeX hat da eine ganz gute Erklärung dazu, auch auf Deutsch. Ich kann es auch nicht besser erklären.
https://www.capframex.com/blog/post/Erklärung unterschiedlicher Performance-Metriken

Man muss sich eben klar werden, was man von einer GPU haben möchte. Ich mag ja größere Zahlen bei Benchmarks wie jeder andere auch, aber für den Alltag steht primär eine angenehme Erfahrung beim Spielen im Vordergrund. Bei Hardware-Tests, wo der Unterschied bei den Durchschnitts-FPS oft so oder so ausreichend ist, kann der eigentliche Unterschied eben in den Perzentilen liegen (siehe in diesem Test alle AMD gegen alle Nvidia Karten - kann natürlich bei einem anderen Spiel ganz anders aussehen). Oder auch OC-Tests, wo eventuell die FPS hoch geht aber die Perzentile in Relation zum Durchschnitt runter - zeigt gut auf, ob es für die Komponente für den Alltagsgebrauch überhaupt Sinn ergibt und wo der "Sweetspot" ist. Deswegen ist evtl. auch das Kappen von Framerates sinnvoll: 144+ FPS und minimaler Input-Lag sind schön und gut, Aussetzer/Ausreißer die du wahrnehmen kannst, aber sich sonst nur in Perzentilen widerspiegeln, können trotzdem den Spielspaß verderben. Manche haben das irgendwie noch nicht mitbekommen und ignorieren solche Angaben in den Tests. Und vielleicht ist jemand selbst nicht so empfindlich. Heißt aber nicht, dass es im Vergleich von GPUs nicht relevant ist. Wenn eine 6700XT selbst bei 4K höhere 0,2% Perzentil-FPS als eine 3090 erreicht, ist das schon von gewissem Interesse.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: McFly76 und GERmaximus
Die 4C/8T CPUs von Intel sind in dem Spiel übrigens nahezu unbrauchbar (mit Nvidia Karte).

Da sind Einbrüche auf 40 FPS beim fahren in der Stadt incl Microruckler normal.
Hier würde es schon nen Unterschied machen, wenn AMDs Grafiktreiber im CPU Limit mehr Performance herausholt.

Mit aktuellen High End CPUs natürlich alles kein Problem, wenn genug Threads nix zu tun haben..

Es ist halt schon ein ding, wenn das Spiel auf ner last-gen Konsole mit halbwegs stabilen 30 FPS relativ smooth läuft und am PC ruckelt man sich mit nem 7700K oder vergleichbarem trotz Gsync nen Ast ab.
Wobei solche CPUs immer locker mehr als doppelt so viel Performance wie ne Konsole abgeliefert haben.

Schlechte Optimierung des Spiels + Nvidia Treiber geben in dem Fall den alten Intels wohl endgültig den Rest.
 
Das schlechte Abschneiden der Nvidia-Karten ist nicht erst seit heute so.
Igor´s Lab hat dazu einen schönen Bericht gemacht, der genau diese Schwäche aufzeigt. In 720p nämlich noch deutlicher sichtbar. Ich suche den Test gerade mal raus.

EDIT:
Ich glaube, das hier war er.
 
Zuletzt bearbeitet: (Link ergänzt)
  • Gefällt mir
Reaktionen: Tenchi Muyo
Freiheraus schrieb:
FPS, 0,2% Perzentil: 30,7 FPS, souverän. Verschei**erst du dich nicht gerade selbst am meisten? Der Großteil der anderen Leser wird die Fakten zur Kenntnis genommen haben. Selbst die 46,1 FPS der RX 6900XT bei den, 0,2% Perzentil würde ich nicht als souverän bezeichnen.
Mach nochmal die Augen auf. Im Artikel steht ja, dass die Minimum FPS durch Probleme mit rBar auftreten. Deaktiviere rBar und die Minimum-FPS sollten deutlich höher liegen! Noch dazu hat wohl nicht jeder die Probleme in den Game mit rBar bei dem Spiel.
 
  • Gefällt mir
Reaktionen: thuNDa
Ich finde diese Amd Nvidia Grundsatz diskussionen immer köstlich, fakt ist doch das RT nice 2 have ist, perfromace frist wie sau und noch Zukunftsmusik ist.
Dlss ist mm richtig gut, grad für lowbudget bzw wenn die Karten älter werden um paar Fps rauszukitzeln. Ich spiel lieber mit 140+ fps schön smooth anstatt bei 50 fps und 60hz an Lichtreflektionen zu erblinden. Sind halt auch 990 vs 1550€ uvp. In 2 Jahren hat jeder Aldi rechner um 1000,- mehr RT Leistung als jetztige highend Karten.
 
Mithos schrieb:
Verstehe ich die Angabe falsch oder bezieht sich die 0,2% Perzentil tatsächlich auf die "schlechtesten" 0,2% FPS? Das wäre doch quasi nichts. In 10 Minuten macht das doch nur ca. 1s aus.
Wenns jetzt z.B. die schlechtesten 1% wären ok, aber so?
Perzentile beziehen sich auf Frames, nicht auf Zeit. Und das P0.2 zeigt im Grunde den besten Wert der schlechtesten 0.2%

Nehmen wir mal die 3090 in 1440p
10 Minuten bei 94,5fps im Durschschnitt wären 56.700 Frames, ein P0.2 von 52,3 bedeutet, dass mindestens 114 Frames bei 52,3 oder weniger lagen.

Das P0.2 ist genau dazu da, um Spikes zu erkennen, sollten sie häufiger auftreten. Es ist ja nicht so, dass du in 10 Minuten für eine Sekunde 52,3fps hast und dann die restlichen 599 Sekunden konstante 94,5FPS. Damit würde man zwar auch diese Perzentil-Werte messen, aber in der Realität verläuft es so nicht.


Nimmt man nur P1, könnte man für die 3090 hier z.B. 70FPS sehen, was eine recht gute Spanne zum Durchschnitt ist.
Allerdings ignoriert man dabei eben in 10 Minuten auch 566 Frames, das ist schon ne ganze Menge, die ja potenziell weitaus niedriger liegen könnten.
Gibt es wirkliche Ruckler, können da über die Zeit einige Werte runter bis 20FPS drin sein, was man definitiv bemerkt, wenn sie regelmäßig auftreten(in dem Fall könnte theoretisch alle 2 Sekunden ein Frame hochschießen).
Indem man direkt P0.2 nimmt und nur noch 113 Frames ignoriert, sichert man sich weiter ab, dass es wirklich flüssig ist.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: pietcux und Nero1
Die Leute denken halt immer nur das wäre Auflösungsabhängig und es wäre ja alles kein Problem weil man ja mit ner rtx3000 ja nicht in 720P oder 1080P spielt..

Aber das es ebenfalls 1440P betrifft, da denkt keiner dran..
Und das es Auflösungsunabhängig CPU Ressourcen verbraucht die an anderer Stelle fehlen auch nicht.

Wenn die CPU an sich mit dem spiel schon genug zu tun hat (+ Hintergrund gedönst) wird es sehr schnell ruckelig wenn der Treiber an und für sich selbst schon Mal weitere 20-30% CPU Leistung einfordert die man eventuell gar nicht mehr frei hat.
Auch sollte man bedenken das mit dlss auch die Auflösung verringert wird .. noch mehr CPU Leistung wird also benötigt.
Ergo kann Dlss zwar die framerate anheben.. aber auch schnell sehr ruckelig werden
 
scootiewolff22 schrieb:
AMD hat einfach die schnellsten Grakas, wenn man mal Raytracing weglässt, was eh noch 1 - 2 Generationen braucht
Glaube du hast die zig tausend Benchmarks falsch gelesen.

Die RTX 3090 ist immer noch die schnellste Spiele Grafikkarte die es aktuell manchmal zum kaufen gibt.
 
Lübke82 schrieb:
Mach nochmal die Augen auf. Im Artikel steht ja, dass die Minimum FPS durch Probleme mit rBar auftreten. Deaktiviere rBar und die Minimum-FPS sollten deutlich höher liegen!
Wieso Augen auf? Eher Hirn ein!
Weshalb hat CB nicht mit deaktivierter rBAR gebencht? Geht in dem Fall der Average FPS-Zuwachs flöten?
Generelle Perfomance-Steigerung gerne mitnehmen, aber sich daraus ergebende Nachteile lieber ausblenden oder kleinreden.

Es geht munter weiter mit der "Wasch mir den Pelz, aber mach mich nicht nass"-Mentalität wenn Intel oder Nvidia in Tests/Szenarien straucheln. Deplazierter könnten in dem Zusammenhang Worte wie "souverän" gar nicht sein.

Jemand der z. B. tatsächlich ruhig ist, muss nicht ständig betonen oder sich selbst vorbeten, dass er ruhig sei/wäre.
 
Zuletzt bearbeitet:
Freiheraus schrieb:
Weshalb hat CB nicht mit deaktivierter rBAR gebencht? Geht in dem Fall der Average FPS-Zuwachs flöten?

Das ist genau die Frage die hier nicht beantwortet wird, aber wenigstens hat man dann wieder Zündstoff für die Diskussion.
 
Lübke82 schrieb:
Das wurde auch schon vor zwei Jahren behauptet. :mussweg:
Und immerhin ist heute eine 500€ UVP 3070 schon mal so schnell in RT wie die High-End Karte von vor 2 Jahren, und bei normaler Marktsituation könnte man so eine 3070 heute durchaus auch in einem 1000€ Aldi Rechner finden.
Wenn der RT Zuwachs weiter geht, dann ist es gar nicht so unrealistisch, dass 2023 eine 500€ GPU die 3090 in RT schlägt.
 
  • Gefällt mir
Reaktionen: pietcux
Freiheraus schrieb:
Wieso Augen auf? Eher Hirn ein!
Weshalb hat CB nicht mit deaktivierter rBAR gebencht? Geht in dem Fall der Average FPS-Zuwachs flöten?
Generelle Perfomance-Steigerung gerne mitnehmen, aber sich daraus ergebende Nachteile lieber ausblenden oder kleinreden.

Es geht munter weiter mit der "Wasch mir den Pelz, aber mach mich nicht nass"-Mentalität wenn Intel oder Nvidia in Tests/Szenarien straucheln. Deplazierter könnten in dem Zusammenhang Worte wie "souverän" gar nicht sein.

Jemand der z. B. tatsächlich ruhig ist, muss nicht ständig betonen oder sich selbst vorbeten, dass er ruhig sei/wäre.

Also hier irgend ein Verhalten an bestimmte Hardwarenutzer andichten zu wollen find ich schon krass...und dumm. Da nimmt sich niemand was!

Noch dazu wird rBar in UHD nicht viel raus reißen! Find es schade, das CB nicht die Werte ohne rBar bereitstellt, wenn es ja soviel Probleme macht auf Nvidia-Karten.
Ergänzung ()

Taxxor schrieb:
Und immerhin ist heute eine 500€ UVP 3070 schon mal so schnell in RT wie die High-End Karte von vor 2 Jahren, und bei normaler Marktsituation könnte man so eine 3070 heute durchaus auch in einem 1000€ Aldi Rechner finden.
Wenn der RT Zuwachs weiter geht, dann ist es gar nicht so unrealistisch, dass 2023 eine 500€ GPU die 3090 in RT schlägt.

UVP ist aber Schnee von gestern. Und deine Behaupten handelte von einem 1000€-Aldirechner. Also jetzt nicht von abdriften. ;-)
 
  • Gefällt mir
Reaktionen: thuNDa
Vielleicht schaue ich nach Januar nochmal in das Spiel. Damals lief es auf einer 5700xt furchtbar, hatte Bugs und stürzte immer wieder ab.

Das was ich zwischen dieser peinlichen Darbietung gespielt hab war aber auch eher langweilige ubi-einheitskost.
 
Die minimal fps sind ja noch immer erschreckend schlecht für Nvidia.

in WQHD ist die 6700xt so schnell wie die 3090, bzw. Die 6900xt knappe 40% schneller. Da liegt aber noch gehörig der Hund begraben
Ergänzung ()

Laphonso schrieb:
Man stellt überrascht fest, dass bei der Top End 1000-1500 Euro AMD GPU zwischen min und avg fps gerade mal 12 liegen in 4K.

Das Narrativ der 6900XT gerät zudem in Wanken, wenn sie direkt mal 10% hinter der 3090 in den max fps liegt.
.

Wie viel fps liegen zwischen min und Max fps bei der 3090? Und was ist für ein flüssiges Spiel Gefühl wichtiger? Kurze Spikes auf hohe Max fps, gefolgt von tiefen Dropps, oder ein eher gleichmäßiges Bild mit hohen min fps, dafür geringere Max fps?

unabhängig das die Werte hier generell niedrig sind.
Ergänzung ()

Blackvoodoo schrieb:
Die RTX 3090 ist immer noch die schnellste Spiele Grafikkarte die es aktuell manchmal zum kaufen gibt.

In Fhd, WQHD und 3440x1440?
Vor oder nach dem Treiberupdate mit den 3-10% Mehrleistung?
Mit oder ohne dem nativen SAM Feature?
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Shoryuken94 und McFly76
Wolfgang schrieb:
Auch wenn Nvidia bei Watch Dogs Legion eng mit Ubisoft zusammengearbeitet hat, um Raytracing und DLSS zu integrieren, liefen GeForce-Grafikkarten zu Anfang verhältnismäßig langsam. Wie aktuelle Benchmarks-Tests zeigen, ist das mittlerweile nicht mehr der Fall: Spiele-Patches und Treiber haben die Performance massiv verbessert.

Zum Test: Watch Dogs Legion im Test: Patch und Treiber steigern vor allem auf GeForce die Leistung

bei wundertreibern bin ich immer skeptisch, könnt ihr mal nen BQ test machen mit dem alten und dem neuen treiber auf den RTX karten?
 
KarlKarolinger schrieb:
Siehe oben, sollte irrelevant sein, wenn hier mit einem 5950X getestet wurde und nicht mit einem R5 1600.
Jo, Karl der Große und
die Karolinger hatten schon immer zuviel Knack.

Die o.g. Einschätzung muss Jetzt net jeder 0815-Player@3600...3700x für sich So übernehmen.
(Mit ner 3090 ist evtl. selbst ein moderner 5600 schon limitierend.)


 
Zuletzt bearbeitet:
evilhunter schrieb:
Respektabler Leistungszuwachs.
Ob Nvidia nun auch mehr für Valhalla optimieren wird? Das läuft auf Ampere ja erstaunlich schlecht.
So viel sei schonmal verraten: Auch Valhalla läuft auf Nvidia etwas besser, aber längst nicht so viel wie LEgion. Das hängt zum Teil aber auch an rBAR.
GerryB schrieb:
Wäre Es net einfacher für WDL(einzeln) per Inspektor das rBar auszuschalten.
(statt Gefuddel im Bios)
Das ist natürlich eine Möglichkeit, wenn man den Inspector nutzt. Die meisten werden das aber nicht tun.
Freiheraus schrieb:
Wieso Augen auf? Eher Hirn ein!
Weshalb hat CB nicht mit deaktivierter rBAR gebencht? Geht in dem Fall der Average FPS-Zuwachs flöten?
Generelle Perfomance-Steigerung gerne mitnehmen, aber sich daraus ergebende Nachteile lieber ausblenden oder kleinreden.
Mit deaktiviertem rBAR steigen die Durchschnitts-FPS bei Ampere gar noch etwas an. Das sieht man hier:
https://www.computerbase.de/2021-04...-test/2/#diagramm-watch-dogs-legion-1920-1080

Das steht so auch alles im Text. Und mit rBAR wurde einfach gebencht, da im Testparcours nunmal mit rBAR gebencht sind. Die neuen WD Benchmarks sind einfach ein Ausschnitt aus diesem.
 
  • Gefällt mir
Reaktionen: GerryB und evilhunter
Zurück
Oben