@Wolfgang also wenn rbar hier so Probleme macht sollte man es schon auch deaktiviert zeigen. Da sind die Percentile auf einmal einwandfrei. Da rbar gerade eh nur von sehr technikaffinen Nutzer aktiviert wird, kann man das Spiel spezifisch rechtfertigen. Ansonsten natürlich vielen Dank für die Arbeit.
-
Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!
Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Test Watch Dogs Legion im Test: Patch und Treiber steigern vor allem auf GeForce die Leistung
Laphonso schrieb:Nicht wirklich, ich nenne Beispiele:
Danke, dass du mir Recht gibst.
Nichts anderes habe ich so auch geschrieben.
O
owned139
Gast
Und wieso 0,2% und nicht 0,1%?Taxxor schrieb:Und das P0.2 zeigt im Grunde den besten Wert der schlechtesten 0.2%
borizb
Rear Admiral
- Registriert
- Nov. 2011
- Beiträge
- 5.187
https://www.computerbase.de/2020-12...ew-test/2/#abschnitt_benchmarks_in_3840__2160scootiewolff22 schrieb:AMD hat einfach die schnellsten Grakas, wenn man mal Raytracing weglässt, was eh noch 1 - 2 Generationen braucht
O
owned139
Gast
@borizb auch hier ist keine einzige AMD Karte zu sehen: https://www.3dmark.com/hall-of-fame-2/timespy+graphics+score+extreme+preset/version+1.0/1+gpu
- Registriert
- Nov. 2002
- Beiträge
- 8.928
Wenn man danach geht müsste man das auch bei AMD machen, an aus an aus an aus. Das ist kein praktisches Szenario. Wir nutzen rBAR und da müssen AMD und Nvidia nicht nur mit den Vor-, sondern auch den Nachteilen leben. In Legion erwischt es Nvidia da eben schwer.RushSyks schrieb:@Wolfgang also wenn rbar hier so Probleme macht sollte man es schon auch deaktiviert zeigen. Da sind die Percentile auf einmal einwandfrei. Da rbar gerade eh nur von sehr technikaffinen Nutzer aktiviert wird, kann man das Spiel spezifisch rechtfertigen. Ansonsten natürlich vielen Dank für die Arbeit.
Weil Spiele ganz gerne auch einfach mal so nicht reproduzierbar ruckeln. Und bei 0,1 % passiert es schnell, dass jeder Ruckler sofort ordentlich aufs Ergebnis drückt. Das wird mit 0,2 % etwas entschärft (ist aber auch dann immer noch schnell kritisch), ohne aber das man direkt so viele schlechte Frames durchgehen lässt wie bei 1 %.owned139 schrieb:Und wieso 0,2% und nicht 0,1%?
KarlKarolinger
Lieutenant
- Registriert
- Nov. 2008
- Beiträge
- 728
Keine Ahnung, ob das eine Beleidigung sein soll, aber dein Einwand hat so oder so nichts mit den Testergebnissen von CB zu tun.GerryB schrieb:Jo, Karl der Große und
die Karolinger hatten schon immer zuviel Knack.
Die o.g. Einschätzung muss Jetzt net jeder 0815-Player@3600...3700x für sich So übernehmen.
(Mit ner 3090 ist evtl. selbst ein moderner 5600 schon limitierend.)
Ich sag ja nicht mal, dass es falsch ist, es hat nur null Relevanz zum Artikel und für die dort gezeigten Ergebnisse, wenn dort ein ausreichend schneller Prozessor verwendet wurde.
Ergänzung ()
Blackfirehawk schrieb:@KarlKarolinger
Das ist ja das Fiese daran.. alle Magazine benchen immer mit der aktuell schnellsten CPU.. deswegen ist die Problematik jahrelang nicht aufgefallen.
Und was den sheduler angeht.. das ist so n Thema für sich.
.auch der Nvidia Treiber versucht zb seine Interrupts und berechnungen bevorzugt auf core 0 (oder was cppc als stärksten core angibt) zu legen. Und nicht alle Spiele sind gut in Parallelisierung.
Aber der 16kerner ist vielleicht einfach das falsche Beispiel da wir hier CPU Ressourcen on Mass haben...
Aber wie viele sind noch mit ryzen 3000 oder 2000 unterwegs oder nem Intel 9700k ohne HT.. 8700K oder gar ein Intel komplett ohne "K" und haben ihre GPU aufgerüstet weil sie denken daß ihre CPU noch genug Leistung hat in 1440P?
Wie oft haben wir das Märchen Gehört spare an der CPU und investiere in ne stärkere GPU?
Das Video von Hardware unboxed ist dementsprechend schon keine Kleinigkeit.. eine AMD karte hat im Moment einfach den Vorteil das man mit weniger CPU Leistung weiter kommt
Wenn man mit einer langsamen CPU bencht kann man auch unmöglich die maximale Leistung der GPUs vergleichen, das wurde ja schon zig mal diskutiert.
Und ich frage mich immer noch, warum wir hier über den Scheduler reden, wenn die hier verwendete CPU eben schnell genug ist, der Scheduler ist für die im Artikel gezeigten Ergebnisse wahrscheinlich doch gar nicht relevant.
Hardware Unboxed sagt in Videos auch, mal sollte ohnehin schon immer die CPU passend zur GPU dimensionieren. Wenn man seine 3090 mit einem 5600X kombiniert ist das eben ein Risiko, wenn man viele e-Sports Titel spielt, die eh auf nur einem Kern 500fps bringen können, ist es aber auch wieder egal.
Ich hab meine 3090 mit einem 3900X kombiniert und spiele in 4K, nur weil das ein Ryzen 3000 ist glaube ich kaum, dass die Kombination zu großen Einbrüchen führt.
Und wenn wir schon dabei sind, Probleme zu erwähnen, die nichts mit dem Artikel zu tun haben, ich hab halt zwei Jahre auf Big Navi gewartet und mir dann die 3090 gekauft nachdem ich unter anderem Benchmarks zu VR angesehen habe, die werden hier bei CB auch nur sehr selten/nie getestet und da sah NVidia auch deutlich besser aus. Hat aber eben auch überhaupt nichts mit dem Artikel oder den Ergebnissen darin zu tun. 🙃
Zuletzt bearbeitet:
B
B3nutzer
Gast
rBAR ist frisch rausgekommen und auf den Mainboards standardmäßig deaktiviert. Die allermeisten müssen sogar erstmal ihr VBIOS flashen.
Es ist zwar wichtig dass auf die Probleme hingewiesen wird, aber in so ner Situation sollte ein optionales Feature vielleicht auch mit dem deaktivierten Status gegengetestet werden. Das würde ich mir auch bei AMD wünschen. Nicht jeder hat ne rBAR kompatible CPU…
Klar verkompliziert das die Angelegenheit. Aber CB lässt sich für meinen Geschmack zu sehr dazu hinreißen Problemfälle und Performancevorteile als für den Nutzer gegeben Darzustellen, obwohl es IMMER „drauf ankommt“
Laut CB reichen in Cyberpunk 8 GB für RT nicht aus, weil es ruckelt.
Laut CB hat Watch Dogs auf GeForce schlechte Frametimes.
Dass die Ergebnisse ganz anders aussehen, wenn man das optional verfügbare DLSS in Cyberpunk nutzt oder das optional verfügbare rBAR in Watch Dogs deaktiviert - ja diese Tatsache bleibt bei euren Aussagen stets sehr blass oder wird gar nicht erst mitgetestet.
Streng genommen sind die Benchmarks auch einfach unvollständig. Wenn man schon schreibt dass die Frametimes ohne rBAR viel besser sind und ihr das ja wohl auch geprüft habt, was ist dann so schwer daran, zumindest nochmal ein kleines Diagramm mit einer Karte, einer Auflösung und zwei Balken rBAR On/Off einzufügen, um zumindest auch die Feststellung von euch zu veranschaulichen?
Mit Tools wie CapFrameX kriegt das mittlerweile jeder in ca 15 Minuten hin, sogar mit dreifachen Runs.
Und ja ich weiß dass ihr die Tests ohne Paywall bereitstellt wofür mein Dank rausgeht. Dennoch hoffe ich dass konstruktive Kritik ein Ansporn ist, besser zu werden.
Es ist zwar wichtig dass auf die Probleme hingewiesen wird, aber in so ner Situation sollte ein optionales Feature vielleicht auch mit dem deaktivierten Status gegengetestet werden. Das würde ich mir auch bei AMD wünschen. Nicht jeder hat ne rBAR kompatible CPU…
Klar verkompliziert das die Angelegenheit. Aber CB lässt sich für meinen Geschmack zu sehr dazu hinreißen Problemfälle und Performancevorteile als für den Nutzer gegeben Darzustellen, obwohl es IMMER „drauf ankommt“
Laut CB reichen in Cyberpunk 8 GB für RT nicht aus, weil es ruckelt.
Laut CB hat Watch Dogs auf GeForce schlechte Frametimes.
Dass die Ergebnisse ganz anders aussehen, wenn man das optional verfügbare DLSS in Cyberpunk nutzt oder das optional verfügbare rBAR in Watch Dogs deaktiviert - ja diese Tatsache bleibt bei euren Aussagen stets sehr blass oder wird gar nicht erst mitgetestet.
Streng genommen sind die Benchmarks auch einfach unvollständig. Wenn man schon schreibt dass die Frametimes ohne rBAR viel besser sind und ihr das ja wohl auch geprüft habt, was ist dann so schwer daran, zumindest nochmal ein kleines Diagramm mit einer Karte, einer Auflösung und zwei Balken rBAR On/Off einzufügen, um zumindest auch die Feststellung von euch zu veranschaulichen?
Mit Tools wie CapFrameX kriegt das mittlerweile jeder in ca 15 Minuten hin, sogar mit dreifachen Runs.
Und ja ich weiß dass ihr die Tests ohne Paywall bereitstellt wofür mein Dank rausgeht. Dennoch hoffe ich dass konstruktive Kritik ein Ansporn ist, besser zu werden.
trommelmaschine
Lt. Junior Grade
- Registriert
- Feb. 2012
- Beiträge
- 360
B3nutzer schrieb:Streng genommen sind die Benchmarks auch einfach unvollständig. Wenn man schon schreibt dass die Frametimes ohne rBAR viel besser sind und ihr das ja wohl auch geprüft habt, was ist dann so schwer daran, zumindest nochmal ein kleines Diagramm mit einer Karte, einer Auflösung und zwei Balken rBAR On/Off einzufügen, um zumindest auch die Feststellung von euch zu veranschaulichen?
Das sind dann aber auch wieder direkt 5 Balken mehr, da 5 Nvidia GPUs getestet wurden. Dann müsste man der Vollständigkeit halber aber auch die AMD-Karten alle mit und ohne SAM testen, auch direkt wieder 4 mehr..
Da Nvidia das Spiel auf die Whitelist gesetzt hat, ist es meiner Meinung nach absolut in Ordnung, nur mit RBar zu testen - Gerade, weil es hier im Artikel auch nur um die Performance mit neuestem Patch und neuesten Treibern geht, ist ja kein großer Rundumschlag, in dem alle GPUs bis ins kleinste Detail verglichen werden.
GERmaximus
Rear Admiral
- Registriert
- Sep. 2015
- Beiträge
- 5.288
KarlKarolinger schrieb:Ich hab meine 3090 mit einem 3900X kombiniert und spiele in 4K, nur weil das ein Ryzen 3000 ist glaube ich kaum, dass die Kombination zu großen Einbrüchen führt.
In allen Engines die multicore können nicht.
im CPU Limit sind es aber ca. 30% lt cb (vom 3900 zum 5900)
Zuletzt bearbeitet:
KarlKarolinger
Lieutenant
- Registriert
- Nov. 2008
- Beiträge
- 728
In 4K? Und kommen die 30% von IPC- und Taktsteigerungen oder vom NVidia Driver Overhead? Ich hatte das nur auf letzteren bezogen, dass die neue CPU grundsätzlich schneller ist, sollte klar sein. Beim 5600X kommt der Driver Overhead dafür schon eher als Problem in Frage, den sollte man also eher mit einer 6900XT statt einer 3090 kombinieren. In VR schneidet Big Navi dann aber wieder nicht so gut ab, weil es bei Problemen kaum synthetische Frames zwischenschiebt, in RT ist es wieder unbrauchbar und bei 4K fällt es auch oft genug recht weit zurück....GERmaximus schrieb:In allen Engines die multicore können nicht.
im CPU Limit sind es aber ca. 30% lt cb (vom 3900 zum 5900)
Zum gamen würde ich ehr den 5600x als den 3900 wählen
Eigentlich müsste man eine 3090 UND eine 6900XT haben, dann wäre man für jeden Anwendungsfall gut aufgestellt.
Im Testparkour habe ich damit auch weniger ein Problem. Aber gerade wenn man ein einzelnes Spiel in einer separaten Meldung heraushebt, fände ich es schon angemessen, alles darzustellen. Wozu das das weglassen führt, hat man hier in der Diskussion ja gut gesehen. Ansonsten müsste man auch immer mit RT benchen, es gibt mittlerweile keinen Grund, das wegzulassen. Als Ambient Occlussion oder Screen Space Reflexionen neu waren, hat das auch viel Leistung benötigt. Aber max Detail ist max Detail. Ich verstehe nicht, was da die Extrawurst für RT soll. Shader Modell 3.0, DX11 usw. wurde doch auch nicht 2 Jahre lang separat mitgeschleppt.Wolfgang schrieb:Wenn man danach geht müsste man das auch bei AMD machen, an aus an aus an aus. Das ist kein praktisches Szenario. Wir nutzen rBAR und da müssen AMD und Nvidia nicht nur mit den Vor-, sondern auch den Nachteilen leben. In Legion erwischt es Nvidia da eben schwer.
[...]
@borizb und @owned139
wie schön wenn man die vollkommene grüne Brille auf hat und nur die Tests betrachtet, wo Nvidia glänzt und dann auch schön die Bilder so beschneidet, das man nicht mehr das Game dazu lesen kann - aber wenn man CoD, F12020 oder Wolcen oder bei RT die anderen Tests betrachtet, sieht das ganz anders aus.
https://www.3dmark.com/hall-of-fame-2/wild+life+3dmark+score+performance+preset/version+1.0
wie schön wenn man die vollkommene grüne Brille auf hat und nur die Tests betrachtet, wo Nvidia glänzt und dann auch schön die Bilder so beschneidet, das man nicht mehr das Game dazu lesen kann - aber wenn man CoD, F12020 oder Wolcen oder bei RT die anderen Tests betrachtet, sieht das ganz anders aus.
https://www.3dmark.com/hall-of-fame-2/wild+life+3dmark+score+performance+preset/version+1.0
- Registriert
- Nov. 2002
- Beiträge
- 8.928
Nunja, wenn es in Benchmarks okay ist Optionen an und aus zu machen um die gewünschte/andere Ergebnisse zu erhalten, dann ist man aber nur noch am testen. Passt einem Ergebnis x nicht, dann schalte ich halt Grafikoption x um. Passt das einem auch nicht, dann y. Benchmark-Ergebnisse sehen immer ganz anders aus, wenn man an den Grafikoptionen rumspielt. Mit der Argumentation muss man halt jede einzelne Option testen.B3nutzer schrieb:Laut CB reichen in Cyberpunk 8 GB für RT nicht aus, weil es ruckelt.
Laut CB hat Watch Dogs auf GeForce schlechte Frametimes.
Dass die Ergebnisse ganz anders aussehen, wenn man das optional verfügbare DLSS in Cyberpunk nutzt oder das optional verfügbare rBAR in Watch Dogs deaktiviert - ja diese Tatsache bleibt bei euren Aussagen stets sehr blass oder wird gar nicht erst mitgetestet.
Streng genommen sind die Benchmarks auch einfach unvollständig. Wenn man schon schreibt dass die Frametimes ohne rBAR viel besser sind und ihr das ja wohl auch geprüft habt, was ist dann so schwer daran, zumindest nochmal ein kleines Diagramm mit einer Karte, einer Auflösung und zwei Balken rBAR On/Off einzufügen, um zumindest auch die Feststellung von euch zu veranschaulichen?
Mit Tools wie CapFrameX kriegt das mittlerweile jeder in ca 15 Minuten hin, sogar mit dreifachen Runs.
Und natürlich ist es nicht schwer, eine GeForce in Legion ohne rBAR im Diagramm zu zeigen. Haben wir ja hier auch getan:
https://www.computerbase.de/2021-04...-test/2/#diagramm-watch-dogs-legion-1920-1080
Nur das dann mal eben bei allen Ampere-Karten zu machen summiert die Arbeit deutlich. Und dann muss man das auch noch bei anderen machen, wenn wenn man das nur bei einer macht, ist in den Kommentaren gleich mal die Hölle los...
GerryB
Commodore
- Registriert
- Sep. 2016
- Beiträge
- 4.371
Bzgl. DriverOverhead gibts anscheinend in WOW auch ne kleine Überraschung:
YouTube
An dieser Stelle steht ein externer Inhalt von YouTube, der den Forumbeitrag ergänzt. Er kann mit einem Klick geladen und auch wieder ausgeblendet werden.
Ich bin damit einverstanden, dass YouTube-Embeds geladen werden. Dabei können personenbezogene Daten an YouTube übermittelt werden. Mehr dazu in der Datenschutzerklärung.
O
owned139
Gast
Wild Life kannte ich nicht und du willst mir weißmachen, dass die 6900XT in RT schneller ist, als die 3090? RLY?!Sebbi schrieb:@borizb und @owned139
wie schön wenn man die vollkommene grüne Brille auf hat und nur die Tests betrachtet, wo Nvidia glänzt und dann auch schön die Bilder so beschneidet, das man nicht mehr das Game dazu lesen kann - aber wenn man CoD, F12020 oder Wolcen oder bei RT die anderen Tests betrachtet, sieht das ganz anders aus.
https://www.3dmark.com/hall-of-fame-2/wild+life+3dmark+score+performance+preset/version+1.0
Beschnitten habe ich hier gar nichts. Nvidia dominiert in 4K in 90% aller Benchmarks. Kein Mensch interessiert sich für die restlichen 10%.
GerryB
Commodore
- Registriert
- Sep. 2016
- Beiträge
- 4.371
zähl mich mal bitte mit, alsoowned139 schrieb:Kein Mensch
kein Gamer+1
O
owned139
Gast
Du hast keine 6900XT, also nein.
owned139 schrieb:Nvidia dominiert in 4K in 90% aller Benchmarks. Kein Mensch interessiert sich für die restlichen 10%.
wieviele Leute spielen mit Auflösungen unter 4K? ~90%. ( https://store.steampowered.com/hwsurvey?l=german )
der Rest zu dem offenbar du zählst ist irrelevant
Ähnliche Themen
- Antworten
- 17
- Aufrufe
- 1.521
- Antworten
- 53
- Aufrufe
- 3.923
- Antworten
- 299
- Aufrufe
- 55.574
- Antworten
- 14
- Aufrufe
- 2.818
- Antworten
- 3
- Aufrufe
- 4.780