Test Grafikkarten 2021 Q2 im Test: GeForce RTX und Radeon RX mit rBAR im Benchmark-Duell

foo_1337 schrieb:
Du glaubst also, dass während du mit einer Geforce Karte in DLSS zockst, ein "Supercomputer" im Hintergrund die Berechnungen für dich erledigt? Nein, das ist nicht so. Die Ergebnisse sind längst im Treiber vorhanden.
Und die "Ergebnisse" müssten nie errechnet werden? Er hat schon recht mit seiner Aussage.
 
👍Mal wieder n richtig interessanter Vergleich, danke dafür!
Ist UWQHD noch so selten, oder weshalb sieht man es so gut wie nie bei Tests?
Schade, so rechne ich mir immer in etwa den Mittelwert zwischen WQHD und 4k aus. Würde das so hinkommen?
 
  • Gefällt mir
Reaktionen: ThePlayer
Taxxor schrieb:
Und die Nanite Demo ist wie bei allen bisherigen Tech-Demos natürlich auch nicht mit einem fertigen Spiel zu vergleichen, welches dann schon sehr viel weniger beeindruckend aussehen könnte.
1.die Technik darin ist Bestandteil der engine und daher weit mehr als nur eine demo... Die UE wird auch in der 5.Generation wieder weit verbreitete Anwendung finden.
2. Sie lief auf der Konsole also weit schwächerer hardware. Die Welt ist nun mal so, das die meisten AAA Titel auch weiterhin für Konsolen optimiert werden und somit dürfte jeder mit einer RDNA2 auch in den Genuss dieser Optimierungen kommen. Das Ampere im RT bereich leistungsfähiger ist ist klar, aber durch die konsolenhardware wird RX 6800/6900 jedenfalls die kommenden Jahre nicht abgehängt werden. Lediglich dort, wo NV "entwicklungshilfe" leistet, werden mehr RT Effekte für die PC ports implementiert. Das Entwickler freiwillig zusätzlich entwicklungsarbeit leisten um Ampere besser da stehen zu lassen ist naiv.
 
Benji21 schrieb:
Wenn man bedenkt dass DLSS 2.0 mit einem Supercomputer trainiert wird ist es eigentlich ein Unding da von Effizienz zu sprechen... Ist die 3090 so schon nicht und DLSS macht sie auch nicht "effizienter". Die Energie wird schlicht woanders verbraucht damit RT nicht mehr ganz so extrem nach Luftschloss aussieht.
@Fighter1993

Nur ist der Punkt der, dass 1 Supercomputer das 1x berechnet und das dann für alle RTX User nutzbar
ist, dadurch, dass die errechneten Daten im Treiber abliegen. Das wird nicht jedes mal für jedes Spiel
und jeden Benutzer neu berechnet, es braucht somit nur 1x Energie, nicht jedes mal.

Nvidias eigene DGX Supercomputer sind wesentlich effizienter für die Berechnung von sowas als welche
von der Stange, weil sie auf exakt das hin konzipiert und optimiert wurden (also AI und Deep Learning).

https://en.wikipedia.org/wiki/Deep_learning_super_sampling#DLSS_2.0
1619856407464.png


Was Nvidia da macht, hat unterm Strich ein Energiesparpotential das noch gar nicht richtig erfassbar ist.
Richtig angewandt könnte es aber immens sein, global gesehen. Auch deswegen ist es wünschenswert,
dass AMD hier nachzieht. Diese Technik hat für alle viel Potential und sollte vorangetrieben werden.
 
  • Gefällt mir
Reaktionen: MindofRafi, GERmaximus, Czk666 und 2 andere
R2D2 schrieb:
Glaube nicht das ich heule weil bis dahin habe ich schon nemenge spass,vieleicht auch schon ne 4090.
Ich glaube der Kollege hat geheult als er den geringen Unterschied zwischen RT ein und RT aus gesehen hat. Ich bin ehrlich gesagt bisher enttäuscht von den RT Effekten. Am meisten hat mich RT bisher bei Quake 2 begeistert. Da hatte ich wirklich einen wow Effekt. Hoffe das es sich in den nächsten Jahren stark verbessert. Weil so kann ich auch erstmal ohne Spielen. Da bringt rBAR viel mehr.
@Wolfgang ich finde auch es auch absolut logisch wieso rBAR aber nicht DLSS getestet wird. Und Stelle es mir auch ziemlich schwer vor da ab Ende des Jahres DLSS gegen das AMD Pendant. Wenn es überhaupt machbar ist. Wenn die Bildqualität in jedem Spiel anders ist und dann auch noch bei AMD und Nvidia unterscheidet.
 
  • Gefällt mir
Reaktionen: Onkel Föhn und DarkerThanBlack
Habe mir nun einige Resizable BAR Test und Benchmark Videos angeschaut für die 3090, sehr durchwachsene Ergebnisse, manchmal eine Handvoll fps mehr, manchmal sogar weniger.
Da bringt MSI Afterburner mit 100 MHz auf den Takt Regler mit 2 Mausklicks irgendwie mehr, und das verläßlich.

Evtl ist das einfach in den hohen Auflösungen und den max Settings nicht so der Bringer, in den "unteren" Auflösungen aber viel interessanter.
 
  • Gefällt mir
Reaktionen: Klever
@borizb das ist richtig allerdings verbraucht die 6900XT immer noch weniger Strom wie die 3090.

So sparsam der Supercomputer ist, er wird aktuell immer der ineffizientere bleiben.
 
Laphonso schrieb:
Gibt es hier UWQHD User, die ihre 3080 und 3090 für rBar "umgeflashed" hatten? Mögt Ihr mal berichten ob und wieweit sich das ausgewirkt hat, bei welchen Games etc.? :)
Hier ich. Gefühlt kein Unterschied. Warzone (ohne DLSS) auf Max meist 100-160fps. Ansonsten spiele ich zZ kaum was.
 
  • Gefällt mir
Reaktionen: Laphonso
Ich weiß nicht was alle mit Rasterisierung wollen. Dafür hat auch meine alte 1080ti gereicht (UWQHD). Mit der 3080 habe ich erstmal alle RT Titel gezockt und war dankbar für DLSS.

In einem Hardwarevergleich hat DLSS aber nichts verloren, da es einfach zu sehr Geschmackssache ist und nicht in jedem Spiel verfügbar ist. Ich persönlich würde nicht auf die Option verzichten wollen.
 
F4711 schrieb:
Die Welt ist nun mal so, das die meisten AAA Titel auch weiterhin für Konsolen optimiert werden...
Stimmt. Die letzte Konsolengeneration hat aber auch gezeigt, dass sich die Konsolen-Optimierungen bei den meisten Spielen sehr in Grenzen halten (im Vergleich zu vorigen Konsolengenerationen).

F4711 schrieb:
...und somit dürfte jeder mit einer RDNA2 auch in den Genuss dieser Optimierungen kommen.
Das bleibt abzuwarten und ist kein Automatismus.

Es wäre toll, wenn Epic die Nanite Demo (oder eine ähnlich komplexe UE5-Demo) mal für PCs anbietet, um zu sehen, wie RDNA1-, RDNA2-, Turing- und Ampere-GPUs damit zurechtkommen.


F4711 schrieb:
Lediglich dort, wo NV "entwicklungshilfe" leistet, werden mehr RT Effekte für die PC ports implementiert.

Du rechnest also mit einer Parität von RT-Effekten bei PS5- und PC-Versionen? Warum sollten Entwickler die zusätzliche Performance brachliegen lassen?
 
F4711 schrieb:
Die Welt ist nun mal so, das die meisten AAA Titel auch weiterhin für Konsolen optimiert werden und somit dürfte jeder mit einer RDNA2 auch in den Genuss dieser Optimierungen kommen. Das Ampere im RT bereich leistungsfähiger ist ist klar, aber durch die konsolenhardware wird RX 6800/6900 jedenfalls die kommenden Jahre nicht abgehängt werden. Lediglich dort, wo NV "entwicklungshilfe" leistet, werden mehr RT Effekte für die PC ports implementiert. Das Entwickler freiwillig zusätzlich entwicklungsarbeit leisten um Ampere besser da stehen zu lassen...
Das ist Quatsch und ein weit verbreiter Irrglaube. Auch die alten Konsolen nutzten mit GCN 2.0 AMD Technik. Gebracht hatte es den AMD GPU Nutzern die letzten Jahre herzlich wenig. Da stand weder AMD besser noch Nvidia schlechter da, ganz im Gegenteil sogar.
 
  • Gefällt mir
Reaktionen: Lendi
Denke auch, das Ganze mit den Konsolenoptimierungen hat sich weitgehend erledigt, seit die Kisten auf x86 basieren. Das war noch was anderes, als die viel exotischere Hardware hatten. Klar ist es noch ein Stück weit zu spüren, es spielt aber eine weitaus kleinere Rolle als vor 20 Jahren.

Ist zumindest mein Empfinden der letzten Jahre, ich mag da auch völlig auf dem Holzweg sein.
 
Danke für den umfangreichen Test. :) Schön, dass es bei GPUs seit kurzem endlich wieder spannend ist, hoffentlich bleibt das erst Mal eine Weile so.
 
ThePlayer schrieb:
Ich glaube der Kollege hat geheult als er den geringen Unterschied zwischen RT ein und RT aus gesehen hat. Ich bin ehrlich gesagt bisher enttäuscht von den RT Effekten. Am meisten hat mich RT bisher bei Quake 2 begeistert. Da hatte ich wirklich einen wow Effekt. Hoffe das es sich in den nächsten Jahren stark verbessert. Weil so kann ich auch erstmal ohne Spielen. Da bringt rBAR viel mehr.
@Wolfgang ich finde auch es auch absolut logisch wieso rBAR aber nicht DLSS getestet wird. Und Stelle es mir auch ziemlich schwer vor da ab Ende des Jahres DLSS gegen das AMD Pendant. Wenn es überhaupt machbar ist. Wenn die Bildqualität in jedem Spiel anders ist und dann auch noch bei AMD und Nvidia unterscheidet.
Man sieht das schon ganz gut rt efekte odder du bist blind.
 
@R2D2
Das Problem ist oft weniger das man die Effekte nicht sieht..
es sieht meist etwas anders aus.. aber nicht zwangsläufig besser..

nix wo man sagen kann.. wow das ist geil..
Sondern eher..
Aha.. na dann.. es halbiert mir die FPS also schalt ich's aus und es sieht genauso gut aus
 
  • Gefällt mir
Reaktionen: Onkel Föhn, ThePlayer, GERmaximus und eine weitere Person
@Blackfirehawk
Bei mir gehen Fps auch runter aber nicht halb 3090rtx und muss schon sagen sieht geil aus.
 
R2D2 schrieb:
@Blackfirehawk
Bei mir gehen Fps auch runter aber nicht halb 3090rtx und muss schon sagen sieht geil aus.
Das kommt auf das Spiel an wieviel es frisst. Bei manchen Games halbieren sich die FPS.. bei anderen vielleicht nur zu 25%

Unbestreitbar ist jedoch das es überall Leistung kostet.

"Geil" sieht es eben zur Zeit nur bei 1-2 vorzeige Games aus, die dementsprechend FPS mässig auch massiv in den Keller gehen.
Bei 95% der spiele die aktuel raytracing bieten gibt es keinen optischen Mehrwert. Es sieht halt nur anders aus..
Und die 1-2 spiele sehen auch ohne raytracing gut aus..
 
  • Gefällt mir
Reaktionen: Onkel Föhn und ThePlayer
highco schrieb:
Ich weiß nicht was alle mit Rasterisierung wollen. Dafür hat auch meine alte 1080ti gereicht (UWQHD). Mit der 3080 habe ich erstmal alle RT Titel gezockt und war dankbar für DLSS.

Es gibt halt Leute, die wollen in UWQHD und 4k mit maximalen Details samt allen möglichen verfügbaren Grafikeffekten zocken und da reicht eine 1080 Ti nicht. Ich hatte vorher zwar "nur" die normale 1080, aber da ging Mal beides definitiv nicht. Und wir reden hier nicht von drei Jahren alten Games wo das noch möglich war.
 
  • Gefällt mir
Reaktionen: Onkel Föhn
Zurück
Oben