Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsNavi 22 mit RDNA 2: AMDs Radeon RX 6700 XT legt sich mit GeForce RTX 3070 an
Das thema ist ausgelutscht.
Wir warten jetzt alle schön schweigsam ab bis die 6700Xt rauskommt, kucken den test an.
Schauen dann wann amds DLSS alternative rauskoimmt, testen das und gut ists.
Dann bei der nächsten generation kucken wir wie sich das ganze weiter entwickelt hat.
Im Gegensatz zu SAM gibt es allerdings für RT und DLSS ne extra Rubrik im neuen Testparcours wo man gar nicht mehr mitr AMD vergleichen kann, mit der Begründung die können es ja nicht. Auch wenn sie bald was vergleichbares haben.
Bei SAM aber zB haben sie es direkt mit in den normalen Testparcours mit aufgenommen und es nicht separat getestet. Hier heist es dann das ginge ja weil es schon einen ordentlichen Schub bringen kann und von Nvidia auch rBAR kommt. Ja was denn jetzt, nach der Begründung könnte man auch RT+DLSS mit in den Test reinpacken und es nicht separieren. Kommt schon was komisch.
Kann dich da sehr gut verstehen das es einen entsprechenden Hinweis in den Tests geben sollte. Bzw. einfach sowohl bei SAM,rBAR und DLSS darauf hinweisen das es in entsprechenden Spielen einen guten Schub bringen kann und man es aufgrund des eigenen Use Cases in die Kaufentscheidung einfließen lassen sollte. Es macht doch weder AMD schlecht noch Nvidia besser, aber halt einfacher für sich zu entscheiden.
Navi 22 mit RDNA 2: AMDs Radeon RX 6700 XT legt sich mit GeForce RTX 3070 an - mit der Ausnahme von über zwei Dutzend DLSS und Raytracing Games (Anzahl wachsend), in der die 3070 als Konkurrenz-GPU 30-60% mehr Frames liefert in analogen Settings oder via DLSS only. Anhand der unter dem Link geführten Liste können sich Interessierte orientieren die Entscheidung ob der persönlichen Betroffenheit auf Relevanz überprüfen.
@Laphonso
Ich denke wir haben alle Verstanden, was du toll findest..
Bei der nächsten Aktion gibts dann die verdiente Meldung an die Admins.. Sollst ja auch was von haben..
Yep. Prozentrechnen 5. Klasse.
Von 192 Bit ausgehend sind es ein Drittel (64 Bit) mehr auf 256 Bit.
Und von 256 Bit ausgehend sind es ein Viertel (64 Bit) weniger auf 192 Bit.
Aber die Quote auf das richtige Ergebnis liegt in etwa so bei 60 / 30
@Laphonso
Ich denke wir haben alle Verstanden, was du toll findest..
Bei der nächsten Aktion gibts dann die verdiente Meldung an die Admins.. Sollst ja auch was von haben..
Darf ich dann auch an die Admins melden?
Die Art und Weise wie man hier aggressiv und polemisch gegen ein GPU (!) relevantes Thema angegangen wird, finde ich sehr abenteuerlich.
Ich habe mit CP2077 einen Abend getestet. (3090, 5900X)
.. und schlussendlich beides auf "aus" gelassen
...
DLSS ist nicht schlecht, aber trotzdem sieht es "nativ" besser aus.
Bei Cyberpunk ist bei TAA ein Schärfefilter aktiv, der bei DLSS deaktiviert ist. Zusätzlich wurde der LOD Bias nicht an die reduzierte Auflösung angepasst. Beides muss man daher leider manuell anpassen um ein vergleichbares Ergebnis zu bekommen.
Bei Nioh 2 haben sie auch den LOD Bias nicht angepasst und haben es dafür mit dem Schärfefilter bei DLSS etwas übertrieben, aber das Ergebnis ist trotzdem überzeugend: Digital Foundry: Nioh 2 DLSS Analysis: AI Upscaling's Toughest Test Yet?
In dem Video erklärt Alex Battaglia auch genau, warum der LOD Bias bei DLSS angepasst werden muss. Warum die Entwickler das nicht tun obwohl das sogar vielen Gamern klar ist, bleibt ein Rätsel.
Darf ich dann auch an die Admins melden?
Die Art und Weise wie man hier aggressiv und polemisch gegen ein GPU (!) relevantes Thema angegangen wird, finde ich sehr abenteuerlich.
Kannste ja machen, haben wir beide was von
Merkst du nicht, wie sehr du hier die Leute mit deinem immer wiederkehrenden missionieren nervst?
Wenn du die Kritik an dir, dass wir nicht 30 mal pro Stunde über DLSS reden wollen, weil es für die RX6700 nicht relevant ist, als Persönlichen Angriff wertest, solltest du vllt in Zukunft solche Threads meiden.. Die schonen dein Nervenkostüm
Ja, vielleicht gehört das in die Kaufberatungsthreads "3070 oder 6700XT" zukünftig, kann ich mit leben.
Davon abgesehen hilft es, wenn wir generell eine Entscheidung dazu treffen, denn die Art und Weise wie aggressiv hier einige auf das DLSS Thema anspringen, kann ich mit Deinen Worten auch returnieren.
Enigen wir uns mal auf 3600Ti oder 6700XT
Ich glaube das mit der 3070 erst, wenn ich es sehe (Leonidas macht da gute Zusammenfassungen).. Aber als 3060Ti Käufer würde ich auch zur 6700XT greifen, weil 4GB und vermutlich mehr Power ist einfach nicht von der Hand zu weisen..
Kannste ja anders sehen, aber dennoch lass das missionieren doch einfach mal. Und du kennst das Sprichwort mit dem Wald, oder? Ich sags nur noch einmal.. Belass es dabei und alles ist Fein
In dem Video erklärt Alex Battaglia auch genau, warum der LOD Bias bei DLSS angepasst werden muss. Warum die Entwickler das nicht tun obwohl das sogar vielen Gamern klar ist, bleibt ein Rätsel.
Was mich in dem Zusammenhang interessiert: die Grafikkarten optimieren doch mittlerweile die Texturen das sie nicht mehr alle MipMaps laden, sondern nur die benötigten. Würde eine Anpassung des LOD Bias nicht den VRAM-verbrauch erhöhen?
Der Verbrauch steigt natürlich im Vergleich zu Renderauflösung (z.B. 1440p), aber wenn man es mit dem LOD Bias nicht übertreibt sollte es trotzdem unter dem Speicherbedarf der Zielauflösung liegen (z.B. 2160p).
Die Werbung für die ganze RDNA2 Serie beruhte auf +50% Performance/Watt. Das hat sich wohl erledigt. Fast 500€ UVP für 40CU (gehobene) Mittelklasse sind schon hart. Eine 6800 OC wäre deutlich interessanter, wenn es sie denn gäbe.
Der Verbrauch steigt natürlich im Vergleich zu Renderauflösung (z.B. 1440p), aber wenn man es mit dem LOD Bias nicht übertreibt sollte es trotzdem unter dem Speicherbedarf der Zielauflösung liegen (z.B. 2160p).
Schauen wir mal...
Leider frickelt hier jeder Entwickler ja auch was anderes zusammen.
@ElDiablo
Wieso? Die Karte dürfte doch bei gleicher Wattage 50% über der 5700XT liegen, oder nicht?
Oder hat AMD jemals gesagt, dass man in Zeiten einer Pandemie und damit verbunden krassen Bedarf in den Foundrys, die Preise halten muss?
@Nolag : ah, danke. Ging mir erst mal rein um die Überlegung. Wobei mir dabei wieder einfällt das ich irgendwo schon mal drüber gestolpert bin das Leute bei DLSS einen leicht erhöhten VRAM Bedarf festgestellt haben. Dürfte dann evtl. auch mit davon kommen (plus das was das KI Modell für sich braucht)