News AMD Radeon RX 6000: Navi 21 XT erhält große Vorschusslorbeeren

Enurian schrieb:
Checkerboard ist nicht "nativ"... und (schlechtes) TAA auch nicht.
Sag bloß dass das Checkerboard Bild per TAA in die klassische Unschärfe totgelutscht wurde. :freak:
Das fällt bei der Vergrößerung natürlich so richtig auf.


@Krautmaster

Achte in dem Video bei 10:55 mal auf die Haare. Entweder sind das Bildfehler oder Kompressionsartefakte die beim Checkerboard Vergleich warum auch immer fehlen.

Da ich aber nicht so auf die Vergleichsbasis geachtet hatte, sagt jetzt bitte nicht das bei dem Vergleich die Konsolenversion mit der PC Version verglichen wurde, wo man noch nicht einmal genau sagen kann ob beide mit der gleichen Qualitätsstufe laufen und der Vergleich damit von Anfang an Wertlos ist, erst recht der Vergleich mit der Lupe....
 
  • Gefällt mir
Reaktionen: Iscaran
foo_1337 schrieb:
Viele aber doch, sieht man jetzt schon. Und wie gesagt, mit DLSS 3.0 wird die Sache nochmals anders aussehen. Und bei DLSS 2.0 ist der Aufwand für die Entwickler geringer, als man vielleicht denkt.
Was du mit TVs meinst, ist mir nicht ganz klar!?
das hatte ich noch wegen dem gsync drin, aber das war ein anderer beittrag. sorry bei mir lag die Mittagspause dazwischen.

seh ich anders, durchsetzen heißt nicht in den nächsten 1,2 jahren bei ein paar spielen erscheinen und dann wieder in der versenkung zu verschwinden. ohne Konsolen wird es im großen stil nicht kommen.
und nein, es nutzen nicht viele. aber immerhin die nächsten aaas

aber es ist ein schritt in die richtige Richtung.
 
Warte vor allem auf 16GB Ram....
Mal sehen wie die Performance wirklich ist...
 
Muuhh schrieb:
seh ich anders, durchsetzen heißt nicht in den nächsten 1,2 jahren bei ein paar spielen erscheinen und dann wieder in der versenkung zu verschwinden. ohne Konsolen wird es im großen stil nicht kommen.
Die Konsolen kochen beide ihr eigenes Süppchen. Aber wie gesagt: Der Aufwand für die Devs hält sich in Grenzen. Ob die MS Lösung dann generisch für Windows vorhanden sein wird, wird sich zeigen, sicher wäre ich mir da nicht.
 
@Krautmaster

Meinst du das Kantenflimmern im späteren Verlauf des Videos?
Das sieht mir eher nach einer dynamischen Auflösung aus die weiter hinten im Hintergrund abnimmt und die Pixel entsprechend groß werden und das hat wiederum sehr viel damit zu tuen. Die hervorgehobene Unschärfe weiter vorn wäre typisch für temporales AA usw. Unterm Strich ist das Video einfach extrem unglücklich wenn man mit der Lupe nach Unterschieden sucht und dabei noch nicht einmal die an sonsten gleiche Qualitätseinstellung nutzt.
Und ja, geringere Qualitätseinstellungen sind gerade für Konsolen Versionen schon aufgrund der schwächeren Hardware eher typisch.
 
  • Gefällt mir
Reaktionen: Iscaran
Du kannst aber auch einfach andere Videos nehmen, die DLSS 2.0 mit nativem 4k bei gleichen Grafiksettings vergleichen, nehmen. Auch da sieht DLSS teils besser aus, nie aber wirklich schlechter.
 
Was würde das am zweifelhaften Nutzen des obrigen Videos ändern? Ohne DLSS Fähnchen wäre es ein schöner Konsole vs. PC Vergleich gewesen.
 
MrChronos schrieb:
Durch KI-basierte bildberechnung ist aber weiterhin noch sehr viel möglich.
Oh ja! Und richtig interessant wird das ganze dann wenn wir von Nachträglichen Funktionen wie Upscaling oder Frame Interpolation zu in Engine features umsteigen. Das gewisse Teile gar nicht mehr berechnet werden müssen sondern das die KI bereits die Antwort darauf weis.
Dauert aber bestimmt noch par jährchen.
 
  • Gefällt mir
Reaktionen: foo_1337
Maggolos schrieb:
... eigentlich für den Endkunden am Besten, wenn man den Chip kaum ocen kann (Lassen wir jetzt mal die Fertigung aussen vor), da er dann schon näher am Maximum ist. Für Leute deren Hobby das natürlich ist, ist es schade. Aber Trend zeichnet sich ja ab.
Klar, DLSS ist nicht perfekt. Amd sollte trotzdem sich tunlichst beeilen eine Alternative aufzustellen, was sie ja sicher auch machen (Zusammen mit den Konsolenherstellern, ehsten MS).

Ja, mich stoert es auch nicht, wenn der OC-Bereich nicht sonderlich gross ist, aber frueher wurde das ja immer als Kaufargument fuer nVidia Karten bemueht, weil angeblich so viele manuell uebertakten oder sich dann ein uebertaktetes Custom-Modell leisten.

Letztere werden dann aber immer weniger eine Daseinsberechtigung haben, wenn OC kaum noch etwas bringt, ob das gut fuer den Markt/Boardpartner ist?

Nun gut, dann muessen diese Boardpartner eben 'mal innovativer werden und sich anderweitig durch Ihre Designs hervor heben, von den Maximalleistungsvarianten wird es dann nur noch wenige geben (die wenig Mehrwert bieten).

Warten wir es ab, ich werde meine Grafikkarten-Kaufentscheidung mit Sicherheit nicht von Nischen-Features wie DLSS und RT-Raytracing aktuell abhaengig machen, das wird noch dauern, bis diese durch die Bank eine
Rolle spielen (siehe DX12 und wie lange da dort gedauert hat bzw. noch andauert zum Standard zu werden, auch wenn Low Level APIs den High Level APIs klar ueberlegen sind, da letztere z.T. schon limitieren koennen).

Des Weiteren, wenn doch ein Mining-Boom kommen sollte, koennen die Entwickler/Haendler weiter auf Ihrer Ware sitzen bleiben, denn zu aktuellen und zukuenftigen Apothekenpreise kaufe ich bestimmt keine GPUs, es wird aber genuegend Leute geben, die dann trotzdem ohne Verstand (stattdessen mit Leidenschaft oder aus Sucht) oder weil sie Ihr Geld zu leicht verdienen zur neuen ueberteuerten Grafikkarte greifen, keine Frage.

Dann greife ich wohl zur Desktop-APU und warte wohl auf RDNA3, auch wenn ich eigentlich nicht bei der teuren MCM-Design GPU-Erstgeneration zugreifen moechte (es sei denn die Intel Xe HPG kommen als erste und runder daher, aber ich hege da eher Zweifel daran) ... tja, schon dumm, wie sich das alles entwickeln koennte, aber daran aendern kann man als Einzelner auch nicht wirklich etwas, also keinen Grund, sich den Kopf darueber zu zerbrechen, ne ;).
 
  • Gefällt mir
Reaktionen: Cpt.Willard
Wadenbeisser schrieb:
Nichts für ungut aber ähnliches gibt es schon seit zig Jahren.

Warum hast du und Iscaran eigentlich so einen Drang dazu permanent Falschinformationen über DLSS zu streuen?
Das wurde schon ausdiskutiert und ihr habt immer den Kürzeren gezogen. Irgendwann muss doch mal gut sein.
Konzentriert euch doch auf den Radeon Launch, anstatt Nvidia zu bashen.
5 Seiten Geschwurbel, das kann man sich ja nicht mehr mit ansehen hier.
 
  • Gefällt mir
Reaktionen: foo_1337
foo_1337 schrieb:
Du kannst aber auch einfach andere Videos nehmen, die DLSS 2.0 mit nativem 4k bei gleichen Grafiksettings vergleichen, nehmen. Auch da sieht DLSS teils besser aus, nie aber wirklich schlechter.

Nein eben nicht. Wenn man die Vergleiche eben "richtig" stellt und eben auf die Details achtet die z.B. Wadenbeisser anspricht dann sieht es eben so aus wie z.B. von Ars Technica an der PC-VERSION gezeigt:
https://arstechnica.com/gaming/2020...of-death-stranding-is-the-definitive-version/

" With the Nvidia RTX 2060 Super, meanwhile, you might expect Nvidia's proprietary DLSS standard to be your preferred option to get up to 4K resolution at 60fps. Yet astoundingly, AMD's FidelityFX CAS, which is platform agnostic, wins out against the DLSS "quality" setting. "

" Until Nvidia straightens this DLSS wrinkle up, or until the game includes a "disable DLSS for cut scenes" toggle, you'll want to favor FidelityFX CAS, which looks nearly identical to "quality DLSS" while preserving additional minute details and adding 2-3fps, to boot. "


Es gibt stellen wo DLSS aber auch besser aussieht als FidFX CAS
" Nvidia reached out to Ars Technica to point to moments where DLSS, as rendered exclusively on Nvidia's RTX line of GPUs, takes a commanding lead over the AMD method of CAS and upscaling. You'll see this most prominently in the game's "city" sequences, and the DLSS model has obviously been trained on common game-graphics elements like power lines and line-covered walls. I've included those comparison images, along with two of my own representative CAS versus DLSS captures, so you can get a sense of what you're missing out on if your GPU is outside the Nvidia RTX family. "

Bildvergleich nötig ?
DLSS2.0 Quality setting: https://cdn.arstechnica.net/wp-content/uploads/2020/07/20200627105454_1-DLSS-1440x810.jpg
"This is a zoomed crop of a cut scene captured with DLSS enabled, upscaling to 2160p. Notice the lack of fine particle detail in the rain droplets landing on this black-and-gold mask. "
FidFX CAS 2160p (equivalnet zu DLSS 2.0 setting) mit minimalem "Performance-Vorteil"): https://cdn.arstechnica.net/wp-content/uploads/2020/07/20200630193730_1_CAS-1440x810.jpg
" Another zoomed crop of the same scene rendered with AMD's CAS and upscaling method, upscaled to 2160p. The fine particle details survive the process."

Andere Seiten mit korrekten Bildvergleichen (nicht checkerboard vs native blubber) finden recht ähnlich Ergebnisse.
https://www.reddit.com/r/Amd/comments/hri67n/death_stranding_dlss_20_vs_native_vs_fidelityfx/
 
Adzz schrieb:
... Verschwörungstheorien sind ja auf einer Stufe der Corona Leugner.
Also bist du sowieso nicht Objektiv und man kann auf deine Meinung pfeifen.
Auf die nächsten 4 Jahre ist Raytracing das Feature schlechthin. Es kommt doch kaum noch ein Trippe A Titel ohne Raytracing und wenn wird es von Moddern nachgeschoben. Du kannst selbst AC Odyssey mit Raytracingmod spielen. Und es sieht viel besser aus. Ohne Raytracing sehen die Spiele nicht besser aus als Spiele vor 5 Jahren.
Da hast du Recht. Man sollte auf die 3080 mit 20 GB warten im Dezember. Denn da hat man viel mehr von als von 16 GB.

Schreiben Computer-Base Neu-/Troll-linge wie Du mit 149 Posts, die es anlegen schnell auf meine Ignore-Liste verbannt zu werden und erst einmal erwachsen werden sollten, bevor Sie solche unpassenden Vergleiche ziehen?

Danke gleichfalls, ich pfeife auch auf Deine Ansichten ;).

Das Feature schlechthin, da hat wohl jemand einen zu tiefen Schluck aus der nVidia Werbungsversprechenpulle genommen, nur dumm, dass der nVidia CEO bei Turing schon seine RTX Versprechen/Prognosen nicht halten konnte, was die Anzahl der RTX Spielveroeffentlichungen anging :D.

In 3-4 Jahren wird es sich dann vielleicht so langsam etablieren, ja, da stimmt ich Dir zu, aber dann auch nichts besonderes mehr sein, DX12 laesst gruessen, wonach heute auch kaum noch ein Hahn hypend kraeht.

Naja, 16GB werden leider der groesste gemeinsame Speichernenner beider GPU-Entwickler und daher absehbar der Sweet Spot sein, alles darueber wird ueberdimensioniert sein bzgl. der Leistung (auch die 20GB einer RTX3080 Dopperspeicherversion, von den ebenfalls wohl (viel zu) teuer zu bezahlenden 24GB einer RTX 3090 ganz zu schweigen).

Zumindest ist es so zu erwarten und auch angesichts des Next-Gen Konsolenspeichers, der den Ton angibt bei der Speichernutzung neu entwickelter Spiele .... 12 GB duerften fuer WQHD auch laengerfristig genug sein, es kommt aber immer darauf an, was man braucht und erwartet, fuer 4K/UHD Ansprueche duerften 16GB schon ziemlich optimal werden.

Tja, 10GB sind irgendwie schon jetzt mager und 20GB eben ein Bisschen viel, das hat man bei nVidia wohl etwas verpeilt mit der Produktpositionierung von den RTX Ampere GPUs, einzig die Doppelspeicherversion der RTX 3070 duerfte da passend sein, aber definitiv schwaecher als (alle?) die AMD/RTG RDNA2 Spitzenmodelle ebenfalls mit 16GB.

Wenn man stattdessen nur GDDR6 aber dafuer ein groesseres (384Bit) Speicherinterface verbaut haette, welches mehr Bandbreite und weniger Kosten verursacht haette und fuer WQHD mit 12GB auch laengerfristig gereicht haette, aber das hat nVidia wohl verpeilt, wie es scheint (daher nur die 10 GB magere Version bei der RTX 3080 bisher).

Einmal nVidia Juenger, immer nVidia Juenger :rolleyes: (?) ... trotzdem schoen, dass Du Deinen Senf hier abgelassen hat, der aber leider insgesamt so nicht wirklich passend/stimmig ist, aber gut, das koennen andere hier bewerten und ich wuensche Dir noch viel Spass beim meinungs-pfeifen, werde aber nicht mit Dir um die Wette pfeifen ;).
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Blekota und Onkel Föhn
Iscaran schrieb:
Nein eben nicht. Wenn man die Vergleiche eben "richtig" stellt und eben auf die Details achtet die z.B. Wadenbeisser anspricht dann sieht es eben so aus wie z.B. von Ars Technica an der PC-VERSION gezeigt:
Andere Seiten mit korrekten Bildvergleichen (nicht checkerboard vs native blubber) finden recht ähnlich Ergebnisse.
Es gibt mehr als genug Seiten und Youtube Videos, die es eben anders sehen, u.A. Computerbase:
https://www.computerbase.de/2020-07...hnitt_fidelityfx_kommt_nicht_an_dlss_20_heran
Und mir geht es auch nicht um Checkerboard oder Fidelity FX, sondern um DLSS vs Native 4k bzw 8k.
Und wer Fidelity FX schön redet, der hat noch nie damit gespielt. Das Geflimmer hält doch keiner aus.
 
KlaraElfer schrieb:
Warum hast du und Iscaran eigentlich so einen Drang dazu permanent Falschinformationen über DLSS zu streuen?
Die Möglichkeit zur Hochskalierung des gerenderten Bildes kenne ich schon von "Serious Sam HD: The First Encounter" und das Spiel kam wann auf den Markt? Ach ja, November 2009 und damit vor fast 11 Jahren.
Wie steht es um deine Falschinformationen? Schließlich schrieb ich von ähnlcihen Funktionen, wie man auch im von dir zitierten Abschnitt lesen kann.
 
  • Gefällt mir
Reaktionen: Blekota
KlaraElfer schrieb:
Warum hast du und Iscaran eigentlich so einen Drang dazu permanent Falschinformationen über DLSS zu streuen?

Welche Falschinformationen denn ?!? Kannst du auch mit Fakten beitragen oder reicht es, wenn du den anderen als irgendwie nicht qualifiziert denunzieren kannst ?

Bitte, sei so frei und widerlege die 3 DLSS Tests von ArsTechnica, HWLuxx.ru und DSO.

Der Checkerboard-PS4-Rendering vs DLSS 2.0 am PC-Vergleich ist jedenfalls ziemlicher murks...sieht man ja schon wenn man sich bei minute 2-3 die Erklärung zum Checkerboard upscaling ansieht.
Und dann noch behaupten das sei "nativ 4k"...ROFL.
 
  • Gefällt mir
Reaktionen: Blekota
Iscaran schrieb:
Bitte, sei so frei und widerlege die 3 DLSS Tests von ArsTechnica, HWLuxx.ru und DSO.
Zu dem Luxx Artikel gibt es zumindest ein Update. Ich hab mir mal erlaubt den deutschen zu Quoten. Das Update gibt es natürlich auch im russischen Artikel:

Update:
In der zweiten Hälfte der ersten Seite haben wir den Abschnitt "Weitere Beurteilung der Bildqualität" hinzugefügt. Hier haben wir in einige der Screenshots hineingezoomt und müssen dem FidelityFX CAS in gewissen Bereichen eine nachteilige Darstellung in der Schärfe attestieren, die uns vorher nicht in dieser Form aufgefallen ist.

DLSS 2.0 liefert weiterhin die beste Bildqualität – in den meisten Fällen sogar mehr Details als das native Rendering und im Zusammenspiel mit TAA werden temporale Nebeneffekte wie ein Flimmern sogar beseitigt. FidelityFX CAS ist eine Alternative für alle diejenigen, die mangels Hardware kein DLSS aktivieren können und dennoch in höheren Auflösungen spielen wollen.


Computerbase schreibt ähnliches. Brauchst du noch mehr Links? Hast du auch mal selbst verglichen oder verlässt du dich nur auf (ggf. biased) Dritte?
 
  • Gefällt mir
Reaktionen: KlaasKersting und Vendetta
KlaraElfer schrieb:
... hast du und Iscaran eigentlich so einen Drang dazu permanent Falschinformationen über DLSS zu streuen?
Das wurde schon ausdiskutiert und ihr habt immer den Kürzeren gezogen. Irgendwann muss doch mal gut sein.
Konzentriert euch doch auf den Radeon Launch, anstatt Nvidia zu bashen.
5 Seiten Geschwurbel, das kann man sich ja nicht mehr mit ansehen hier.

Hm, bist Du wieder einmal im falschen Thread (ja, halloooo ... es ist ein AMD/RTG Thread, keiner von nVidia ;) ) gelandet :D ... lass Ihnen doch die nVidia Basherei, letztere haben sich Huang und Co. mit RTX Ampere auch redlich verdient und wo sonst, wenn nicht in den AMD/RTG Threads waere das denn passender ;)?

Hier wirst Du aktuell keinen fuer Deinen gruenen Lieblingsverein missionieren koennen, der da nicht ohnehin schon Anhaenger von ist ... vor allen Dingen nicht in Huangs aktueller (Luegen-)Maerchenerzaehlzeit (bitte kein Beispiel an der Lederjacke nehmen, was den Wahrheitsgehalt angeht, wer weiss, sonst koenntest auch Du auch Abwege gelangen, was nicht wuenschenswert waere).

Es zwingt Dich doch auch keiner Deinen gruenen Senf dazu zu geben bzw. das hier Geschriebene zu kommentieren, wenn es Dir so bittergruen aufstoesst ... nur ruhig Blut ... Du kannst dann immer noch bei Bedarf richtig ausgiebig Gift und Galle spucken, wenn der RDNA2 Vorstellung vorbei ist, keine Sorge, die RDNA2 GPUs werden auch nicht rundum perfekt sein (wenn AMD/RTG vorausichtlich aber mit RDNA2 Navi trotzdem das deutlich rundere/ueberlegenere Produkt im Vergleich zu RTX Ampere bieten duerften, da ueberdurchschnittlich fuer AMDs/RTGs Verhaeltnisse und nVidia bietet aktuell mit RTX Ampere maximal Durchschnitt) ;).

Die muessen doch genauso Deine Kommentare und die anderer Nvidianer im nVidia Thread verkraften, so gesehen solltest Du eigentlich Verstaendnis dafuer aufbringen bzw. deren Perspektive verstehen koennen :D.
 
  • Gefällt mir
Reaktionen: Blekota und Onkel Föhn
Chismon schrieb:
Hier wirst Du aktuell keinen fuer Deinen gruenen Lieblingsverein missionieren koennen, der da nicht ohnehin schon Anhaenger von ist ... vor allen Dingen nicht in Huangs aktueller (Luegen-)Maerchenerzaehlzeit.
Er will sich doch ne AMD Karte kaufen, oder nicht?
Der einzige, der nicht nur in seiner Wortwahl tief auf einer Seite steht, bist eher du. Ich kann von @KlaraElfer keine Aussagen zu Nvidia sehen, die nicht stimmen, oder irgendeine andere Lobhudelei.
Ich bin weder AMD noch nVidia Fan und versuche daher einfach Objektiv an die Dinge ranzugehen. Ich verstehe sowieso nicht, wie man "Fan" einer Firma sein kann. Außer man ist vielleicht Mitarbeiter oder hat in die Firma investiert.
Bei mir wird es nVidia, weil ich in DLSS einen echten Game Changer sehe, ganz einfach. Was die Firma sonst so macht und wer ihre Fanboys sind, ist mir relativ egal. Ich bin der Überzeugung, dass Software alles ist was zählt Hardware ist für mich nur ein notweniges Mittel zum Zweck.
 
Zurück
Oben