News AMD Radeon RX 6000: Navi 21 XT erhält große Vorschusslorbeeren

Naja, das Ding ist halt, dass nVidia im Falle eines Standards mit DLSS sehr schnell reagieren kann. Via API können sie es ganz einfach so zugänglich machen, damit es von DirectX konsumierbar ist. Dann gibt es einen einheitlichen Standard für die Entwickler, aber das beste Ergebnis wird lange Zeit von Nvidia kommen, weil das "Backend" jetzt schon Jahre voraus ist. MS hat gerade angefangen, von AMD weiß man erstmal nichts und Sony ist wie gesagt sowieso ein eigenes Kapitel mit eigener Lösung.
Das selbe ist ja mit RT passiert: Nvidia machte die RT Cores via DXR Konsumierbar. Somit zieht RT via DXR bei AMD Karten von der GPU die Leistung und bei Nvidia von den Tensor Cores. Daher wird auch hier nVidia im Vorteil sein, außer natürlich die RX6x00 werden drastisch schneller sein als die nVidia Karten, wonach es allerdings aktuell nicht aussieht.
 
  • Gefällt mir
Reaktionen: Unnu
foo_1337 schrieb:
Somit zieht RT via DXR bei AMD Karten von der GPU die Leistung und bei Nvidia von den Tensor Cores.
Die Tensor Cores haben damit nichts zu tun, die Leistung zieht RT bei Nvidia aus den RT Cores und bei AMD aus den TMUs. Berechnet wird es am Ende in beiden Fällen auf den Shadern.
 
  • Gefällt mir
Reaktionen: Colindo
Taxxor schrieb:
Die Tensor Cores haben damit nichts zu tun, die Leistung zieht RT bei Nvidia aus den RT Cores
Argh, jetzt hab ich DLSS und RT gewürfelt, danke für die Korrektur! :)
Der Shader muss aber im nVidia Fall fast nichts mehr machen.
1603292465893.png



Bei AMD sieht das laut dem entsprechenden Patent so aus:
1603292844631.png


Ich kann mich irren, aber ich würde sagen, dass der nVidia RT Core Ansatz am Ende (deutlich) performanter sein wird als der hybride Ansatz von AMD. Das Patent kann man hier einsehen: https://www.freepatentsonline.com/20190197761.pdf
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: Unnu
foo_1337 schrieb:
Argh, jetzt hab ich DLSS und RT gewürfelt, danke für die Korrektur! :)
Der Shader muss aber im nVidia Fall fast nichts mehr machen.
Jain, wenn du dir mal die Nvidia Präsentation anschaust, wo sie eine einzelne Frametime aufgeschlüsselt haben, da macht der RT Core Part einen gar nicht so großen Anteil dieser Frametime aus, also selbst wenn die RT Cores 5x schneller arbeiten würden, würde sich die RT Performance nicht mal verdoppeln.

Nvidias Ansatz wird aber am Ende schneller sein, vor Allem je mehr RT eine Szene beinhaltet, dafür ist AMDs Ansatz deutlich flexibler und die Einheiten liegen niemals brach.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: foo_1337
Vendetta schrieb:
DLSS 2.0 liefert bessere Qualität als 4K Nativ, hier werden Sie geholfen:

auch wenn ich mich wiederhole: nein, es sieht verschissen aus --> ich bin grafiker, und weiss um BQ, thank u, next
 
XTR³M³ schrieb:
auch wenn ich mich wiederhole: nein, es sieht verschissen aus --> ich bin grafiker, und weiss um BQ, thank u, next
@Chismon das ist doch ein gutes Beispiel für konstruktive Kritik :D Und direkt noch mit Track Record, damit man sicher gehen kann, dass die Aussage auch korrekt ist.

@Taxxor Jup, vor allem wird es sich gegen RT inkl. DLSS beweisen müssen, was schwer sein wird. Gerade ohne DLSS zieht RTRT ja schon sehr viel Performance, was man auch bei der 3080/3090 sieht. Und die Titel, die RTRT bieten, werden meist auch DLSS implementiert haben.
 
Chismon schrieb:
Navi21 XL mit 290W (maximal) ist schon arg am Limit fuer mich (eigentlich hatte ich maximal 250W angepeilt) und Undervolting wollte ich eigentlich nicht aufwaendig betreiben ... hm?
No
Die komischen Zahlenspiele von Igor zur XL passen nur bedingt.
1. sind die Zusatzverluste viel zu hoch angesetzt
2. 220W TGP (=203W GPU+17W Vram) wäre schon ein Custom-OC Modell

Um alle Unklarheiten auszuräumen hat dargo nochmal bei PatrickSchur nachgehakt:
3DCenter Forum - Einzelnen Beitrag anzeigen - AMD/ATI - Navi 1X (7nm, RDNA1, 2019) & Navi 2X (7nm, RDNA2, 2020)
Anscheinend hat die XL-Ref ne TGP (GPU+Vram) von 203W, käme analog der RX5700XT Nitro mit 200W A-Bios auf dem "gleichen" PCB auf ca. 225..230W.(gesamtes Board)
 

Anhänge

  • Nitro_200W-Bios@222W_gesamt.png
    Nitro_200W-Bios@222W_gesamt.png
    86,4 KB · Aufrufe: 266
  • Gefällt mir
Reaktionen: bad_sign
foo_1337 schrieb:
DLSS 2.0 liefert weiterhin die beste Bildqualität – in den meisten Fällen sogar mehr Details als das native Rendering

Das macht, objektiv gesehen, oder zumindest minimal von der Technik verstehend, keinen Sinn. Damit sagst du, die Genauigkeit des neuronalen Netzes ist ueber 100%. Mal abgesehen davon, dass man selbst 100% nie im Leben erreicht.

Wenn es "mehr" Details zeigt, bzw. man es als "mehr" empfindet, dann macht es seinen Job nicht sondern packt irgendwas rein, dass passen kann oder auch nicht. Ja, ich weiss, man nutzt 16k Aufloesungen fuers Training, damit brauchst du mir nicht kommen. Das macht es aber nicht besser. Informationen hinzufuegen kann gewaltig schief gehen. Kommt aber auch schwer darauf an wie gut das Netz generalisieren kann. Gibt zu wenige Titel um das zu beantworten und generelles DLSS im Treiber braucht wohl noch ein paar Iterationen. Leider macht Hardwareluxx keine Plaubilitaetsanalyse, sondern analysiert nur subjektiv basierend auf "empfinden". Das Gehirn ist sehr gut im korrigieren von Informationen.

Was mich aber prinzipiell bei DLSS interessieren wuerde, sind die Texturen fuers Training die gleichen die am Ende im Spiel genutzt werden oder haben sie absichtlich mehr Details um das Maximum aus dem Netz zu holen/die Performance im Training nicht so wichtig ist, bzw. bessere Performance in nativ 4k zu haben (indem man Details weglaesst).

KlaraElfer schrieb:
Es ist aber kein einfaches Hochskalieren des Bildes, Herrgott.
Stichwort KI, Bewegungsvektoren, Jittered Pixels. Autoencoder, 16K Material.
So kommt man eben ganz anders als mit einfachem Hochskalieren an die "ground truth" heran.
Aber wozu informieren, wenn man weiter schwurbeln kann was?

DLSS ist sehr wohl "einfaches" hochskalieren. Der groesste Unterschied zum "standard" skalieren ist, dass die Funktion die skaliert nicht explizit angegeben wird, sondern gelernt wird. Das neuronale Netz macht nicht mehr als eine Funktion abzubilden, die den Vorgang approximiert. Die Funktion kann man auch manuell nachvollziehen wenn man will. Macht nur keinen Spass und dauert ewig. Deine "ground truth" ist auch nur im Training vorhanden und sie ist das Bild, dass man nach der Funktion erhalten will. So wie du es formulierst waere sie beim Inference/"Vorhersage" auch vorhanden, womit aber das skalieren keinen Sinn mehr macht, da man es eben nicht braucht. Man macht eine Vorhersage und hat diese dann, fertig. Wie weit die im Spiel dann weg von nativ ist weisst du schlicht nicht. Von nahe an "ground truth" im Training zu hoffentlich nahe dran beim "vorhersagen" nennt sich generalisieren und ist schwerer als man denkt.

Zu deinem, anders kann man es nicht nennen, Bullshitbingo:
Bewegungsvektoren und Jitter kann man genauso in klassische Skalierung mit einbringen. Man macht es nicht, weil es die Komplexitaet massiv erhoeht fuer manuell designte Funktionen. Womit "KI" ins Spiel kommt, man Daten draufschmeisst, und hofft, dass es eine gut genuge Approximation rausschmeisst. Natuerlich mit all den Tuecken die bei KI auftreten koennen. Aber mal eine ernsthafte Frage, weil du bisher nicht unbedingt mit technischem Hintergrundwissen geglaenzt hast, weisst du was ein Autoencoder ist? Ich finde es immer irritierend wenn irgendwas erwaehnt wird, das man mal auf einer Marketingfolie gelesen hat, ohne wenigstens knapp zu verstehen um was es sich handelt.

Zwei Sachen die mich bei DLSS interessieren:
Wie sieht die Performance gegen die eigentliche "ground truth" in 16k aus? Ich habe das Gefuehl "grauenvoll" wird es wohl ganz gut beschreiben wenn man fuer 4k 16k nimmt.
Zum anderen, nutzen sie Techniken um die Datasets massiv zu reduzieren wie Engineering von Bildern um mehr Informationen im Bild zu haben? (Gibt da ein Team, dass Datasets von 60k Bildern in 10 Bilder zusammenpackt. Muesste nur wieder den Namen und Artikel finden...)

foo_1337 schrieb:
Ich kann mich irren, aber ich würde sagen, dass der nVidia RT Core Ansatz am Ende (deutlich) performanter sein wird als der hybride Ansatz von AMD. Das Patent kann man hier einsehen: https://www.freepatentsonline.com/20190197761.pdf

Naja, aufpassen, es ist nicht nur ein Patent. Du warst glaube ich auch in dem Thread aktiv in dem es um L1 Cache Sharing und Clustering ging, richtig? Die beiden sollten recht gut zusammenspielen. Damit kann man auch "einfach" die komplette Pipeline Render + RT + "DLSS" abarbeiten. Wenig Overhead, wenig Kommunikation und Transfer. Und man bekommt auch eine gewisse Gleichzeitigkeit hin wenn sich verschiedene CUs im Cluster um andere Dinge kuemmern. Ist eben ein komplett anderer Ansatz wenn man es mit Nvidia vergleicht. Ich frage mich auch was besser funktioniert wenn man zu Chiplets uebergeht. Lichtgeschwindigkeit ist gar nicht mal so schnell wenn es um Kommunikation geht. ;) Und jede Nanosekunde mehr ist eben teuer. Und Skalierung ist auch so eine Sache. Nvidia hat da mit Ampere gezeigt wie schnell das schief gehen kann.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Iscaran und Colindo
Kacha schrieb:
Das macht, objektiv gesehen, oder zumindest minimal von der Technik verstehend, keinen Sinn. Damit sagst du, die Genauigkeit des neuronalen Netzes ist ueber 100%. Mal abgesehen davon, dass man selbst 100% nie im Leben erreicht.
Willkommen in der ML Welt. Was sagst du dazu, dass die Genauigkeit des neuronalen Netzes bei 98% liegt, die des Grafikers aber nur bei 95%. Schau dir doch einfach mal an, was mit den Smartphone Kameras gemacht wurde. Night Mode etc. Oder was Apple mit dem Homepod bzw. jetzt mit dem Homepod Mini gemacht wird. Da gleicht Software die Grenzen der Physik geschickt aus bzw. macht sie sich zunutze.
Die pauschale Aussage, dass ein via AI(Yeah, Buzzword!) erzeugtes Bild niemals besser als das original sein kann, stimmt einfach nicht. Das Gegenteil jedoch schon.
Ergänzung ()

Kacha schrieb:
Was mich aber prinzipiell bei DLSS interessieren wuerde, sind die Texturen fuers Training die gleichen die am Ende im Spiel genutzt werden
Nein, das ist ja der Witz bzw. das Geniale daran. Bei 1.0 war das noch so, bei 2.0 nicht mehr.
 
Zuletzt bearbeitet von einem Moderator:
foo_1337 schrieb:
Willkommen in der ML Welt.

Danke, bin da aber schon laenger. ;)

foo_1337 schrieb:
Die pauschale Aussage, dass ein via AI(Yeah, Buzzword!) erzeugtes Bild niemals besser als das original sein kann, stimmt einfach nicht. Das Gegenteil jedoch schon.

Naja... es als besser empfinden vielleicht. Es hat aber nicht unbedingt etwas mehr, im Fall von der Kamera, mit der Realitaet zu tun, bzw. mit dem was man eigentlich im Bild haben will. Im Endeffekt fuegt man Informationen hinzu, die so sein koennen, oder auch nicht. Gerade bei Kameras hat das selten noch mit der Realitaet zu tun. Der subjektive Eindruck mag fuer einen gewissen Personenkreis dann positiv sein, fuer einen anderen dann halt negativ. Objektiv aber kann es nicht das erfuellen was man subjektiv als "besser" empfindet. Man redet aber meist von subjektiv und impliziert das waere objektiv.

Ironischerweise ist das "mehr/besser" das man DLSS zuschreibt eigentlich eine Reduzierung der Genauigkeit (wobei Genauigkeit eher eine etwas schlechte Metrik ist, aber einfach genug damit die meisten es verstehen). Subjektiv mag das natuerlich anders aussehen. Hast du Artikel die das komplett technisch/objektiv analysieren? Das meiste was ich gesehen habe ist nach dem Motto "draufschauen und empfinden" und das als objektiv verkaufen.

foo_1337 schrieb:
Nein, das ist ja der Witz bzw. das Geniale daran. Bei 1.0 war das noch so, bei 2.0 nicht mehr.

DLSS 2.0 nutzt fuer 4k scaling 4k Texturen im Training? Oder DLSS 2.0 nutzt exakt die Texturen ohne "bessere Qualitaetssettings" in 16k? Dafuer wuerde ich gerne Quellen haben um das nachzuschauen, denn Nvidia redet immer nur von Aufloesungen.
 
  • Gefällt mir
Reaktionen: Iscaran und Unnu
Ich finde ja, dass das DLSS-Thema einen eigenen Thread verdient hätte.

Das ist für mich in - gröbster natürlich - Anlehnung die Umkehrung des Prinzips der verlustbehafteten psychoakustischen Audiokompression. Wie kann ich auf der Ausgangsseite möglichst artefaktfrei Daten hinzufügen, um den ursprünglich beabsichtigten Bildeindruck in höherer Auflösung zu erreichen bzw. erhalten? Als "Erfahrungswert" wird dabei die menschliche Hörkurve ersetzt durch die "Abbildungsmuster im trainierten Netzwerk".

Spannend!
 
Zuletzt bearbeitet: (Typo)
  • Gefällt mir
Reaktionen: Unnu und foo_1337
Kacha schrieb:
DLSS 2.0 nutzt fuer 4k scaling 4k Texturen im Training? Oder DLSS 2.0 nutzt exakt die Texturen ohne "bessere Qualitaetssettings" in 16k? Dafuer wuerde ich gerne Quellen haben um das nachzuschauen, denn Nvidia redet immer nur von Aufloesungen.
Die Frage war ja, ob DLSS die Texturen des jeweiligen Spiels trainiert bekommt oder nicht. Die Antwort ist nein, es werden "generische" Bilder genommen, die dem neuronalen Netz in niedriger und sehr hoher Auflösung vorgelegt werden. Daraus trainiert das Netz. Ubisoft z.B. muss nicht vorab die Texturen von Watchdogs Legion liefern, das ist nicht notwendig.

Naja, die Analysen sind meist mit einer guten Portion subjektiver Meinung. Leider teilweise auch mit Bias, wie man z.B. an dem Death Stranding Luxx Artikel gesehen hat. Dieser wurde dann ja korrigiert, nachdem sich einige beschwert hatten.

Der Artikel hier ist so schlecht nicht, geht aber leider auch nicht gerade in die (technische) Tiefe:
https://www.techspot.com/article/1992-nvidia-dlss-2020/

@.Sentinel. könnte hier aber sicher was beitragen

Das Ding ist halt, dass ja noch nichtmal erwartet wird, dass die Texturen besser als nativ aussehen. Pari würde ja schon reichen, dafür aber der FPS Boost. Und so wird halt RTRT bei guten, bzw. besseren Frameraten als nativ ohne RT möglich, und auch 8k rückt plötzlich in greifbare Nähe.
 
Zuletzt bearbeitet von einem Moderator:
Colindo schrieb:
. Also einfach weniger von AMDs Lösung verlangen (bzgl. FPS-Gewinn), schon stimmt die Bildqualität auch.

Gibt auch eine Lösung von Sapphire Trixx Boost der ist ganz gut bis zu 75% geht aber auf die CPU naja bei 6 und mehr kein Problem.
 
Jesterfox schrieb:
Dann stell diesem Autonarr mal die Motorkutsche von Daimler und einen einen aktuellen Maybach hin und sag das ist beides absolut das gleiche ;-)
Wozu? Davon war schließlich nicht die Rede sondern nur von Vergleichbarkeit und dem gleichen Grundprinzip oder willst du ernsthaft abstreiten das beide einen Verbrennungsmotor haben?
Ergänzung ()

Web-Schecki schrieb:
Doch, natürlich kommt der Performancevorteil dadurch, dass man in einer niedrigeren nativen Auflösung rendert. Wer bestreitet das?
Bei DLSS wird das kleine Bild groß gemacht und bearbeitet um ein möglichst gutes Ergebnis zu bekommen, was letztendlich die Aufgabe des Upscalings ist. Willst du das bestreiten?
Wie es dann hübsch gemacht wird ist dafür ziemlich unerheblich denn auch abseits von DLSS gibt es dafür unterschiedliche Methoden aber genau darauf wird bei dieser sinnlosen Diskussion rumgeritten.
 
Zuletzt bearbeitet von einem Moderator:
foo_1337 schrieb:
Hast du das selbst implementiert oder hab ich was verpasst?
Brauchst du nur im Treiber aktivieren, der macht das für alle Spiele unter Win10 möglich. Nur auf meinem Win8-Hauptrechner geht das nicht im Treiber, da nutze ich manchmal Reshade.
1603299162736.png
 
  • Gefällt mir
Reaktionen: Iscaran
Wadenbeisser schrieb:
Wie es dann hübsch gemacht wird ist dafür ziemlich unerheblich denn auch abseits von DLSS gibt es dafür unterschiedliche Methoden
Die bei Weitem nicht mit DLSS mithalten können. Und genau darum geht es doch. Der Gamer will ein Bild, das aussieht wie Nativ, bestenfalls sogar besser, und einen damit zusammenhängenden Performance Boost. Und da kann man dann halt nicht jede x-beliebige upscale Methode nehmen. Sonst könnte ich ja auch einfach via 1080p zum AVR gehen und dessen Upscaler werkeln lassen. Sieht dann echt super aus in UHD ;)
Ergänzung ()

Colindo schrieb:
Brauchst du nur im Treiber aktivieren, der macht das für alle Spiele unter Win10 möglich.
Das ist doch aber nur RIS und kein vollwertiges Fideltity FX. Daher finde ich den Vergleich schwierig.
 
@foo_1337

Wen juckt das bei der Frage um das Funktionsprinzip?
Es spuckt das bessere Ergebnis aus aber das ändert herzlich wenig am Rest.
Dazu noch diese nutzlose "besser als nativ" Argumentationsweise die mich an das trotzige Geschreibsel erinnert als rauskam das bei AMDs damaliger DX12 Vergleichsdemo mit "Ashes of the Singularity" die Geforce bei den Bildabweichungen falsch rechnete.
 
Wadenbeisser schrieb:
Davon war schließlich nicht die Rede sondern nur von Vergleichbarkeit und dem gleichen Grundprinzip oder willst du ernsthaft abstreiten das beide einen Verbrennungsmotor haben?
Nein, aber so wie man mit unterschiedlichen Verbrenner-Motoren unterschiedliche Ergebnisse erzielen kann geht dies eben auch mit unterschiedlichen Upscaling-Verfahren. Ansonsten bräuchte man ja nur ne niedrigere Auflösung einstellen und den Monitor hochskalieren lassen... ist schließlich auch Upscaling...

Und wenn es darum geht das AMD nichts gegen DLSS 2 entgegenzusetzen hat (zumindest Stand jetzt, mal abwarten ob nicht doch was mit RDNA 2 kommt) so kann eben auch die Motorkutsche nicht wirklich etwas dem Maybach entgegensetzen.
 
Zurück
Oben