News FidelityFX Super Resolution: DLSS-Konkurrenz ab 22. Juni für AMD- und Nvidia-GPUs

B3nutzer schrieb:
Ich bezweifle dass das treiberseitig von Nvidia überhaupt so einfach erkannt und dann auch noch deaktiviert werden könnte.

FSR wird ja direkt ins Spiel integriert und ist damit ein Teil des jeweiligen Spiels und kann als Open source auch noch angepasst werden.
Im Endeffekt ist das halt etwas code der über Compute Shader läuft.
Was der Code macht, welchen Effekt er hat und ob es ein Upscaling vom Entwickler des Spiels oder von AMD ins Spiel integriert ist, lässt sich wahrscheinlich von außen für den Treiber gar nicht unterscheiden.
Welches Interesse hätte nvidia denn auch daran, das zu deaktivieren? Damit würden sie doch nur ihren Karten eine Funktion rauben und sie damit im Wert sinken lassen.
 
  • Gefällt mir
Reaktionen: B3nutzer
Meine Rede. Es ergibt so oder so keinen Sinn, das zu unterbinden.

Wollte nur verdeutlichen, dass es technisch wahrscheinlich nichteinmal möglich wäre.
 
  • Gefällt mir
Reaktionen: leonavis
DrFreaK666 schrieb:
VSR laut AMD: "VSR ermöglicht, dass Games zunächst mit höheren Auflösungen gerendert werden (bis zu 4K; siehe nachstehende Tabelle „Virtual Super Resolution-Unterstützung“) und anschließend wieder auf eine niedrigere, native Bildschirmauflösung heruntergerechnet werden."
Was genau hat dies nun mit Supersampling/DLSS zu tun? VSR ist das AMD Äquivalent zu DSR, nicht zu DLSS.
 
foo_1337 schrieb:
Was genau hat dies nun mit Supersampling/DLSS zu tun? VSR ist das AMD Äquivalent zu DSR, nicht zu DLSS.

Was soll die Frage jetzt? Du hattest es doch davon!
 
foo_1337 schrieb:
Brauchst dich nicht zu entschuldigen:


Besser hier nochmal nachlesen: https://en.wikipedia.org/wiki/Supersampling / https://en.wikipedia.org/wiki/Deep_learning_super_sampling

VSR hat mit Supersampling nichts zu tun.


Ok, hab da die Begriffe etwas durcheinander gebracht. Aber VSR/DSR/Downsampling bzw. OGSSAA ist zumindest dem Namen, also "Ordered Grid Supersampling-AA", genau so Supersampling wie das was du meinst, SGSSAA, also "Sparse Grid Supersampling-AA". :D Auch Downsampling ist Supersampling, nur ist die Abtastung etwas anders als beim SGSSAA.
Es sei denn, ich bringe da wieder was durcheinander. Aber zumindest früher, bevor nVidia mit diesen Marketingbegriffen alles verwässert hat, war es wenn ich mich recht entsinne noch so.
Wobei danach dann Supersampling generell keine Rolle mehr spielen würde, weil man heute doch generell eher Downsampling (das ja wie gesagt eigentlich auch Supersampling heißt...:D) nutzt, weil es viel einfacher per Treiber zu aktivieren ist.

In jedem Fall hat DLSS mit Supersampling nichts zu tun. Ist halt ein reiner Marketingbegriff. Wie gesagt, man geht den umgekehrten Weg. Es sei denn, man hat ein 1080p-Monitor, nutzt dabei DLSS und lässt davon native 1080p auf 4K oder so hochrechnen, die danach per DSR wieder auf 1080p runtergerechnet werden.:freak:
 
  • Gefällt mir
Reaktionen: foo_1337
jonderson schrieb:
Das ist mal wieder genau der Grund, weswegen ich Nvidia als schädlich für die Gamingbranche halte und AMD als fördernder...
Auch einer der Gründe weswegen ich AMD empfehle...
Wir haben es Nvidia zu verdanken, dass Freesync kam, dass AMD Raytracing in die Konsolen und in die Desktop RDNA 2 gebracht hat und dass AMD nun ebenfalls eine fps-Boosting und DLSS Alternative anbietet.

Auch einer der Gründe, warum ich den AMD Fanboys einen Realitätscheck empfehle.
 
  • Gefällt mir
Reaktionen: .Sentinel., Zwiebelsoße und foo_1337
Krass, dass AMDs Lösung sogar mit meiner alten Vega läuft.
Bin gespannt ob ich in Bf6 dann halbwegs taugliche Bildraten in WQHD bekomme und wie die Qualität aussieht.
So könnte ich das GPU Update möglicherweise tatsächlich bis zu RTX 4000 Ende 2022 verschieben. 🤔
 
  • Gefällt mir
Reaktionen: GerryB
And, to drop into op-ed mode, this is where AMD has me a bit worried. In our pre-briefing with AMD, the company did confirm that FSR is going to be a purely spatial upscaling technology; it will operate on a frame-by-frame basis, without taking into account motion data (motion vectors) from the game itself.

For GPU junkies, many of you will recognize this as a similar strategy to how NVIDIA designed DLSS 1.0, which was all about spatial upscaling by using pre-trained, game-specific neural network models. DLSS 1.0 was ultimately a failure – it couldn’t consistently produce acceptable results and temporal artifacting was all too common. It wasn’t until NVIDIA introduced DLSS 2.0, a significantly expanded version of the technology that integrated motion vector data (essentially creating Temporal AA on steroids), that they finally got DLSS as we know it in working order.

Given NVIDIA’s experience with spatial-only upscaling, I’m concerned that AMD is going to repeat NVIDIA’s early mistakes. Spatial is a lot easier to do on the backend – and requires a lot less work from developers – but the lack of motion vector data presents some challenges. In particular, motion vectors are the traditional solution to countering temporal artifacting in TAA/DLSS, which is what ensures that there are no frame-by-frame oddities or other rendering errors from moving objects. Which is not to say that spatial-only upscaling can’t work, only that, if it’s competitive in image quality with DLSS, that would be a big first for AMD.

https://www.anandtech.com/show/1672...x-super-resolution-open-source-game-upscaling

Klingt nicht optimistisch. Aber abwarten.
Wir müssen das Ende Juni live sehen.
 
  • Gefällt mir
Reaktionen: .Sentinel.
Uh, das hört sich echt gut an. Open Source ist schon mal toll.
Wenn das gut funktioniert, wird meine gute alte Grafikkarte wohl noch etwas länger in Knechtschaft leben müssen, bevor sie ein Holzschwert bekommt.
 
Xes schrieb:
Krass, dass AMDs Lösung sogar mit meiner alten Vega läuft.
Bin gespannt ob ich in Bf6 dann halbwegs taugliche Bildraten in WQHD bekomme und wie die Qualität aussieht.
So könnte ich das GPU Update möglicherweise tatsächlich bis zu RTX 4000 Ende 2022 verschieben. 🤔
Jo,
Und die Besitzer einer RX 570 8GB werden sich auch freuen.
Sollte ja besser skalieren als mit der GTX 1060.
 
Laphonso schrieb:
Wir haben es Nvidia zu verdanken, dass Freesync kam, dass AMD Raytracing in die Konsolen und in die Desktop RDNA 2 gebracht hat und dass AMD nun ebenfalls eine fps-Boosting und DLSS Alternative anbietet.
NVidia hatte G-Sync eher am Markt, aber Freesync war da schon in der Entwicklung, die entstanden parallel und unabhängig voneinander. Da kann sich keiner als "Der Erfinder" hinstellen.

RayTracing und DLSS sind Innovationen von NVidia, ja. So wie im Gegenzug durch Mantle wir nun Vulkan und DX12 haben und es war auch AMD denen es aufgefallen ist dass die Grafikkarten noch über eine 32 Bit Limitierung am Bus angesprochen werden obwohl es besser gehen würd (rBAR). Wenn man etwas zurückgeht ist auch Tesselation von AMD (TruForm)
 
  • Gefällt mir
Reaktionen: FeelsGoodManJPG, Luuuc22, jonderson und 4 andere
Bierliebhaber schrieb:
In jedem Fall hat DLSS mit Supersampling nichts zu tun. Ist halt ein reiner Marketingbegriff.
Nvidia verwendet den Begriff Supersampling korrekt. Der Begriff Supersampling wird auch im Zusammenhang mit temporalen Verfahren verwendet.
Hier ist z.B. das Facebook Paper: Neural Supersampling for Real-time Rendering
 
  • Gefällt mir
Reaktionen: Laphonso, .Sentinel., B3nutzer und eine weitere Person
Jesterfox schrieb:
RayTracing und DLSS sind Innovationen von NVidia, ja.

Wo bitte ist Raytracing eine Innovation von Nvidia???? Raytracing gab es früher schon, auch von Intel und ATI. Nvidia hat es vielleicht als erster im Massenmarkt eingeführt weil die benötigte Leistung mittlerweile erreicht werden kann, aber Raytracing ist definitiv keine Innovation von Nvidia. DLSS ja, aber das alle Raytracing Nvidia zuschieben verstehe ich nicht. Raytracing gab es schon anfang der 2000er.
 
  • Gefällt mir
Reaktionen: jonderson, surtic, OldZocKerGuy und eine weitere Person
Jesterfox schrieb:
NVidia hatte G-Sync eher am Markt, aber Freesync war da schon in der Entwicklung, die entstanden parallel und unabhängig voneinander.
Tolle Story, aber entspricht einfach nicht der Realität. AMD brauchte etwa ein knappes Jahr um zu reagieren und hatte am Anfang überhaupt kein Mittel für ordentliches LFC.
 
  • Gefällt mir
Reaktionen: Max0071980 und foo_1337
Naja wenn FSR wirklich was taugen sollte könnte man vllt sogar ne Kombi aus FSR und DLSS machen. Erst Z.b. wenn man ein 4k bild will mit Full HD FSR auf 2k upscalen per Shader und dann durch die Tensorcores schleusen und auf 4k pushen :D
 
Ich wiederhole mich, wenn ich sage: Matschfilter werde ich nicht nutzen, weder in grün noch in rot.
 
  • Gefällt mir
Reaktionen: Hardware_Hoshi und Der Paule
Jetzt gibts also bei AMD nicht nur Fine Red Wine sondern auch Grünen Veltliner. :D
Bin mal gespannt ob Lederjacke das weiter hinsichtlich Bildqualität optimieren wird für Pascal, nachdem AMD die Vorarbeit geleistet hat und zur Verfügung stellt.
Immerhin kennen die Nvidia-Ingenieure ihre Treiber-API und Chips selber besser.
Nur glauben tu ichs nicht. Meine GTX980 ist ohnehin aussen vor.
G-Sync kompatible Monitore behandelt man ja auch etwas stiefmütterlich, da verkauft man doch lieber Blackboxen mit Lüfter.
Ist so ein bisschen wie PhysX. Das hat man auch brav im Treiber deaktiviert, wenn man eine Radeon als Hauptkarte hat und eine kleine/ältere GeForce als reinen Beschleuniger verwenden wollte.
Laphonso schrieb:
Wir haben es Nvidia zu verdanken, dass Freesync kam
Adaptive Sync ist ein embedded DisplayPort Feature das seit 2009 im offenen VESA Standard vorhanden ist. G-Sync wurde im Oktober 2013 vorgestellt. Nur soviel zum Thema "Realitätscheck" ;)
Ergänzung ()

Zwiebelsoße schrieb:
AMD brauchte etwa ein knappes Jahr um zu reagieren und hatte am Anfang überhaupt kein Mittel für ordentliches LFC.
FreeSync brauchte auch erst noch neue Scaler für die Monitore um anständig zu funktionieren.
Die gabs Anfangs schlicht nicht/kaum.
Das war wohl auch der Grund warum nVidia eigene Chips für die Monitore entwickelt hat.
Sie hättens halt nur nicht verdongeln müssen.
Aber man will auch Entwicklungskosten reinholen, was ja auch durchaus legitim ist.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Volvo480 und jonderson
MMIX schrieb:
das alle Raytracing Nvidia zuschieben verstehe ich nicht.
Den Leuten kann man eigentlich nur den Wikipedia Artikel dazu empfehlen....
Ohne den Algorithmus aus den 60ern gäbs die kleinen Transistoren auf Turing/Ampere garnicht....
https://de.wikipedia.org/wiki/Raytracing
Ich hab manche unserer Kundenpräsentationen schon 2000 in 3ds-max 4 (zu der Zeit noch von "discreet") mit Raytracing gerendert.... (damals noch mit einem Duron800 und einer GeForce2MX)
Ich glaub eine ATI Radeon 9800(?) hatte vor einer Ewigkeit schon mal Hardwarefunktionen für Raytracing.
Die Karten waren halt damals schlicht zu langsam....
 
gustlegga schrieb:
Jetzt gibts also bei AMD nicht nur Fine Red Wine sondern auch Grünen Veltliner. :D
Ich wäre da nicht so optimistisch, AMD macht den gleichen Fehler wie Nvidia.
Diese Lösung verwendet spatial basiertes upscaling, das kann rein vom Prinzip her schon keine besseren Ergebnisse liefern, weil die temporale Komponente fehlt.
https://twitter.com/RyanSmithAT/status/1399567480813625344
gustlegga schrieb:
Adaptive Sync ist ein embedded DisplayPort Feature das seit 2009 im offenen VESA Standard vorhanden ist. ;)
In normalen Monitoren wurde der eDP Standard überhaupt nicht verwendet, nicht mal in Notebooks, vielleicht in einigem Smartphones. Auf Hinwirken von AMD wurde der Standard dann bei Display Port hinzugefügt, vorher steuerte die Panelelektronik LVDS.
 
  • Gefällt mir
Reaktionen: foo_1337
@Zwiebelsoße
Was halt nichts daran ändert dass es bereits implentiert war als G-Sync noch gar nicht am Markt war.

Edit: Danke für den Twitter-Link. (AnandTech ist doch eh nur noch eine Intel-Fanboy Seite, ich glaub ich schau mal wieder beim Charlie vorbei :D )
 
Zuletzt bearbeitet:
Zurück
Oben