News AMD FSR: Ab sofort in UE sowie Unity und als Open Source verfügbar

Matthias B. V. schrieb:
Ja aber man versucht so zu tun als bräuchte man dazu eine Nvidia GPU mit Tensor cores...

Die Tensor Cores werden von Nvidia nicht mal in deren RTX I/O Artikel erwähnt. Es wird also nicht so getan, als bräuchte man diese Cores.

DirectStorage setzt DirectX 12 Ultimate voraus. Und diese Anforderung wird laut HWLX nur von Ampere, Turing und RDNA2 erfüllt. Navi, Polaris und Pascal sind raus.

Laut Hardwareluxx:

Die Technik wird von allen Grafikkarten unterstützt werden, welche die Anforderungen für DirectX 12 Ultimate erfüllen. Dies sind alle NVIDIA-Karten der RTX-2000- und RTX-3000-Serie (Turing und Ampere) sowie die Radeon-RX-6000-Karten auf Basis der RDNA-2-Architektur. Aber auch die SSD muss ausreichend schnell sein. Microsoft beschreibt die Anforderungen hier mit "requires an NVMe SSD to store and run games that use the "Standard NVM Express Controller" driver and a DirectX12 GPU with Shader Model 6.0 support."
 
  • Gefällt mir
Reaktionen: RogueSix
Salamimander schrieb:
Ich habe nichts Extra für DLSS(2) bezahlt. War halt dabei.
Du hast dafür eine neue GPU gebraucht während FSR auch noch auf einer RX480 oder GTX1060 läuft...

Du hast Features wie DLSS dafür auch mitgezahlt.
 
  • Gefällt mir
Reaktionen: paulemannsen, Pleasedontkill, Tranceport und eine weitere Person
Matthias B. V. schrieb:
Du hast dafür eine neue GPU gebraucht während FSR auch noch auf einer RX480 oder GTX1060 läuft...

Du hast Features wie DLSS dafür auch mitgezahlt.
Ich habe eine neue GPU gebraucht, Ja. Wäre die GPU billiger gewesen auf Grund von fehlendem DLSS? Da gibt es nur wilde Behauptungen.
 
Matthias B. V. schrieb:
Du hast Features wie DLSS dafür auch mitgezahlt.
Und die Käufer einer RDNA2 haben die Entwicklung von FSR mitgezahlt. Das hatten wir schon im anderen FSR Thread sehr ausführlich, wir drehen uns im Kreis.
(Gleich kommen sicher ein paar oberschlaue und sagen, dass das ja nicht so viel Aufwand gewesen sein kann, weil nur wenige LoC)
 
Salamimander schrieb:
Ich habe eine neue GPU gebraucht, Ja. Wäre die GPU billiger gewesen auf Grund von fehlendem DLSS? Da gibt es nur wilde Behauptungen.
Nein in dem Fall nicht. Aber wie viele Upgraden Hardware für ein Feature dass evtl. auch auf einer alten GPU funktioniert hätte...

Dank FSR können manche vlt nun eine Generation aussitzen und statt einer überteuerten Ampere oder RDNA2 Karte in 2021 eine bessere und evtl. sogar günstigere Lovelace oder RDNA3 Karte in 2022 kaufen.

Die erste DLSS Generation nutzte teilweise nicht mal Tensor Cores und hätte auch auf älteren Karten laufen können.
 
  • Gefällt mir
Reaktionen: Pleasedontkill und dohderbert
War klar dass die Verteidiger der proprietären Lösung es wieder so drehen dass es passt. Aber egal, mich persönlich juckt das nicht - allein die Tatsache, dass AMDs Lösung quelloffen ist, macht sie für mich persönlich zum Gewinner und zu meinem persönlichen Haben-Will-Grund.
 
  • Gefällt mir
Reaktionen: jonderson und Pleasedontkill
Matthias B. V. schrieb:
Die erste DLSS Generation nutzte teilweise nicht mal Tensor Cores und hätte auch auf älteren Karten laufen können.
Siehe oben. Wieso wiederholst du deine eigenen Falschaussagen? Und zu DLSS 2 ohne Tensor Cores: Vergleiche bitte Control mit DLSS 1.9 und 2.0 und dann ziehe deine eigenen Schlüsse.
Und warte bitte mal ab, denn auch aus den eigenen AMD Reihen kommt die Vermutung, dass es mit FSR2 und RDNA3 ähnlich laufen wird (dedizierte Einheiten für solche Spielchen)
 
foo_1337 schrieb:
Siehe oben. Wieso wiederholst du deine eigenen Falschaussagen? Und zu DLSS 2 ohne Tensor Cores: Vergleiche bitte Control mit DLSS 1.9 und 2.0 und dann ziehe deine eigenen Schlüsse.
Und warte bitte mal ab, denn auch aus den eigenen AMD Reihen kommt die Vermutung, dass es mit FSR2 und RDNA3 ähnlich laufen wird (dedizierte Einheiten für solche Spielchen)
Was ist daran eine Falschaussage wenn DLSS 1.x zum Teil ohne Tensor Cores lief? Man hätte es also ebenso weiter ausrollen können wie AMD es mit FSR getan hat - hätte dann aber die Lebensdauer alter GPUs verlängert und weniger neue GPUs verkaufen können...
 
Matthias B. V. schrieb:
Was ist daran eine Falschaussage wenn DLSS 1.x zum Teil ohne Tensor Cores lief? Man hätte es also ebenso weiter ausrollen können wie AMD es mit FSR getan hat - hätte dann aber die Lebensdauer alter GPUs verlängert und weniger neue GPUs verkaufen können...
Du hast es nicht verstanden. Du schriebst vorher "erste Generation". DLSS 1.9 war aber nicht die erste Gen, sondern die zweite bzw. eine experimentelle Version der zweiten triffts vielleicht am besten. Und es gab genau ein Spiel, Control, damit. Dieses Spiel wurde dann aber wegen der Defizite recht schnell mit DLSS 2.0 ausgerüstet. Daher ist "weiter ausrollen" keine Option gewesen.

DLSS 1.0 -> Gen 1, Tensor Cores, Spielabhängiges Training
DLSS 1.9 -> experimentelle Gen 2, keine Tensor Cores, ausschließlich bei Control genutzt, generisches Training
DLSS 2.x -> Gen 2, Tensor Cores, generisches Training
 
Als weiteres unterstütztes Spiel würde ich mir fast Cyberpunk 2077 wünschen. Meine RX 580 reicht da für WQHD leider nicht ganz aus.
 
  • Gefällt mir
Reaktionen: Pleasedontkill, Sun-Berg und ChrissKrass
Matthias B. V. schrieb:
Nein in dem Fall nicht. Aber wie viele Upgraden Hardware für ein Feature dass evtl. auch auf einer alten GPU funktioniert hätte...
Im Fall von DLSS muss mann aber auch sehen, dass man ja gleichzeitig schon eine höhere Grundleistung mit der neuen GPU hat.
Hätte man z.B. DLSS auf seiner 1060 haben können, hätte man die Leistung einer 2060 bekommen können ohne Upgrade. Dadurch dass man jetzt die 2060 dafür kaufen musste, hat man mit DLSS aber dann auch die Leistung einer 3060.
 
Das Problem ist doch das Fehlen von DLSS auf den GTX-Karten der Turing-Generation. Das war damals die Situation, wo man für DLSS mehr zahlen musste, obwohl die kleineren Karten besonders davon profitiert hätten. Das ist bei Ampère nicht mehr so, soweit ich weiß, allerdings muss man natürlich weiterhin für DLSS eine neue Karte kaufen, während FSR dahingehend fast keine Limitierung hat.
 
  • Gefällt mir
Reaktionen: Marflowah und Matthias B. V.
Matthias B. V. schrieb:
Sehe ich auch so. Selbst wenn DLSS 2.x etwas besser als FSR ist dafür aber deutlich teurer und komplizierter setzt sich mit FSR trotzdem die "gut genug" Lösung durch.

Die "gut genug" Lösung nennt sich aktuell TAA Upscaling (TAAU) und ist, wie es aussieht die qualitativ deutlich bessere Lösung als FSR, wird bereits von vergleichsweise vielen Spielen genutzt und läuft auch auf jeder Karte.

Die Frage ist halt wie einfach das für die Entwickler zu implementieren ist. Wie gesagt, viele habens schon, viele auch nicht. Scheinen Eigenentwicklungen zu sein, aber es gibt dafür sicherlich auch Middlewares, die man als Entwickler nutzen kann. AMDs Lösung ist eben kostenlos, aber bei weitem nicht die beste (DLSS noch gar nicht mitgezählt)


Matthias B. V. schrieb:
Und evtl. sehen wir mit Direct ML Upsampling einen verbreitenden Standard der DLSS 2.x dann den Rest gibt. Auch wenn es natürlich nicht komplett offen ist...

Sowas würde ich mir auf jeden Fall von AMD wünschen. Temporal und/oder mit ML. DLSS braucht Konkurrenz und AMD muss viel mehr machen. Nvidia scheint sich aktuell ein wenig auf den Lorbeeren auszuruhen. Die jüngsten Implementierungen von DLSS in RDR2 und F1 sind nicht gerade gut gelungen.
 
  • Gefällt mir
Reaktionen: LukS, .Sentinel. und Taxxor
Marflowah schrieb:
Aber egal, mich persönlich juckt das nicht - allein die Tatsache, dass AMDs Lösung quelloffen ist, macht sie für mich persönlich zum Gewinner und zu meinem persönlichen Haben-Will-Grund.
Bitte nicht schon wieder...

Was fängst Du persönlich denn mit der Source an?
Schon mitbekommen, dass AMDs Lizenzierung darauf beruht, dass Du zwar mit dem Code anstellen kannst, was Du willst (welcher zudem wie man inzwischen weis, auf einem uralt- Verfahren basiert), aber der Hersteller das closed source modifizieren kann/wird.

Somit ist überhaupt nichts gewonnen...

Zudem ist das Verfahren, welches die Source zeigt uralt "https://de.wikipedia.org/wiki/Lanczos-Filter" mit einem Schuss CAS und qualitativ deutlich schwächer als heute schon verfügbare, auch nicht Tensor- Cores gestützte TAA Verfahren.

Also wo soll da der Gewinn sein? Für mich eine reine Überbrückungs- und Hinhaltetaktik, um sich Zeit zu verschaffen etwas besseres zu entwickeln bzw. das dann hardwaregestützt auf einer neuen Grafikkartengeneration neu aufzulegen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Colindo und ChrissKrass
Man könnte FSR auch mit Free Super Resolution übersetzen. :D ich finds gut!

Dann bin ich mal gespannt wie FSR in anderen Games so nach und nach fruchtet.

Bin gespannt wenn ich es das erste Mal ausprobieren kann. Neugierig bin ich ja schon...
 
danyundsahne schrieb:
Bin gespannt wenn ich es das erste Mal ausprobieren kann. Neugierig bin ich ja schon...

hab es bei Anno probiert in Ultra Qualität sieht ok aus viel Leistung Steck da aber nicht hinter denke auch das Nvidia Lösung auf Dauer der bessere Weg ist. Versteh eh nicht warum sich die Grafikkarte Hersteller nicht dafür an einen Tisch setzen können…
 
Ich hab die Demo mal runtergeladen, der Vorteil ist, dass es da ganze auch direkt als exe gibt, ohne dass man es erst selbst bauen muss, somit kann man die exe direkt in der Radeon Software einfügen und damit auch RIS über die Demo legen.

Nun könnt ihr euch sicherlich denken, was für ein Vergleich jetzt kommt^^

FSR Quality(1.5x scaling) + FSR Sharpening
fsr quality no ris.png



Bilinear upscaling (1.5x scaling) + RIS 100%
bilinear ris.png



So groß ist der Unterschied mMn gar nicht, was für mich auch klar zeigt, dass ~80% der Qualität von FSR eben vom Sharpening kommt und nicht vom Edge Adaptive Spatial Upsampling.
Mit steigender Auflösung wird der Anteil von EASU an der Endqualität immer kleiner.
Ebenso wird der Unterschied zwischen FSR und Bilinear + RIS natürlich mit FSR Quality vs Bilinear 1.3x ebenso nochmal deutlich kleiner.

Und dabei ist der bilinear upscaler ja auch schon nicht die beste Methode, die man statt FSR nutzen könnte.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: foo_1337 und .Sentinel.

FSR Ultra Quality(2954x1662) vs DLSS Quality(2560x1440) und FSR ist gleich schnell bzw meist sogar ~5% schneller und ich sehe dabei auch visuell keine Nachteile ggü. DLSS.
Hier scheinen die Entwickler also mal alles richtig gemacht zu haben^^

Aber wie kann die Performance gleichwertig sein ( @.Sentinel. evtl )?
Auf reddit wurde mir auf die Frage geantwortet, dass DLSS eine große "pipeline cost" hätte (was von Nvidia auch so kommuniziert werden würde) und daher mehr Performance kostet als es bei FSR der Fall ist. Das müssten dann aber ja 15-20% Impact sein, macht das Sinn?

Ich hab mal die CB Tests durchstöbert, da findet man einerseits Spiele wie Doom Eternal
3080 in 1440p: 148 FPS
3080 in 4K DLSS Quality: 117 FPS (das wären tatsächlich ca 20% Impact)

aber andererseits auch Spiele wie Metro Exodus EE
3090 in 1440p: 77 FPS
3090 in 4K DLSS Quality: 76.5 FPS
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Colindo, Ratlos83, .Sentinel. und 2 andere
Zurück
Oben