News FidelityFX Super Resolution: DLSS-Konkurrenz ab 22. Juni für AMD- und Nvidia-GPUs

B3nutzer schrieb:
Variables Overdrive. Jeder Monitor mit Gsync Modul kann das.
Bei Freesync bestenfalls ne Handvoll mehr oder weniger gut..

Genau das!
Ich hatte vor 16 Monaten 3 FreeSync IPS Monitore hier ~500€, die alle zurück gingen, bis mir jemand erklärte
was es mit dem adaptiven Overdrive auf sich hat. Das G-Sync Modul ist für mich absolut notwendig, das variable Framerates auf IPS überhaupt erst sinnvoll macht.
 
Zotac2012 schrieb:
In dem Video sieht man gar nichts...
Bitte was? Man sieht den Vergleich einer 6800XT nativ vs. ultra Quality in Großdarstellung ganz gut und kann es einschätzen.
Zotac2012 schrieb:
was auch nur im Ansatz ausreicht, um ein Urteil über das Feature selbst oder dessen Qualität zu beurteilen.
Stimmt, man kann überhaupt nicht sagen, ob noch Verbesserungen nachgeschoben werden oder nicht.

Zotac2012 schrieb:
Es dient einfach nur dem Zweck, das AMD am 22.Juni eine Alternative zu Nvidia`s DLSS bietet für seine Kunden.
AMD hätte ihr Feature für den 22 Juni auch ohne BQ Vergleich ankündigen können.

Zotac2012 schrieb:
Von daher macht es überhaupt keinen Sinn jetzt etwas zu beurteilen, wo keiner die wirklichen Fakten kennt.
Es macht eher keinen Sinn auf ein Wunder zu hoffen, welches die Qualität noch anhebt.

Zotac2012 schrieb:
Würde man all das glauben, was in den Foren oder von gewissen Online Seiten behauptet wird, dann hätten wir auch heute eine RTX 3080 mit 20GB Speicher.
Den Sinn dieses Argumentes verstehe ich nicht. Niemand wusste ob eine RTX 3080 mit 20GB kommt oder nicht.
 
  • Gefällt mir
Reaktionen: xBitwinSDKx
Zotac2012 schrieb:
In dem Video sieht man gar nichts, was auch nur im Ansatz ausreicht, um ein Urteil über das Feature selbst oder dessen Qualität zu beurteilen.
Man sieht den Qualitätsunterschied zu ultra quality mit der 6800XT und zu quality mit der 1060 in einem Vorzeigetitel der extra von AMD hierfür ausgesucht wurde. Das ganze kann man sich in 4K anschauen und was dann noch an schlechter videoqualität übrig bleibt ist eher zugunsten von AMD weil die unterschiede dadurch geringer aussehen als sie es sind
 
Der Punkt ist doch dass es nun endlich kommt. Status ähnlich wie DLSS 1.0? ...check wird noch dauern bis es richtig gut läuft (wie dlss 2.0)? Check! Die ganzen Diskussionen, Meinungen ukd Einschätzungen sind doch unnötig. Abwarten und dann wird man sehen.....wichtig ist der Startschuss. Das AMD sowohl bei RT als auch bei KI- upsamplinhäg hinterherhinkt ist nunmal so. Die 6000er Karten zeigen aber dass AMD nach vielen Jahren wieder (fast) gleichauf ist. Wenn die Konsolenspiele das Feature etstmal haben und es weiterwntwickelt wird, brauch man da keine Sorgen haben :-)
 
  • Gefällt mir
Reaktionen: Blekota und Onkel Föhn
Zwiebelsoße schrieb:
Bitte was? Man sieht den Vergleich einer 6800XT nativ vs. ultra Quality in Großdarstellung ganz gut und kann es einschätzen.
Man sieht eine Sequenz in einem Video, das sagt doch gar nichts aus. Warte es doch einfach mal ab, bis das Feature für alle zugänglich ist, dann testet es und dann habt Ihr doch immer noch genug Zeit um es zu kritisieren. Aber wie gesagt, es wird auch keiner von AMD gezwungen, dieses Feature zu nutzen! ;)
Zwiebelsoße schrieb:
Stimmt, man kann überhaupt nicht sagen, ob noch Verbesserungen nachgeschoben werden oder nicht.
Genau, von daher einfach mal den Puls runterfahren und noch die 3.Wochen überstehen und dann sehen wir doch, was der Stand der Dinge ist.
Zwiebelsoße schrieb:
AMD hätte ihr Feature für den 22 Juni auch ohne BQ Vergleich ankündigen können.
Ja schon, aber das hätte doch bei weitem nicht die Tragweite gehabt, wie es jetzt der Fall ist, kann man doch schön an diesem Thread sehen.
Zwiebelsoße schrieb:
Es macht eher keinen Sinn auf ein Wunder zu hoffen, welches die Qualität noch anhebt.
Es macht auch keinen Sinn, alles niederzuschreiben und kaputt zu reden, was noch nicht mal für die Öffentlichkeit zur Verfügung steht! ;)
Zwiebelsoße schrieb:
Den Sinn dieses Argumentes verstehe ich nicht. Niemand wusste ob eine RTX 3080 mit 20GB kommt oder nicht.
Wenn man z.B. nach diversen Online Seiten wie z.B. VideoCardz geht, war doch die RTX 3080 mit 20GB schon eine beschlossene Sache. Da sind doch auch alle möglichen Gerüchte und Szenarien durchgehypt worden und am Ende kam es doch ganz anders, als viele vorhergesagt haben.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Blekota und Onkel Föhn
Zotac2012 schrieb:
Man sieht eine Sequenz in einem Video, das sagt doch gar nichts aus.
Natürlich sagt es was aus und zwar welche Qualität FSR bietet, oder warum oder weshalb sollte die Qualität in einer anderes Sequenz anders sein? :rolleyes:
Du leugnest es einfach, wie lächerlich.^^
Zotac2012 schrieb:
Warte es doch einfach mal ab, bis das Feature für alle zugänglich ist, dann testet es und dann habt Ihr doch immer noch genug Zeit um es zu kritisieren.
Das mache ich sowieso und ich erwarte Verbesserungen mit den weiteren FSR Iterationen.
Aber zu behaupten da sei nichts zu sehen, entspricht nicht der Realität und kann ja wohl nicht ernst gemeint sein.
In der Regel wird der BestCase gezeigt.
Zotac2012 schrieb:
Genau, von daher einfach mal den Puls runterfahren und noch die 3.Wochen überstehen und dann sehen wir doch, was der Stand der Dinge ist.
Den Stand der Dinge sieht man eben jetzt schon, Verbesserungen kann man nicht erahnen.

Zotac2012 schrieb:
Ja schon, aber das hätte doch bei weitem nicht die Tragweite gehabt, wie es jetzt der Fall ist, kann man doch schön an diesem Thread sehen.
Die Tragweite wird wegen der relativ schlechten Bildqualität ja geschmälert, was auch die Frage aufwirft, warum sie etwas zeigen sollen, was AMD ins schlechte Licht rückt.

Zotac2012 schrieb:
Es macht auch keinen Sinn, als niederzuschreiben und kaputt zu reden, was noch nicht mal für die Öffentlichkeit zur Verfügung steht! ;)
Tut auch niemand. Man bewertet AMD´s bisherige Äußerungen und deren vorgestellte Qualität.
Zotac2012 schrieb:
Wenn man z.B. nach diversen Online Seiten wie z.B. VideoCardz geht, war doch die RTX 3080 mit 20GB schon eine beschlossene Sache.
Was hat das mit dem Thema zu tun? Gar nichts.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: xBitwinSDKx
Och, ich hab mir mal 40 Seiten bevorzugten Hersteller in den Himmel loben und andere Hersteller schlecht reden gespart...

Ich möchte schneller Karten für hohe Auflösungen und keinen hochskalierten Matsch mit nachgeschärfe durch Buzzwort Trickserei!

Den Aufwand und das Geld hätten beide lieber in die Entwicklung der GPUs stecken sollen... wenn die Entwickler langsam am Ende sind, dann dürfen die sich gerne von neuronalen Netzen und KI helfen lassen :-D
 
  • Gefällt mir
Reaktionen: scuba2k3
aldaric schrieb:
FSR tut nVidia schon richtig weh, weil AMD damit bewusst gezeigt hat, dass es auch auf alten Gens von nVidia läuft. Da stellt sich halt, auch wenns Qualitativ aktuell nicht mit DLSS2.0 mithalten kann, warum nVidia sowas nichts für ältere Generationen anbietet?
Wieso sollte das Nvidia wehtun? AMD's Ansatz ist ein völlig anderer. Es ist ein vergleichsweise simples Upscaling mit schlechtem Ergebnis. Das ist nichts neues. Da kann man genauso gut fragen wieso AMD das nicht schon vor 10 Jahren gebracht hat.

aldaric schrieb:
Aus deiner Sicht, die absolut übertrieben ist, könnte man gegenteilig auch behaupten, dass DLSS eine Verzweiflungstat ist, da man in der normalen Raster-Leistung nicht mehr die Krone hat. Beides natürlich schwachsinn.
So weit hergeholt ist das nicht. Ohne DLSS wäre man mit RT viel zu stark eingebrochen.
 
  • Gefällt mir
Reaktionen: xBitwinSDKx
iron_monkey schrieb:
Ich möchte schneller Karten für hohe Auflösungen und keinen hochskalierten Matsch mit nachgeschärfe durch Buzzwort Trickserei!

Den Aufwand und das Geld hätten beide lieber in die Entwicklung der GPUs stecken sollen... wenn die Entwickler langsam am Ende sind, dann dürfen die sich gerne von neuronalen Netzen und KI helfen lassen :-D
Die letzten Jahre unter einem Stein verbracht?

Deine effektive Auflösung ist nativ oft niedriger, als mit diesem "nachgeschärfe durch Buzzwort Trickserei".

Zumindest bei DLSS. Ins Thema einlesen BEVOR man solch markige Sprüche in ein Forum absondert, würde helfen.

720p bikubisches upscaling:
https://i.ibb.co/s5KXYLH/Youngblood-720natupscaled.png

Dagegen DLSS Performance (also die qualitativ schlechteste Stufe) +niedrigstes cas
https://i.ibb.co/jW3Q7x7/Youngblood-DLSSPerf.png

DLSS wirkt also nachweisbar.

Och, ich hab mir mal 40 Seiten bevorzugten Hersteller in den Himmel loben und andere Hersteller schlecht reden gespart...
Warum kommst Du dann überhaupt in den Thread? Nur um hier in Twitter- Manier der Menschheit den Furz, der Dir quer sitzt anzukündigen und dann selbst nur undifferenziert die Technik schlecht zu machen?

Also manchmal möchte man verzweifeln...
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: xBitwinSDKx, Pisaro, ZeroStrat und eine weitere Person
iron_monkey schrieb:
Ich möchte schneller Karten für hohe Auflösungen und keinen hochskalierten Matsch mit nachgeschärfe durch Buzzwort Trickserei!
Wir sind ja bereits bei 350W Leistungsaufnahme angekommen. Für die doppelte Renderleistung wären dann 700W fällig. Die doppelte Renderleistung bei 350W wird dann wahrscheinlich bei 3nm erreicht. Das könnte dann 2024 soweit sein. Aktuell hilft also nur eine Menge Geduld, wenn man DLSS nicht nutzen möchte.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Tanzmusikus und Cohen
Taxxor schrieb:
Naja wir sind ja hier in einem Forum, wo eher Enthusiasten unterwegs sind und es wird sich oft genug über die zu schlechte BQ von DLSS 2.0 beschwert ^^
Vielleicht auch ein Anwenderfehler. DLSS sieht auf FHD nämlich, meiner Ansicht nach, auch auf "Qualität" eher nicht so gut aus, wobei wenn man auf 4K wechselt, ich zwischen DLSS an und aus keinen Unterschied mehr sehe, ausser dass mit aktivem DLSS natürlich die Bildrate höher ist:)

AI Upscaling braucht genug Input dass ein guter Output herauskommt. Bei Ziel Auflösung 4K halte ich DLSS für sehr überzeugend.
 
Nolag schrieb:
Wir sind ja bereits bei 350W Leistungsaufnahme angekommen. Für die doppelte Renderleistung wären dann 700W fällig.
Aber auch nur, wenn man davon ausgeht, das würde linear skalieren. Tut es ja meistens nicht. Also mit heutiger Technik würde man mit 700W evtl nur ~50% drauflegen können, je nachdem wie man die Leistungsaufnahme verdoppelt. Mehr Takt brauchen wir gar nicht drüber reden, da kommt man auch mit zusätzlichen 350W nicht viel weiter. Und doppelte CUs/SMs benötigen dann auch wieder mehr Bandbreite, was auch auf die Leistungsaufnahme geht und dabei skalieren die auch nicht 100%.

Nolag schrieb:
Die doppelte Renderleistung bei 350W wird dann wahrscheinlich bei 3nm erreicht. Das könnte dann 2024 soweit sein. Aktuell hilft also nur eine Menge Gedult, wenn man DLSS nicht nutzen möchte.
Hm, 3 Jahre? Ich denke mal die ersten 5nm GPUs sehen wir Mitte/Ende 2022, ob man dann in der darauffolgenden Generation direkt auf 3nm geht?
Außerdem haben die Spiele in 3 Jahren auch wieder ganz andere Anforderungen als heute, sodass die Mehrleistung direkt in mehr Performancehunger verpufft, gerade wenn immer mehr RT Effekte dazu kommen.

AI Upscaling wird man so schnell nicht los. Ganz im Gegenteil, ich bin mir ziemlich sicher, dass es in nicht allzu ferner Zukunft Standard sein wird und die GPUs das automatisch machen ohne dass man es auswählen müsste.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Tanzmusikus und .Sentinel.
Prinzipbedingt, durch das temporale Verfahren ist ja zumindest theoretisch auch noch das Potenzial da, dass DLSS trotz niedrigerer Auflösung immer und jederzeit besser aussehen könnte als nativ. Wo da die Grenze liegt weiß ich allerdings nicht. Kann man sicherlich irgendwie ausrechnen...

Mit einem DLSS 3.0 oder 4.0 in einigen Monaten/Jahren also wahrscheinlich im Rahmen des möglichen.
Und dann wird keiner mehr drüber nachdenken. Aktivieren, mehr Leistung und bessere Bildqualität genießen und gut ists.
 
Zwiebelsoße schrieb:
Natürlich sagt es was aus und zwar welche Qualität FSR bietet, oder warum oder weshalb sollte die Qualität in einer anderes Sequenz anders sein? :rolleyes:
Und das kannst Du an einer Sequenz in einem Spiel sehen, was FSR kann oder nicht? Da Frag ich mich nur, warum Dich AMD noch nicht gescoutet hat und statt dessen auf all Ihre unfähigen Ingenieure setzt!
Zwiebelsoße schrieb:
Du leugnest es einfach, wie lächerlich.^^
Sorry, aber lächerlich macht sich hier nur einer!
Zwiebelsoße schrieb:
Aber zu behaupten da sei nichts zu sehen, entspricht nicht der Realität und kann ja wohl nicht ernst gemeint sein. In der Regel wird der BestCase gezeigt.
Ich kann nichts bewerten, was ich selbst noch nicht mal testen kann und ich kann es schon zweimal nicht bewerten, wenn ich nur eine Sequenz gezeigt bekomme und das Feature nicht in verschiedenen Games gesehen und erlebt habe.
Zwiebelsoße schrieb:
Den Stand der Dinge sieht man eben jetzt schon, Verbesserungen kann man nicht erahnen.
Was Du siehst, ist der Stand, den Dir AMD vorgibt in dieser einen Sequenz, nicht mehr und nicht weniger.
Zwiebelsoße schrieb:
Die Tragweite wird wegen der relativ schlechten Bildqualität ja geschmälert, was auch die Frage aufwirft, warum sie etwas zeigen sollen, was AMD ins schlechte Licht rückt.
Warum präsentiert Nvidia eine Grafikkarte aus Holz, wo sie doch wissen müssen, dass man dadurch nicht nur in ein schlechtes Licht gerückt wird. Oft haben halt die Marketingabteilungen dieser Unternehmen nicht durch besondere Fachqualität und überragende Präsentationen geglänzt.
Zwiebelsoße schrieb:
Tut auch niemand. Man bewertet AMD´s bisherige Äußerungen und deren vorgestellte Qualität.
Ja, das kann man hier ja auch nun über mehrere Seiten lesen und sofort erkennen, mehr als Spekulation kommt halt nicht rüber, weil man es eben selbst noch nicht testen und live erleben konnte.
 
  • Gefällt mir
Reaktionen: Onkel Föhn, Tanzmusikus und Blekota
Zotac2012 schrieb:
Und das kannst Du an einer Sequenz in einem Spiel sehen, was FSR kann oder nicht? Da Frag ich mich nur, warum Dich AMD noch nicht gescoutet hat und statt dessen auf all Ihre unfähigen Ingenieure setzt!
Das kann jeder sehen, genau wie auch jeder sehen kann, was DLSS kann oder nicht. Denn dafür muss man genau eine Sache tun: Sich das Ergebnis anschauen, wofür die Präsentation ja schließlich da war.

Was die Ingenieure, die das Ganze entwickelt haben nun damit zu tun haben, dass jeder in der Lage ist "Finde die Fehler im rechten Bild" zu spielen, darfst du aber gerne erklären.

Zotac2012 schrieb:
Was Du siehst, ist der Stand, den Dir AMD vorgibt in dieser einen Sequenz, nicht mehr und nicht weniger.
Genau das ist doch der Punkt.

- AMD ist 3 Wochen vor Release von FSR.

- Präsentationen zeigen neue Features immer im bestmöglichen Licht.

- Sie wählen für die Präsentation ein Spiel aus, welches an sich schon ein Vorzeige-AMD-Spiel ist. Es darf also davon ausgegangen werden, dass man auch FSR für die Vorstellung auf genau dieses Spiel oder sogar diese Sequenz hin optimiert hat(Wenn eine andere Sequenz oder ein anderes Spiel besser ausgesehen hätte, hätte man logischerweise das genommen)

- Sie zeigen die Qualität von FSR in den zwei besten der vier Qualitätsstufen, wobei selbst die beste nicht sonderlich gut weg kommt und die zweitbeste direkt für die Tonne ist.

Sofern du jetzt nicht davon ausgehst, dass AMD hier absichtlich ein Spiel oder einen Stand von FSR gezeigt hat, wo es deutlich schlechter aussieht als das, was man 3 Wochen später auf den Markt bringen will, kann man eben davon ausgehen, dass dies das ist, was man am 22.6. bekommt.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Tanzmusikus, xBitwinSDKx, Zwiebelsoße und 2 andere
B3nutzer schrieb:
Prinzipbedingt, durch das temporale Verfahren ist ja zumindest theoretisch auch noch das Potenzial da, dass DLSS trotz niedrigerer Auflösung immer und jederzeit besser aussehen könnte als nativ. Wo da die Grenze liegt weiß ich allerdings nicht. Kann man sicherlich irgendwie ausrechnen...

Mit einem DLSS 3.0 oder 4.0 in einigen Monaten/Jahren also wahrscheinlich im Rahmen des möglichen.
Und dann wird keiner mehr drüber nachdenken. Aktivieren, mehr Leistung und bessere Bildqualität genießen und gut ists.
Ich würde "immer und jederzeit" streichen. Ich würde mal als Frage in den Raum werfen, ob DLSS überhaupt effektiv bei statischen Bilder ist?
 
foxio schrieb:
Ich würde "immer und jederzeit" streichen. Ich würde mal als Frage in den Raum werfen, ob DLSS überhaupt effektiv bei statischen Bilder ist?
Bei statischer Kamera funktioniert es sogar besonders gut, weil das Jitter Pattern dann praktisch perfekt passt. Die Aussage, dass DLSS nicht "immer und jederzeit" besser aussieht ist aber völlig korrekt. Digital Foundry zeigt dafür ja immer das Ventilator Beispiel, wo DLSS prinzipbedingt völlig versagt.
 
  • Gefällt mir
Reaktionen: Onkel Föhn, B3nutzer und .Sentinel.
foxio schrieb:
Ich würde "immer und jederzeit" streichen. Ich würde mal als Frage in den Raum werfen, ob DLSS überhaupt effektiv bei statischen Bilder ist?
Ja- Wie nolag schon richtig schrieb. Stichwort "Jitter".
Schau Dir mal diverse TAA Verfahren an. Da wird das erklärt.
Ergänzung ()

Nolag schrieb:
Digital Foundry zeigt dafür ja immer das Ventilator Beispiel, wo DLSS prinzipbedingt völlig versagt.
Nicht in der Version 2.x

Hier ab 0:13
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: ASCORBIN, Tanzmusikus und xBitwinSDKx
@.Sentinel. Aber benötigt es für das Jitter nicht mehrere unterschiedliche Frames, bzw benötigt DLSS nicht grundsätzlich umliegende Frames?
Bei einem statischen Bild, was ich jetzt wirklich als einzelnes Bild aufgefasst habe, hat man doch nur einen einzigen Frame bzw. mehrere Frames, die aber alle exakt gleich sind(statisch eben), womit auf temporaler Ebene ja gar nichts möglich wäre.
 
Taxxor schrieb:
@.Sentinel. Aber benötigt es für das Jitter nicht mehrere unterschiedliche Frames, bzw benötigt DLSS nicht grundsätzlich umliegende Frames?
Bei einem statischen Bild, was ich jetzt wirklich als einzelnes Bild aufgefasst habe, hat man doch nur einen einzigen Frame bzw. mehrere Frames, die aber alle exakt gleich sind(statisch eben), womit auf temporaler Ebene ja gar nichts möglich wäre.
Du versetzt mit dem Jitter die Abtastposition.
1622977672877.png


Im Standbild hast Du beim 4- Fach Upscaling die 8- Fache Pixelinformation der DLSS Auflösung (nicht der Zielauflösung). Das Jittern findet in dem Fall frameganau statt, da keine temporalen Besonderheiten zu berücksichtigen oder ein Clamping durchzuführen ist..

Somit sieht es rechnerisch so aus:
3840x2160=8.294.400 Pixel nativ

2560x1440=3.686.400 x 8 = 29.491.200 Pixel mit DLSS Quality auf 4K im Standbild

In Bewegung bleibt davon dann natürlich weniger übrig, weil viele dieser Pixel nicht mehr gültig sind bzw. auch DLSS, bevor es daneben greift, die Pixel schlichtweg löscht.
Es bleibt aber dennoch in 99% der Fälle mehr Pixelnformation als nativ, womit man dann auf ein qualitativ hochwertigeres Bild downsamplen kann.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: xBitwinSDKx, KenshiHH und Taxxor
Zurück
Oben