News FidelityFX Super Resolution: DLSS-Konkurrenz ab 22. Juni für AMD- und Nvidia-GPUs

Jetzt wird hier anhand von Videoaufnahmen gemutmaßt wie die Qualität von FSR ist, das ist ja noch abenteuerlicher, als die Präsentation von AMD. Man kann erst wirklich etwas zum FidelityFX Super Resolution (FSR) Feature sagen, wenn es auch allen zugänglich ist. Bis dahin gibt es wie immer Verschwörungstheorien und Mutmaßungen, in 17 Tagen wissen wir mehr und dann kann man sich auch über das Thema unterhalten, vorher ist alles nur Spekulation.

Aber das Beste an dem Feature FidelityFX Super Resolution (FSR) ist ja, es wird keiner gezwungen es zu nutzen, ich bin jedenfalls froh, das AMD nun endlich eine Lösung anbietet. Wie gut oder wie schlecht das Feature dann ist, wird sich zeigen.
 
  • Gefällt mir
Reaktionen: Onkel Föhn, -Stealth-, stolperstein und eine weitere Person
Zotac2012 schrieb:
Jetzt wird hier anhand von Videoaufnahmen gemutmaßt wie die Qualität von FSR ist, das ist ja noch abenteuerlicher, als die Präsentation von AMD.
Mit welcher Begründung? Weil jedem klar sein sollte, dass AMD ein Fake Video veröffentlicht, das nicht die tatsächliche Qualität der FSR Implementierung zeigt?
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: xBitwinSDKx, Zwiebelsoße, Taxxor und eine weitere Person
Nolag schrieb:
Mit welcher Begründung? Weil jedem klar sein sollte, dass AMD ein Fake Video veröffentlicht, das nicht die tatsächliche Qualität der FSR Implementierung zeigt?
Ach meinst Du die Küchenvideos von Huang waren besser? :evillol:

Das sind Marketingvideos, die haben meist mit der Realität wenig zu tun. Und irgendwelche Videos sagen da gar nichts aus, wenn ich mir manche Videos von den angeblichen Online Fachforen anschaue, dann dürfte man gar kein Gaming mehr betreiben, so schlecht wie deren Qualität ist. :daumen:
 
  • Gefällt mir
Reaktionen: Onkel Föhn
Zotac2012 schrieb:
Das sind Marketingvideos, die haben meist mit der Realität wenig zu tun.
... so schlecht wie deren Qualität ist. :daumen:
Es ist ein Marketingvideo, wobei man da eigentlich gewohnt ist, dass die Dinge besser dargestellt werden als sie eigentlich sind und nicht schlechter. Es kann natürlich sein, dass man keine hohen Erwartungen wecken will, damit man später mit der realen Qualität überraschen kann. Die gezeigte Qualität passt allerdings zu den bekannten Super Resolution Verfahren. Eine bessere Qualität wäre eine echte Überraschung. Das YT VP9 Video läuft an den entsprechenden Stellen jedenfalls teilweise mit über 30mbit/s und zeigt über die Unterabtastung hinaus praktisch keine Artefakte.
 
  • Gefällt mir
Reaktionen: USB-Kabeljau
Wartet es doch einfach ab, bis das Feature für alle verfügbar ist und dann kann doch jeder an seinem Monitor sehen, wie die Qualität ist. Und dann ist immer noch genug Zeit um zu kritisieren oder zu loben, nur so wissen wir gar nichts. Ich hatte ja vor meiner jetzigen RX 6800XT auch die RTX 3080 und kann Dir sagen, DLSS 2.0 ist jetzt auch nicht das Killerfeature, es ist gut, aber auch noch lange nicht perfekt.

Zudem sollte man AMD auch eine gewisse Zeit zustehen, schließlich ist das erst die erste Generation, wo die Grafikkarten Raytracing und dann auch FSR bekommen. Nvidia hat da einfach schon eine Generation hinter sich, die Zeit sollte man AMD auch geben und nicht immer alles gleich niedermachen.
 
  • Gefällt mir
Reaktionen: itsWinnfield, Onkel Föhn und Tanzmusikus
Taxxor schrieb:
Ich nicht, denn dann heißt es für Enwtickler wieder baue ich DLSS für 85% des Marktes ein und mache ich mir dann noch die Mühe, zusätzlich FSR für 15% des Marktes einzubauen?
Sollte es durch den Konsolen Anteil nicht deutlich mehr sein als 15%?
 
  • Gefällt mir
Reaktionen: Onkel Föhn
Zotac2012 schrieb:
Nvidia hat da einfach schon eine Generation hinter sich, die Zeit sollte man AMD auch geben
Es ist ja nicht so, als wäre AMD nicht bekannt wie Nvidia es bei ihrer ersten Verion gemacht hat und auch wie sie es seit einem Jahr mit 2.0 machen.

Wenn man dann jetzt von einem "state-of-the-art upscaling" spricht, sollte da auch schon mehr rauskommen, als das was der liebe @Nolag mit 5 Jahre alter Software gemacht hat.
Ergänzung ()

GERmaximus schrieb:
Sollte es durch den Konsolen Anteil nicht deutlich mehr sein als 15%?
Nicht wenn man es, wie im von mir zitierten Fall so neu auflegt, dass es auf dedizierte Hardware der RDNA3 Karten angewiesen ist.
Ich kann mir nicht wirklich vorstellen wie, aber vielleicht schaffen sie ja sogar den Spagat, es weiter auf den alten GPUs sowie den Konsolen laufen zu lassen mit der jetzigen Optik, dann aber mit RDNA3 Karten mit deutlich besserer Optik.
 
Zuletzt bearbeitet:
Taxxor schrieb:
Wenn man dann jetzt von einem "state-of-the-art upscaling" spricht, sollte da auch schon mehr rauskommen
Ich befürchte, dass wir mit unserer kritischen Wahrnehmung hier vielleicht nicht repräsentativ sind. Es könnte tatsächlich sein, dass FSR für die meisten Leute ausreichend ist und DLSS 2.0 nur für Enthusiasten relevant ist. Den meisten Leuten ist nicht einmal aufgefallen, dass das XBox Dashboard auf der Series X nicht in nativem 2160p dargestellt wird, sondern lediglich skaliertes und nachgeschärftes 1080p ist.
Vielleicht macht jemand sogar einen Test mit mehreren Personen, bei dem schließlich herauskommt, dass der durchschnittliche User nur im direkten Vergleich sieht, dass FSR weniger Details produziert. Gut genug ist halt gut genug.
 
Fighter1993 schrieb:
Wir warten das jetzt erstmal ab. Komplett ohne Kompromisse kann man nur drauf warten das die nächsten Generationen so schnell werden das DLSS und FSR nicht mehr nötig werden um 4K und Raytracing drin sind.
Dann müsste man unendlich schnelle GPUs bauen - was denke ich nicht passieren wird.
 
Nolag schrieb:
Es könnte tatsächlich sein, dass FSR für die meisten Leute ausreichend ist und DLSS 2.0 nur für Enthusiasten relevant ist.
Naja wir sind ja hier in einem Forum, wo eher Enthusiasten unterwegs sind und es wird sich oft genug über die zu schlechte BQ von DLSS 2.0 beschwert ^^
 
AMD hat einen unglaublich guten Schachzug vollzogen, so clever und elegant, dass einige Leute offensichtlich schlecht damit klarkommen. Vergleicht man das mit dem häufig aggressiven, mitunter schamlosen Vorgehen des Gegenspielers (GeForce Partner Program-Erpressung, Blanko-NDA-Nötigung = Friss oder Stirb!, zahlreiche verdongelte/propritäre Technologien, Aufwendung von Energie/Ressourcen zum Nerfing oder Ausschluss der Konkurrenz), erscheint das Nvidia Management eher wie ein plumper Haufen, der vieles nicht zu Ende denkt (Zurückrudern ist nicht selten vorprogrammiert).

Btw, "Dick Move", ernsthaft? Weil AMD nicht munter zusieht wie Nvidia abermals den Markt künstlich spaltet/segmentiert?
Bei den OEMs/Board-Partnern will Nvidia die Zügel in der Hand halten, bei der Presse will Nvidia die Kontrolle behalten und Entwickler in Entweder-Oder-Entscheidungen hineinlaufen lassen.

Wenn man es unbedingt cool und vulgär ausdrücken möchte, das was von AMD kam war eher ein "Bitch Slap" (u. a. mit der Tesla-, Samsung/Exynos- und FSR-Ankündigung) und der hat nicht etwas Hinterlistiges (-> Dick Move), sondern etwas Korrigierendes (-> eine lautstarke Zicke/Diva auf den Boden zurückholen). Das Scheppern hallt jetzt noch nach, wie man sieht.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Fighter1993, Hardwarious, MasterAK und 4 andere
SimsP schrieb:
Ich mein die Tensor Cores belegen ein wirklich beträchtliches Maß der Fläche eines Streaming Multiprozessors. Das treibt den Preis des Chips so wie der fertigen Grafikkarte massiv in die Höhe. Warum also verbauen, wenn es keinen nennenswerten Vorteil gibt?
Tensor-Core und RT-Core zusammen haben bei Turing nur 10% zusätzliche Waferfläche gekostet. Das, was die Chips so groß macht, sind die doppelte Anzahl ALUs, die Nvidia seit Turing nutzt.
 
  • Gefällt mir
Reaktionen: .Sentinel.
Freiheraus schrieb:
AMD hat einen unglaublich guten Schachzug vollzogen, so clever und elegant, dass einige Leute offensichtlich schlecht damit klarkommen.
Naja nichts gegen AMD aber lol?
Sorry, aber AMD hat keine Wahl. DLSS können sie nicht ignorieren wenn sie mit der nächsten Gen noch relevant sein wollen.

Closed Source verwendest du um dein Zeug zu schützen dass es nicht jeder einfach Nachbauen kann. Das was AMD hier bringt will Nvidia bestimmt nicht haben. Open Source ist die beste Entscheidung um irgendwie am Ball zu bleiben.

Einen "unglaublich guten Schachzug" kann ich hier nicht sehen. FSR ist in der aktuellen Form eine Verzweiflungstat, vor der nächten Gen wird da kaum etwas brauchbares kommen.
 
  • Gefällt mir
Reaktionen: xBitwinSDKx
Freiheraus schrieb:
AMD hat einen unglaublich guten Schachzug vollzogen, so clever und elegant, dass einige Leute offensichtlich schlecht damit klarkommen.
Eigentlich gibt es kaum eine andere Möglichkeit mit einem methodisch schlechteren Feature Aufmerksamkeit zu erregen, außer es zu öffnen und es allen Grafikusern zur Verfügung zu stellen.
AMD kaschiert mit diesem Move die Tatsache, dass die Qualität nicht überzeugend ist und das klappt wie man ja offenbar an einigen Reaktionen sieht.

Unglaublich guter Schachzug? Eher schlechter als man erhofft hat und aus einem Zwang heraus.
Das Feature hätte eigentlich erst ende des Jahres bzw 2022 erscheinen sollen.
AMD bringt es jetzt

Freiheraus schrieb:
Vergleicht man das mit dem häufig aggressiven, mitunter schamlosen Vorgehen des Gegenspielers (GeForce Partner Program-Erpressung, Blanko-NDA-Nötigung...
Vieles davon sind Verschwörungstheorien, alleine an der NDA Geschichte war nichts dran und das Partner Programm stellt übliche Vertriebsstrategien dar, die sicherlich unbeliebt waren.

Freiheraus schrieb:
= Friss oder Stirb!, zahlreiche verdongelte/proprietäre Technologien, Aufwendung von Energie/Ressourcen zum Nerfing oder Ausschluss der Konkurrenz)
Zahlreiche Technologien, die den Konkurrenten dazu zwangen innovativ zu sein und nachzuziehen.
Wieso sollte Nvidia aufwändige Entwicklungen an den Konkurrenten freigeben?:D
Zotac2012 schrieb:
Das sind Marketingvideos, die haben meist mit der Realität wenig zu tun.
Marketingvideos zeigen in der Regel den Best Case, deine Argumentation widerspricht sich an der Stelle selbst.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: xBitwinSDKx
S.Kara schrieb:
Einen "unglaublich guten Schachzug" kann ich hier nicht sehen. FSR ist in der aktuellen Form eine Verzweiflungstat, vor der nächten Gen wird da kaum etwas brauchbares kommen.

FSR tut nVidia schon richtig weh, weil AMD damit bewusst gezeigt hat, dass es auch auf alten Gens von nVidia läuft. Da stellt sich halt, auch wenns Qualitativ aktuell nicht mit DLSS2.0 mithalten kann, warum nVidia sowas nichts für ältere Generationen anbietet?

Aus deiner Sicht, die absolut übertrieben ist, könnte man gegenteilig auch behaupten, dass DLSS eine Verzweiflungstat ist, da man in der normalen Raster-Leistung nicht mehr die Krone hat. Beides natürlich schwachsinn.
 
  • Gefällt mir
Reaktionen: Fighter1993, stolperstein, jonderson und 2 andere
aldaric schrieb:
Da stellt sich halt, auch wenns Qualitativ aktuell nicht mit DLSS2.0 mithalten kann, warum nVidia sowas nichts für ältere Generationen anbietet?
Wenn @Nolag's Vermutung stimmt, dann ist klar, weshalb das so ist. Ein solcher Filter erfordert jetzt nicht soo viel Rechenpower. DLSS1 konnte man noch über die Shader berechnen lassen. Und man kennt ja auch das Ergebnis. DLSS2 geht eben nur noch mit den Tensor Cores. Ich denke keiner von uns weiß, ob und in wie weit das auch mit Shadern ginge. Und wenn ja, wieviel Power wird benötigt?
Schaut euch mal das Facebook Experiment an, was auf den Shadern läuft. Der Mechanismus ist ähnlich wie DLSS. Die Qualität ist schlechter und die Performance ist vergleichsweise schlecht.
Aber alles ist eben nur Guesswork. Keiner hier kennt die Details von DLSS und keiner weiß aktuell sicher, wie FSR qualitativ sein wird.

Fakt ist aber, dass nvidia jetzt in der Zwickmühle ist: Optimiert man die FSR integration und geht damit das Risiko ein, dass manche Studios DLSS Support droppen könnten?
Oder lässt man es bleiben und sorgt damit dafür, dass die User in FSR Games die A.. Karte haben.
Oder aber öffnet man DLSS soweit, dass es 3rd Party adaptierbar wäre, wenngleich (achtung, siehe oben, guesswork), spezielle GPU Spezifika notwendig werden?
 
Taxxor schrieb:
Ich nicht, denn dann heißt es für Enwtickler wieder baue ich DLSS für 85% des Marktes ein und mache ich mir dann noch die Mühe, zusätzlich FSR für 15% des Marktes einzubauen?
Die Frage ist eher ob ich das Feature (egal ob DLSS oder FSR) überhaupt implementieren will. Nur weil die Endgeräte theoretisch dazu fähig sind, bedeutet das nicht das ich sie damit Ausstatten muss.

Wird definitiv auf meiner RX570 getestet. Wenns bei 1080p überhaupt Sinn macht.
 
DLSS 2.0 ist ja kein Filter. Es ersetzt ja z.b. auch Antialiasing.

Hier hat ein Nutzer auf Reddit mal die Bilder unter einer 4x Lupe angesehen.
https://www.reddit.com/r/Amd/comments/nqd0lz/fidelityfx_super_resolution_ultra_quality/
Die Bilder zeigen die höchste Ultra Quality Einstellung und schon die sieht ziemlich verwaschen aus...

foo_1337 schrieb:
Fakt ist aber, dass nvidia jetzt in der Zwickmühle ist: Optimiert man die FSR integration und geht damit das Risiko ein, dass manche Studios DLSS Support droppen könnten?
UE5 soll ja beides Nativ können.
Die FSR Integration soll ja laut AMD super einfach sein.
DLSS wird ja auch immer einfacher zum einbauen. Beides sind rein positive Argumente für jedes Spiel.
 
  • Gefällt mir
Reaktionen: Tanzmusikus
theGucky schrieb:
UE5 soll ja beides Nativ können.
Die UE5 hat ihr eigenes TSR(Temporal Super Resolution) eingebaut, was mit Nvidia und AMD nutzbar ist, zudem noch DLSS aber keine Info zu FSR bisher.
Macht eigentlich auch wenig Sinn, da TSR nicht schlechter sein dürfte und stark auf die RDNA2 Hardware hin optimiert wurde.
 
  • Gefällt mir
Reaktionen: Tanzmusikus
Zwiebelsoße schrieb:
Marketingvideos zeigen in der Regel den Best Case, deine Argumentation widerspricht sich an der Stelle selbst.
In dem Video sieht man gar nichts, was auch nur im Ansatz ausreicht, um ein Urteil über das Feature selbst oder dessen Qualität zu beurteilen. Es dient einfach nur dem Zweck, das AMD am 22.Juni eine Alternative zu Nvidia`s DLSS bietet für seine Kunden.

Von daher macht es überhaupt keinen Sinn jetzt etwas zu beurteilen, wo keiner die wirklichen Fakten kennt. Würde man all das glauben, was in den Foren oder von gewissen Online Seiten behauptet wird, dann hätten wir auch heute eine RTX 3080 mit 20GB Speicher. Jetzt ist es eine RTX 3080Ti und diese hat, wie wir jetzt alle wissen gerade mal 12GB Speicher. ;)
 
  • Gefällt mir
Reaktionen: itsWinnfield, Blekota und Onkel Föhn
Zurück
Oben