Test FidelityFX Super Resolution im Test: AMD FSR kann was, schlägt Nvidia DLSS aber noch nicht

Ob valve es in ihr letztes VR HL Spiel integriert?
 
  • Gefällt mir
Reaktionen: rumpeLson
Muss mal schauen wann ich dazu komme Dota2 mit FSR auf meiner Vega 8 APU nun zu testen :)
 
  • Gefällt mir
Reaktionen: Zornica
ich finde es ein wenig schade, dass hier wie auch sonst überall nur der high-end Bereich getestet wurde. Dabei hatte ich das Potential vor allem im ultra-low end gesehen, sprich bei integrierten Grafiklösungen wie APUs und iGPUs. Sprich: kann man damit noch ein wenig mehr aus seiner Reisemaschiene oder seiner Übergangslösung (APU bis GPU preise "normaler" werden) herausholen?
Und die Antwort die ich auf diese Frage suche will ich nicht in zahlen ala x fps mehr, sondern als subjektiven Eindruck, sprich: "ja/nein, das ist definitiv (k)eine Möglichkeit Spiel X das davor gar nicht ordentlich lief zu genießen."
Irgendwie scheint dieser Aspekt so ziemlich überall ausgesparrt zu werden, obwohl das durchaus einen großen Anteil der Spieler betreffen würde, wenn man Steam Statistiken glauben darf.
 
  • Gefällt mir
Reaktionen: pgrs und Asghan
@Zornica bei GamerNexus wurde auch ein 5700g Apu getestet. Das Problem bei der Antwort auf deine Frage ist das es ein subjektiver Eindruck ist. Im Bereich FHD hat FSR weniger Bildinformation als FHd von daher ist je nach Spiel die Bildqualität selbst in Ultra Quality sichtbar schlechter aber besser als native die Auflösung zu verringern. Auch ist die Bildschirmgröße ein entscheidendes Kriterium. Fhd auf 15zoll sieht besser aus als auf 24zoll. Von daher werden auch Qualitätsunterschiede mit FSR bei 15zoll weniger in Gewicht fallen.

hast du eine Apu oder eine kleine gpu? Dann teste es selber dota2 ist Kostenlos Spielbar.

hier ein Video mit einem 3400g

aber am besten selber mal probieren. Jeder beurteilt eine gute Bildqualität anders für sich.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Karre
Taxxor schrieb:
Erstellst du z.B. heute ein neues Spiel in der Unreal Engine, ist die Implementierung von DLSS 2.2 nichts weiter als das Setzen einer Checkbox und du bist fertig damit.
Und nicht vergessen die r.BasePassForceOutputsVelocity Variable zu setzen... ;)
 
  • Gefällt mir
Reaktionen: ZeroStrat
Pilstrinker schrieb:
Es ist so einfach! Warum kam man erst jetzt darauf? Hardwarestärke vs Softwareschwäche?
Ist und war doch schon immer so.
Du kriegst nen Haufen neue Schaltkreise vorgeworfen. Dann macht man die ersten tapsigen Gehversuche darauf und irgendwann wirkt man Magie :)

In beeindruckender Art und Weise immer wieder bei den Konsolen zu beobachten, wenn man den Unterschied zwischen den ersten Umsetzungen und dann den letzten darauf veröffentlichten technischen Meisterwerken sieht.
 
Ich habe mal ein bisschen Terminator Resistance 1080p Material mit "nur" Quality Modus aufgezeichnet. Man kann das Flimmern in bewegten Bildern deutlich wahrnehmen.

 
  • Gefällt mir
Reaktionen: B3nutzer und .Sentinel.
@ZeroStrat
Uff- Das sieht ja streckenweise echt grausam aus....

Bei der Startsektion sticht auch sofort das hier ins Auge:
1624605001839.png


Da gibts in Bewegung ordentlich Renderfehler.... (zumindest scheint es so).
 
Zuletzt bearbeitet:
.Sentinel. schrieb:
Uff- Das sieht ja echt grausam aus....
Ich hätte auch mit Ultra Qualität capturen können, aber der Ultra Qualität Modus bietet nur rund 30% Mehrleistung, was in vielen Szenarien nicht ausreicht und darüber hinaus kann Nvidia das ja auch, jenseits des Modus Qualität ordentliche Bildqualität liefern.
 
  • Gefällt mir
Reaktionen: .Sentinel.
Northstar2710 schrieb:
aber am besten selber mal probieren. Jeder beurteilt eine gute Bildqualität anders für sich.
Sieht doch ganz ordentlich aus. Zumindest das Preset für Hohe Qualität ist ein netter zugewinn, um der APU auf konstant 30FPS zu verhelfen. Dann die FPS bei 30 noch begrenzen.. alles schick.
 
ZeroStrat schrieb:
Ich hätte auch mit Ultra Qualität capturen können, aber der Ultra Qualität Modus bietet nur rund 30% Mehrleistung, was in vielen Szenarien nicht ausreicht und darüber hinaus kann Nvidia das ja auch, jenseits des Modus Qualität ordentliche Bildqualität liefern.
Oder auch das hier:
1624605342647.png


Wir bei Annäherung zu dem:
1624605406294.png


Ist das ohne FSR auch so?
 
.Sentinel. schrieb:
Ist das ohne FSR auch so?
Ich mache nachher ein Vergleichsvideo, bzw. ein Video zum vergleichen. Der Spiel ist nicht unbedingt AAA und weist auch ohne FSR massive Schwächen auf. Aber das Flimmern hast du ohne FSR in der Form nicht.
 
  • Gefällt mir
Reaktionen: .Sentinel.
Gsync ist für Enthusiasten die überlegene Technik
pyhsix
...und ist inzwischen in allen großen Engines lauffähig...
Über 700 Titel laufen mit Physx
Wenn Du an der Entwicklungsfront stehst, wirst Du proprietär entwickeln müssen, da noch keine einheitlichen Standards dafür existieren. Wann geht das mal in die Köpfe rein?
--------------------------------------
Das ist doch alles nur Gefasel. Sorry aber der Ausgangspunkt der Frage war, was sich davon durchgesetzt hat
und da muß man einfach attestieren, das sich weder Gsync noch Physix noch DLSS durchgesetzt hat.
So interessant die Technik dahinter auch sein mag .. GSync ist duch Freesync ausgebremst worden .. warum : weil weniger Kosten. Physix : Lief vorher nur auf NV Karten.. später erst in Software auch auf CPU und dann gab es bereits Alternativen . DLSS nur auf Ampere...
Wann geht es endlich mal in die Schädel, das wenn man etwas durchsetzen möchte, muß man das der breiten Masse -möglichst ohne Extra kosten- verfügbar machen (siehe Mantle, siehe Freesync und FSR geht nun einen ähnlichen Weg.. DLSS wird sicherlich noch hier und da Anwendung finden, weil NV das für's Marketing als Alleinstellungsmerkmal benötigt, aber die Zukunft gehört den offenen Lösungen. Sieht man sehr schön derzeit an AppleTV , das seinerzeit dazu gedacht war das eigene Programm und Geräte zu pushen man aber gemerkt hat das man gegen Netflix und Amazon nicht ankommt et voila.. nun läuft AppleTV auch auf Fernsehern mit Android BS und Android TV Boxen und Android Handys).

Du redest davon, das sie keine Preistreiber sind und argumenttierst mit Chip Kosten und Quartalsrergebnissen bist aber offensichtlich nicht in der Lage einfachste Zusammenhänge zu sehen.
Wieso feiert NV ein Rekord Quertalsergebnis nach dem anderen (ja, gerade auch in der Gamersparte) ?
Weil sie den Umsatz und Marge gesteigert haben.. Kosten Senken und Einnahme pro Produkt steigern.
8/10 GB VRAM ...
Und für Dich ist NV der Heilsbringer.. ich fass es nicht (AMD ist es auch nicht.. mal davon abgesehen).
MfG
 
F4711 schrieb:
Das ist doch alles nur Gefasel.
Nein das sind Fakten. Du stellst eine Behauptung auf, dann solltest Du die auch Begründen oder belegen können.

https://web.archive.org/web/20200620052215/http://physxinfo.com/index.php?p=gam&f=all
(Das sind Physx Titel bis 2017 - Der Rest ist dort noch garnicht aufgeführt)

Stattdessen versuchst Du es mit weiteren unbelegten Behauptungen, die andere unbelegte Behauptungen stützen sollen.

Du hast behauptet, dass es sich als Standard nicht durchgesetzt hätte. Und trotz dass NVIDIA hier eine Fallbacklösung für eine breite Hardwarebasis mittels Softwareemulation geboten hat, die wie man im Link sieht nachweislich so umfangreich genutzt wurde, dass es die weit verbreitetste Physikengine ever war, wurde über NVIDIA hergezogen, nur weil man spezielle Hardwarebeschleunigungen nicht für den Konkurrenten angepasst hat.



F4711 schrieb:
Du redest davon, das sie keine Preistreiber sind und argumenttierst mit Chip Kosten und Quartalsrergebnissen bist aber offensichtlich nicht in der Lage einfachste Zusammenhänge zu sehen.
Ja- Weil genau "einfachste Zusammenhänge" hier fehl am Platz sind.
Man sollte sich mal diversifizieren und seine Nase mal außerhalb der Filterblase stecken.

https://www.extremetech.com/computing/272096-3nm-process-node

F4711 schrieb:
Wieso feiert NV ein Rekord Quertalsergebnis nach dem anderen (ja, gerade auch in der Gamersparte) ?
Weil die Umsätze steigen. Es wird also mehr abgesetzt. Du behauptest aber, dass sie Preise getrieben hätten.
Genau das geht aus den Statistiken hervor, dass es nicht so ist.
Du dichtest hier eine Margensteigerung hinzu. Die Kurve aus Umsatz und Nettogewinn verläuft aber homogen.

1624606674156.png


F4711 schrieb:
Und für Dich ist NV der Heilsbringer.. ich fass es nicht (AMD ist es auch nicht.. mal davon abgesehen).
MfG
Für mich sind jegliche Innovationen auf dem Sektor begüßenswert. Ob Rot Grün oder bald Blau.

Eine Tech- Firma als einen "Heilsbringer" zu bezeichnen zeigt mir, dass einigen hier das gesunde Verhältnis zu Wirtschaftsunternehmen flöten gegangen ist.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: ComputerJunge, adAstra und PeriQue1337
Pilstrinker schrieb:
Jo, wenn man DL streicht (es muss ja nicht jedem behagen), bleibt bei FSR eine ordentliche BQ. Warum sich also anstrengen und nVidia bitten?
Ob Du Dir die DLLs von NVIDIA runterlädst oder bald den Github- Code von AMD ist doch schnuppe.
Worum sollte man NVIDIA denn bitten?

Gehst auf die Developer Seite, meldest Dich an und peng hast Du kostenlosen Zugriff auf die NVIDIA Ressourcen.

Wie bei AMD auch. Nur dass Du dort die Source noch unter MIT Vereinebarung nutzen kannst.
Sprich- Sie geben Dir den Source- Code als Basis und Du musst dann den Rest erledigen.

Für mich als Entwickler macht das 0 Unterschied, außer dass ich bei NVIDIA besseren Support bei Problemen mit meinem Projekt erhalte.
 
Pilstrinker schrieb:
Du hast mit DLSS 2.x einen generalistischen Ansatz. Du musst nichts mehr trainieren. Du musst NVIDIA nicht kontaktieren.

Und ja. Ich sage auch, dass AMD das derzeit das technische Maximum für eine offline Realtime- Lösung mit nicht temporärem spatial Ansatz diesbezüglich rausgeholt hat. Gut so.

NVIDIAs DLSS nimmt man trotzdem dazu, weil erstens der Verbreitungsgrad von tauglicher Hardware am PC Sektor deutlich höher ist und zweitens, weil es in gewissen Szenarien eben deutlich bessere Ergebnisse produzieren kann.

...und natürlich, weil es eben in der aktuellen Version fast 0 Mehraufwand bedeutet, das zu integrieren, sobald man eine TAA Lösung im Titel integriert hat.

Somit gibt es da meines Erachtens kein entweder/oder. Für mich als Entwickler kann das eine das andere diesbezüglich nicht ersetzen.
Und ich verstehe es als Service am Kunden ihm alle Möglichkeiten diesbezüglich anzubieten.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Bademeister69, cbmik und ZeroStrat
MotherPink schrieb:
Wundert mich, dass bisher kein Test FSR in Kombination mit Downsampling(VSR) verwendet hat.
aus gutem Grund, wie ich feststellen musste. Ich hatte mich das auch gefragt und dann gestern Abend mit Anno 1800 ausprobiert.

Setup: 1440p Monitor. Mit VSR in Anno 1800 4k Vollbild eingestellt und FSR auf Quality. Mit Quality wird intern in 1440p gerechnet, also dachte ich naiverweise, dass das eigentlich die Bildqualität verbessern dürfte.

Leider falsch gedacht. Das Ergebnis ist völlig verwaschen, weil die Zielauflösung nach wie vor 4k bleibt. Also auf 4k angehoben, intern in 1440p gerechnet, wieder auf 4k upsampled und Ausgabe auf 1440p Monitor. Das konnte nichts werden. UltraQuality FSR ohne VSR hätte wohl besser ausgesehen, hab ich aber noch nicht probiert. Ist auch unnötig in meinem Fall, weil natives 1440p auf meiner Vega64 okay läuft und Anno keine hohen FPS benötigt.

Ich würde mir einen Modus wünschen, bei dem vor Anwendung von FSR die Renderauflösung intern erhöht wird. Das würde dann quasi ein Super Sampled FSR werden, also die Bildqualität von VSR mit der Performance von FSR kombinieren.
 
Zurück
Oben