News FidelityFX Super Resolution: DLSS-Konkurrenz ab 22. Juni für AMD- und Nvidia-GPUs

MMIX schrieb:
Trotzdem musst du noch erklären, wo RT eine Innovation Nvidias ist?
Das ist sie nicht! Das kommt auch nicht von mir. Nvidia waren nur die ersten, die das RTRT auf Konsumer GPUs gebracht haben, das ist zumindest die "Innovation" im Portfolio und der Türöffner für die Zugänglichkeit fürs Gaming. AMD brachte das ja quasi zu einer 180 Grad Wende.
Alle, die sich an RT bereits auf den new gen Konsolen erfreuen, dürfen ein zartes "Danke, Nvidia" hauchen ;)
 
  • Gefällt mir
Reaktionen: A.Xander
Ja sehr schön dann kann das testen ja noch diesen Monat losgehen.:D
Ich finde wie was besser ist hängt davon ab wie die persönliche Wahrnehmung ist, dafür muss man es sich erstmal selber ansehen, ausserdem muss es mal verfügbar und ordentlich in den Games implementiert werden.
Mir vergeht da ehrlich gesagt die Lust an einer Diskussion und es ist ermüdend wenn es immer nur um grün oder Rot ist besser geht, statt um die eigentlichen Themen.
Das Beispielbild von Godfall (Bild 2von5) ist auch nicht gut gewählt 41% mehr Leistung ist ja ganz gut aber der Unterschied ist gerade bei den 2 Säulen sehr gut zu sehen. Für eine endgültige Beurteilung muss man es halt selber testen wenn es da ist.
Bei CP 2077 hieß es auch zuerst Fid.FX CAS würde es nicht bringen, allerdings sieht es mit Static 80 gut aus und bringt auch mehr Leistung, zumindest um mal die RT Reflektionen mit AMD zu sehen.
 
.Sentinel. schrieb:
Und dann spiegelst Du das mal bitte gegen diesen Thread ;) Das sollte Verwunderung auslösen.
Sollte es eigentlich nicht, ich hab die ersten zwei forenseiten gelesen nach dem bericht und kurz gelacht.
Genau das was ich erwartet habe, und das obwohl die matsche schon in den Videos eindeutig war.

Die forenbeiträge für GPU berichte hier auf CB haben schon lange Twitter-niveau tendenziell Pro AMD und anti Nvidia, ich beziehe mich dabei aber meist auf die ersten paar Seiten.


bevor hier wieder einer weint ich habe letztens folgende gpus gekauft:
GTX570 R9 290 V64LC V7 3090FE
die V7 hab ich noch im HTPC.

Ich bin mir recht sicher das die V7 abkacken wird mit FSR, einfach weil sie nicht so gut skaliert in niedrigen auflösungen wie RDNA2 durch sein cache.
Wenn ich die 40% erreiche wie die 1060 bin ich überrascht.
Nicht das ich es überhaupt nutzen will für VR mit der derzeitigen vermuteten Qualität.
 
Laphonso schrieb:
Du kannst hier die letzten 10 DLSS Threads nehmen und erkennst ein Muster: Nativ > DLSS.
Die Artikel und Videos und Bilder die zeigen, dass die Rekonstruktion sogar der nativen Auflösung überlegen ist, wurden zerfleddert .

Das ist schlicht nicht möglich. Nativ wird immer jeder Rekonstruktion überlegen sein.


Laphonso schrieb:
Alle, die sich an RT bereits auf den new gen Konsolen erfreuen, dürfen ein zartes "Danke, Nvidia" hauchen ;)

Eher Danke an Sony und Microsoft, die das als Anforderung an den Semi-Custom Chip von AMD gestellt haben. AMD fertigt die Hardware nach Wunsch der Konsolenhersteller, nicht umgekehrt.
 
  • Gefällt mir
Reaktionen: dennisis
Nvidia: "Sorry, eure GTX 10xx Karten können kein DLSS. Kein Support dafür."
AMD: "Hier unsere DLSS Version, die auch auf euren alten Karten läuft und einen Performance boost gibt.
Nvidia: * surprised Pikachu face* "Moment, das ist illegal..."
 
  • Gefällt mir
Reaktionen: jonderson, dennisis und aldaric
aldaric schrieb:
Das ist schlicht nicht möglich. Nativ wird immer jeder Rekonstruktion überlegen sein.
Die wesentliche Komponente von DLSS 2 scheint ja temporales Upscaling+Antialiasing zu sein.

Das bedeutet es werden z.B. von einigen minmal versetzten "Bildern/Frames" die Subpixel genommen und anhand dieser das "ideale" Bild errechnet (zusammen mit Bewegungsvektoren um bei Bewegung "Schmieren" zu vermeiden).
Bei stark bewegten Bildern oder gerade ins Bild gekommenen Teilen oder bewegten Transparenzeffekten sieht es damit manchmal hässlich aus.
Bei ruhigen oder gleichmässig bewegten Darstellungen dagegen kommt dagegen die hohe Sampleanzahl zur Geltung und man hat quasi ein starkes Supersampling --> besser als Nativ.
 
  • Gefällt mir
Reaktionen: Zwiebelsoße, Rag9000, foo_1337 und 2 andere
catch 22 schrieb:
Ich glaube davon kann man ausgehen.
Selbst wenn DLSS und FSR bei der Implementierung den gleichen Aufwand bedeuten sollten und sogar DLSS besser sein sollte, dürften wohl die meisten Entwickler auf FSR zurückgreifen, weil sie sich so dann einmal die Arbeit einsparen würden
Ich kenne mich mit Engines und Spieleprogrammierung nicht so wirklich aus. Aber DLSS ist doch bspw. bei der Unreal-Engine jetzt "eingebacken" und "kann einfach aktiviert werden" (was auch immer das in der Praxis bedeutet, bzw. wieviel da einfach nur Buildflag sind und wieviel da manuell gearbeitet werde muss)? Die Lösung von AMD benötigt das mMn auch erstmal noch (wobei ich aber auch davon ausgehe, dass das kommt)
 
aldaric schrieb:
Das ist schlicht nicht möglich. Nativ wird immer jeder Rekonstruktion überlegen sein.
Das stimmt. Jedoch ist der Ausdruck Rekonstruktion hier letztendlich unglücklich gewählt.
Es ist eine andere Art der Konstruktion, um auf die höhere Auflösung zu kommen.

Einmal der Bruteforce- Ansatz: Jedes Bild neu berechnen und ins Pixelgrid mappen.
Temporaler Ansatz: Nicht jedes Bild neu berechnen - Bereits berechnete Pixel weitestgehend beibehalten und mit neuen Pixeln supersampling betreiben.

Somit - Alles was versucht die Zielauflösung des Bruteforce- Ansatzes ohne temporalen Ansatz bzw. Pixelwiederverwertung in niedrigerer Input- Auflösung anzunähern, wird immer schlechter als das "original" aussehen.

Alles andere hat, je nachdem wie intelligent die Wiederverwertung stattfindet die Chance, die originale Zielauflösung über die temporale Komponente zu übertreffen, da mit jedem Frame ja tatsächlich immer mehr "echt" berechnete Pixel dazukommen.

Wie gesagt- AMD macht, nachdem was im developer Bereich steht, ein spatiales upscaling, welches meines Erachtens in die Kategorie fällt, das Original annähern, aber nicht übertreffen zu können.

Solange der Performancevorteil so hoch ausfällt, wie es in den Werbevideos angegeben ist, ist das auch ein begrüßenswerter Ansatz, hat doch der User dadurch die Möglichkeit letztendlich noch eine weitere Option in Sachen Qualitätseinstellungen zu wählen, über die er sein gewünschtes Qualitäts/- Auflösungsverhältnis nach eigenen Bedürfnissen gestalten kann.

Nicht jeder starrt mit Lupe und Adleraugen auf den Bildschirm. Nicht jeder fällt bei der kleinsten Unschärfe schon vom Stuhl. Dennoch hätte ich mir eine echte Konkurrenz zu DLSS2 gewünscht.
Insgeheim ist halt meine Hoffnung gewesen, dass sie es durch irgendeinen Kniff dann doch schaffen würden, NVIDIA eins auszuwischen. Vielleicht ist deswegen meine negative Reaktion auf das gezeigte auch etwas zu heftig ausgefallen.
 
  • Gefällt mir
Reaktionen: surtic, ComputerJunge und foo_1337
Laphonso schrieb:
Das ist sie nicht! Das kommt auch nicht von mir.

OK sorry, dann hab dich vor lauter Beiträgen hier mit jemanden verwechselt. Mein Fail, sorry ;)


Laphonso schrieb:
Alle, die sich an RT bereits auf den new gen Konsolen erfreuen, dürfen ein zartes "Danke, Nvidia" hauchen ;)

Sprechen wir doch mal Klartext - unabhängig von deiner Aussage (obwohl ich diese einmal dafür zitiere) und unabhängig von Nvidia oder AMD.

Weil ich hier immer RT für Next Gen Konsolen lese. Was erwarten sich die Konsoleros bitte davon? Die Hardware ist da drin ist so schwach, dass, wenn es erst einmal richtige RT Games mit vielen RT Effekten ala Control, Metro Exodus und kommende Next-Gen RT Titel gibt, brechen die Konsolen dann doch komplett ein, 4k@60 mit RT oder gar nur 2k@60 mit RT kann man doch dann völlig knicken, selbst eine RTX 3090 und RX 6900 XT (ohne DLLS und FFX SR, da vor allem letzteres auf Konsolen nicht mal offiziell angekündigt wurde) brechen dann ja schon deutlich ein und die lachhafte GPU der Series X/PS5 ist nicht mal im Ansatz so schnell. Will MS und Sony, trotz guter Optimierungen der Konsolengames, etwa auf übertrieben 720p/60 mit RT die Auflösung dynamisch anpassen? Leider kriegen viele Konsoleros das ja selbst aktuell nicht mal mit, sie denken sie zocken in 4k/60 oder 4k/120 (beides ohne RT), dabei ist das wegen dynamischer Anpassung der Auflösung zum Halten der Fps in einigen Games nur trügerischer Schein...

Gut dann kommt irgendwann FFX SR doch auf Konsolen. In einem neuen Update zu FFX SR sagte AMD ja, es geht nicht um Verbesserung der Bildqualität bei gleichzeitigem Fps Boost ähnlich zu DLSS, sondern primär um FPS Boost für ältere Hardware, was zwangsläufig einen Bildverlust bedeutet. Also kommt FFX SR auf die Konsolen, man aktiviert RT und gleichzeitig FFX SR und wegen mir hält eine Series X/PS5 dann 4k@60 Fps. Ich will gar nicht wissen, wie dann die Bildqualität aussieht......Ob man dann wirklich noch über die RT Effekte staunen kann? Leider kennen viele nur die Konsole und kennen wahrscheinlich nicht den Vergleich zum PC, wie ein Game dort dann aussehen kann......

Also entweder sind die Konsolen für RT (gerade richtiges RT was auf den Konsolengames, selbst bei Village und Outriders noch nicht gibt) viel zu langsam oder die Bildqualität leidet massiv.

Um dein Zitat am Ende kurz noch aufzugreifen: Dafür sollen die sich bedanken 😂😛. Aber es ging hier nicht um deine Aussage, sondern primär RT auf Konsolen, was meiner Meinung einige viel zu überbewerten.

Ich lasse mich zwar gerne von MS/Sony und AMD eines besser belehren, glaube aber, dass das nicht passieren wird. RT ist und wird ein High End Grafik Feature für High End Hardware bleiben und das gibt es halt nur auf den PC, ohne dass man in 720p oder/und mit massiven Bildverlust zocken kann....
 
  • Gefällt mir
Reaktionen: Zwiebelsoße, Laphonso und foo_1337
Sgt.Slaughter schrieb:
Beide Hersteller kassieren für irgendwas extra ab, [...]. Bestes Beispiel ist hierfür doch G-Sync und Free-Sync. Am Anfang war man gezwungen je nach Grafikkarte einen passenden Monitor zu kaufen, quasi eine aufgezwungene Monopolisierung um ja ein Alleinstellungsmerkmal zu vermarkten
Also das man gezwungen war ja nach Grafikkarte einen passenden Monitor zu kaufen lag ganz allein an Nvidia.
Diese haben nur GSync unterstützt und nicht den offenen Standard Adaptiv Sync. Es war nicht AMDs entscheidung GSync nicht zu unterstützen...

Weitere "Beste Beispiele"?

B3nutzer schrieb:
Man könnte sicherlich auch ähnliches gegen Nvidia schreiben, aber da Nvidia mit den Techniken vorher am markt war und von einigen immer nur dagegen Gewettert wurde hat das imho schon seine Richtigkeit^^

Das Problem für viele ist wahrscheinlich wie es Nvidia macht.
Nahezu alles was Nvidia macht ist proprietär und exklusiv für Nvidia und sogar meist nur für aktuelle Generationen.
Dies sorgt im "Besten" Fall dafür das die Techniken andere Marktteilnehmer einschränken und versucht wird ein Monopol aufzubauen.
Im schlechtesten Fall hemmt es Features und den Markt.
Beispiele:
  • PhysX hat zum Beispiel Gameplay-Physik auf Jahre hin nachhaltig geschädigt.
    Es konnte nur für Effekte eingesetzt werden, weil sonst Entwickler alle nicht Nvidia Käufer hätten ausschließen müssen.
  • Nvidia hat vermutlich dafür gesorgt, dass bei Assassin's Creed der DX 10.1 Patch zurückgezogen wurde.
    Laut Ubisoft gab es wohl Probleme. Das größte Problem war vermutlich, das AMD Karten einen Boost in einem vom Nvidia gesponserten Spiel bekommen haben....
  • Ähnliches gab es dann noch mit GameWorks, wo AMD Karten "ausversehen" auf einen Pfad geschickt wurden, wo sie ohne Sinn rechnen durften...

Diese Geschmäckle sind das, was vermutlich viele stört. Denn auch wenn es viele nicht wahrhaben wollen, insbesondere wenn Nvidia kurzfristig gesehen gerade die bessere Wahl ist, der Käufer entscheidet mit seinem Kauf, ob er solch ein Vorgehen gut heißt oder eben nicht.

Meiner Meinung nach sollten Hardwareentwickler die Finger von Software lassen.
Sie sollten dafür sorgen, dass sie offene Schnittstellen unterstützen und das war es.

Wenn sie wollen, können sie meinetwegen neue offene Techniken entwickeln, aber alles andere hat die Gefahr eines Geschmäckles, wie es Nvidia seit Jahren beweist....
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Painkiller72
MMIX schrieb:
RT ist und wird ein High End Grafik Feature für High End Hardware bleiben und das gibt es halt nur auf den PC, ohne dass man in 720p oder/und mit massiven Bildverlust zocken kann....
Die Dosis macht hier das Gift. Die Studios werden immer besser darin RT nur wirklich dort einzusetzen, wo es notwendig ist.
Fortschritte in den Filtertechniken tun ihr Übriges.

Schau Dir Nanite auf der UE5 an. Da wird auf einen Schlag wieder ein deutlicher Sprung in Sachen Berechnungseffizienz gemacht. Die Hardware darunter ändert sich nicht.

Bevor man Nanite gesehen hat, hat man gesagt, dass Hardware XY zu schwach wäre um solch ein Szenario darstellen zu können. Ist sie aber garnicht, weil die Software in erheblichen Umfang zur Performance beiträgt und da finden sich immer wieder Köpfe, die das scheinbar Unmögliche dann doch möglich machen.

Gerade Konsolen eröffnen einem als Entwickler noch einmal ganz andere Grade der Optimierungsmöglichkeit.
Das darf man auch nicht unterschätzen.

Schau Dir doch die ersten Titel einer Konsolengeneration an und dann, wie die Titel zum Ende der Lebenszeit aussehen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Colindo
MrChronos schrieb:
aber dass "keiner selber gesehen" ist schlicht falsch.
Präsentationen haben einen anderen Charakter wie wenn ich es selbst auf meinem PC und meinem Monitor teste. Das ist das was ich damit ausdrücken wollte.
 
.Sentinel. schrieb:
...

Wie gesagt- AMD macht, nachdem was im developer Bereich steht, ein spatiales upscaling, welches meines Erachtens in die Kategorie fällt, das Original annähern, aber nicht übertreffen zu können.
...
Von den Videos her scheint mir das für mich nicht der Fall zu sein.

Was für temporales Upscaling bei der AMD Lösung spricht sind hier:
  • Bei den Ästen sieht man kurz Bewegungsartifakte welche dann rasch verschwinden (alte Subpixel), ähnlich wie es bei DLSS 2.0 vorkommt
  • Bei den ruhigen Beispielen ist kaum ein Qualitätsunterschied wahrzunehmen (die 4k Beispiele). Bei dem Geforce-Beispiel dagegen wo es eine vom Bewegungsvektoren her komplizierte Kamerafahrt gibt sieht man deutliche Unterschiede, insbesondere bei Teilen welche erst kurz in der entsprechenden Grösse im Bild sind.

Grundsätzlich kann man aber aus dem Video nur wenig ableiten, da muss man abwarten

EDIT - ich verstehe Sentinels ernüchterung:
"FidelityFX Super Resolution is a spatial upscaling technique, which generates a “super resolution” image from every input frame. In other words, it does not rely on history buffers or motion vectors. Neither does it require any per-game training. " von https://gpuopen.com/fsr-announce/

Nur ohne History-Buffer und ohne "per-game training" - wo soll die fehlende Pixel-Information herkommen?
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: .Sentinel.
jonderson schrieb:
Also das man gezwungen war ja nach Grafikkarte einen passenden Monitor zu kaufen lag ganz allein an Nvidia.
Nein, da die NVIDIA Grafikkarten schon immer alle Monitore unterstützt haben.

Nur haben sie eben einen Standard etabliert, der nebst dem Sync auch noch eine Mindestqualität an Monitorattributen garantieren konnte.
jonderson schrieb:
Das Problem für viele ist wahrscheinlich wie es Nvidia macht.
Nahezu alles was Nvidia macht ist proprietär und exklusiv für Nvidia und sogar meist nur für aktuelle Generationen.
Das kann man doch nicht ernsthaft als Problem darstellen, dass man für sein eigenes Produkt entwickelt.
Gehst Du auch arbeiten und verschenkst am Monatsende Deinen Lohn?

Zudem- Wenn man Vorreiter in einer Technik ist, ist diese zwangsläufig proprietär.

jonderson schrieb:
Dies sorgt im "Besten" Fall dafür das die Techniken andere Marktteilnehmer einschränken und versucht wird ein Monopol aufzubauen.
So macht man das als Unternehmen, wenn man sinnvoll wirtschaftet. Ja.
Würden Sie den Mitbewerb unlauter einschränken, hätten sie sofort Klagen am Hals.
Und sie haben ja für diverse Vorstöße in diese Richtung schon ordentlich eine auf den Deckel bekommen (Geforce Partner Program)

jonderson schrieb:
  • PhysX hat zum Beispiel Gameplay-Physik auf Jahre hin nachhaltig geschädigt.
    Es konnte nur für Effekte eingesetzt werden, weil sonst Entwickler alle nicht Nvidia Käufer hätten ausschließen müssen.
Beleg?
jonderson schrieb:
  • Nvidia hat vermutlich dafür gesorgt, dass bei Assassin's Creed der DX 10.1 Patch zurückgezogen wurde.
    Laut Ubisoft gab es wohl Probleme. Das größte Problem war vermutlich, das AMD Karten einen Boost in einem vom Nvidia gesponserten Spiel bekommen haben....
Beleg?
jonderson schrieb:
  • Ähnliches gab es dann noch mit GameWorks, wo AMD Karten "ausversehen" auf einen Pfad geschickt wurden, wo sie ohne Sinn rechnen durften...
Beleg?

jonderson schrieb:
Diese Geschmäckle sind das, was vermutlich viele stört. Denn auch wenn es viele nicht wahrhaben wollen, insbesondere wenn Nvidia kurzfristig gesehen gerade die bessere Wahl ist, der Käufer entscheidet mit seinem Kauf, ob er solch ein Vorgehen gut heißt oder eben nicht.
Das würde Voraussetzen, dass die oben genannten Anschuldigungen begründet wären.

jonderson schrieb:
Meiner Meinung nach sollten Hardwareentwickler die Finger von Software lassen.
Sie sollten dafür sorgen, dass sie offene Schnittstellen unterstützen und das war es.

Alles andere hat die Gefahr eines Geschmäckles, wie es Nvidia seit Jahren beweist....
Damit würdest Du den Hardwareherstellern den Großteil ihres Gestaltungsspielraumes inkl. Optimierungspotenziales nehmen.
 
  • Gefällt mir
Reaktionen: A.Xander
B3nutzer schrieb:
@Termy
Dass AMD kein Wohlfahrtsverein ist, sieht man ja jetzt auch wieder an den CPU Preisen. AMD würde liebend Gern einen auf Intel oder Nvidia machen, um den Gewinn zu maximieren. Das können sie sich in ihrer Position aber (noch) nicht leisten.
Das ist aber faktisch falsch, sofern du dich auf die realen Marktpreise beziehst. Diese werden von den Händlern gemacht. Wenn die Preise durch die Decke gehen, hat der Hersteller da nicht viel von, da die ihre Artikel zu lange im Voraus vereinbarten Preisen an die Händler verkaufen.
 
Laphonso schrieb:
Wenn das "so" in der Praxis aussieht, kann Nvidia schon den Schampus öffnen, das ist ja nicht mal ein DLSS 1.0 Ergebnis.Anhang anzeigen 1086616

Warten wir die Livetests ab. Btw das Bild ist aus dem AMD reddit

Müsste man wissen welche QUalitätsstufe das hier ist. Es gibt einen Godfall Screen auf dem Mann bei QUality Einstellung durchaus auch eine schlechtere Qualität erkennen kann.
Ich vermute mal wenn, dann kann man nur High Quality nutzen in FSR ohne zu große Einbußen, wird dann aber auch nur geringe FPS gewinnen erhalten.

Wie du sagst, bleibt derzeit nur die Livetests abzuwarten.
 
  • Gefällt mir
Reaktionen: Laphonso
Wechhe schrieb:
Das ist aber faktisch falsch, sofern du dich auf die realen Marktpreise beziehst.
AMD hat die CPU Einkaufspreise und die Listenpreise mit Einführung der letzten Generation teilweise um bis zu 20% erhöht (3600x vs 5600x).

Das ist aber völlig normales Verhalten, da sie einfach aktuell die gesamtheitlich besseren CPUs liefern.

Gut gemacht. Das gibt ihnen wirtschaftlich den Spielraum ihre Firma in eine noch bessere Wettbewerbsposition zu rücken und mehr Geld in Forschung und Entwicklung fließen zu lassen.
Wir brauchen ja schließlich ein auch finanziell Gesundes AMD auf dem Markt, so dass für uns Verbraucher ein gesunder Wettbewerb herrscht, der auf Dauer wiederum allen zugute kommt.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: A.Xander und Zwiebelsoße
Schön zu sehen wie ein enges Kopf an Kopf rennen zwischen Nvidia und AMD vorallem für den Kunden vorteilhaft ist.
Dadurch wird meine 1060 im Laptop sicher noch ein weiteres Jahr durchhalten.
Im Allgemeinen sind die technischen Entwicklungen spannend wie lange nicht mehr, glaube die nächsten 3-4 Jahre wird sich wesentlich mehr tun als die letzten 3-4.
 
  • Gefällt mir
Reaktionen: .Sentinel.
aldaric schrieb:
Das ist schlicht nicht möglich. Nativ wird immer jeder Rekonstruktion überlegen sein.
Jain.
Die KI zum Anlernen für DLSS erhält Bilder in irrsinnig hoher Auflösung (16k) welche natürlich viel mehr Details enthalten, als ein 4k Bild jemals darstellen könnte und würde.
Der Algorithmus hinter DLSS nutzt aber eben die Information des angelernten 16k-Bildes und erzeugt effektiv ein besseres Bild als nativ 4k.

hier ein guter Artikel dazu mit Beispielbildern: https://mixed.de/nvidia-ki-upscaling-schlaegt-native-4k/
 
Aber meistens hat die Technik bei Nvidia bisschen besseres Bild abgeliefert. Beispeil G-Sync hat bzw funktioniert besser mit dem Modul als AMD Freesync im vergleich. Ich denke das wird bei DLSS vs Fidelityfx Super auch so sein. Aber wir werden es ja sehen ob es wieder so ist oder gleichwertig ist.
 
Zurück
Oben