News FidelityFX Super Resolution: AMD FSR 2.0 soll schon bald angekündigt werden

DeltaPee schrieb:
Man sollte nicht zu viel erwarten. Es ist halt auch nur ein besseres/optimierteres Upscaling. DLSS wird wohl immer noch mit etwas Abstand die bessere Technologie bleiben. Ich würde mir aber wirklich wünschen, dass AMD ein gleichwertiges Featureset anbieten kann. Dann wirds auch mal wieder ne AMD
Genau so klangen die Texte vor dem 6000er Launch. Maximal 2080TI^^ usw
 
  • Gefällt mir
Reaktionen: danyundsahne, Lindar und Czk666
Ned Flanders schrieb:
Oh, das war noch zu ZeroZerp Zeiten. Ich suchs jetzt aber nicht wieder raus.
Kann ich mir kaum vorstellen, weil ich ja immer schon großer Anhänger des Broadwell- Prinzips war.
Einfacher kann man mit geringem architektonischen Aufwand kaum mehr IPC generieren.
Und diesbezüglich waren Haswell und Skylake ja eher ein deutlicher Rückschritt.

Mit Zen hat sich AMD aber in der Tat weg von Bulldozer in Richtung Core- Architektur orientiert, wenn man den einzelnen Kern betrachtet.

Nundenn- Wenn ich geschrieben haben sollte, dass AMD Skylake kopieren würde und deswegen keine höhere IPC erreichen könne, dann war das natürlich Blödsinn.
Ergänzung ()

bad_sign schrieb:
Genau so klangen die Texte vor dem 6000er Launch. Maximal 2080TI^^ usw
Das hat natürlich den Hintergrund, dass AMD mehrere Jahre marketingtechnisch einen Fail nach dem anderen hingelegt hat. Sie haben sich immer vor der Konkurrenz gesehen und dann letztendlich verhältnismäßig wenig geliefert.
Stichwort "poor volta".
Aber da nehmen sich unsere üblichen Verdächtigen sowieso nichts. Marketing bleibt halt Marketing.
 
  • Gefällt mir
Reaktionen: Colindo, Zer0Strat und Ned Flanders
LencoX2 schrieb:
Da wurden imho alternative Fakten kommuniziert, kurz gelogen, wie auch damals schon bei PhysiX. Das funktionierte anfangs nur auf PhysiX HW, danach auf neuen nvdidia Karten. Schlussendlich auf allen.
Da interpretierst du aber gehörig falsch rein.

PhysX lief anfangs nur auf spezieller HW, weil es von Ageia entwickelt wurde und die dafür dedizierte Karten bauen ließen. Nvidia hatte mit der ersten Version von PhysX noch nichts zu tun.

Nvidia hat kurz darauf Ageia aufgekauft und PhysX auf CUDA portiert. CUDA wurde erstmals mit der 8000er Serie unterstützt, konnte somit also auch nur auf den damals nagelneuen Karten laufen. Die vorherigen Generationen hatten schlicht nicht die nötige Hardware, um CUDA auszuführen.

Danach lief es auf allen neuen Generationen, weil eben jede Generation seit den 8000ern auch CUDA konnte.

PhysX in Software, also auf der CPU, ist nochmal was anderes und ist effektiv eine separate Bibliothek, die als klassische Physikengine dient. Der Name mag mit Hardware-beschleunigtem PhysX gleich sein, aber intern arbeiten die zwei Bibliotheken sehr verschieden.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: paccoderpster und SFFox
hm das update passt nicht wirklich zu FSR aber was solls. komischer Satz auch: AMD will NV aufschliessen - dacht FSR läuft auf allen GPUs, auch nicht-AMD
 
Also, wenn Bildfehler verstärkt werden, ist es ja wohl nicht die Schuld der Grafikkartenhersteller. Der Spielehersteller hat dafür zu sorgen, dass es erst gar keine Bildfehler gibt :cool_alt:

Ist ja wie bei den Browsern: fehlende Closing-Tags (vor HTML5) kann ein moderner Browser ausbügeln. Na toll, ein Freifahrtschein für faule Softwareentwickler... Und wenn es in einem anderen Browser richtiger aussieht als auf einem anderen, ist nicht die Website schuld, sondern der pöse Browser :stock:

Verstehe wer will :freak:

Da meine Graka noch (viel zu) alt ist: FSR muss aber vom Spiel unterstützt werden, also wie DLSS, richtig? Oder war es die Technik, welche ohne Optimierungen überall funktioniert? Ich blicke da nicht mehr so richtig durch...
 
Zer0Strat schrieb:
  • Es gibt somit als noch Raum für Optimierungen: ein adaptiver Ansatz, der das FPS "Grundniveau" besser abdeckt. @Taxxor, denk dir was aus. ^^
Frametime als einzelner Wert ist vllt. net optimal, wenn Berg+Tal unmittelbar aufeinander folgen = worst Case.
Dann müsste eigentlich die Differenz stärker berücksichtigt werden.

Die meisten User werden so ab ca. 16ms Differenz was merken und Sensible auch mit 8ms Differenz.
 
Noch ein paar Ergänzungen zu meinem Tweet. "Better than native" heißt nicht, dass es immer besser als eine native Auflösung ist, sondern, dass es Aspekte gibt, die besser sein können, aber nicht notwendigerweise immer besser sind. Damit ähnelt es DLSS, welches zwar teils mehr Details in niedrigeren Auflösungen rekonstruieren kann, aber u.U. andere negative Aspekte wie Unschärfe oder Ghosting mitbringt.

"Does not need AI" heißt nicht, dass FSR nicht irgendwann ab einer gewissen Ausbaustufe KI-Techniken nutzen wird. Aber es wird erstmal so sein, dass es (zunächst) keine dedizierte ML Hardware voraussetzt. Das ist ein großer Unterschied, wie ich finde.
 
  • Gefällt mir
Reaktionen: Spankmaster, Tanzmusikus, cbmik und eine weitere Person
Endless Storm schrieb:
Da meine Graka noch (viel zu) alt ist: FSR muss aber vom Spiel unterstützt werden, also wie DLSS, richtig? Oder war es die Technik, welche ohne Optimierungen überall funktioniert? Ich blicke da nicht mehr so richtig durch...

Theoretisch könnte man FSR1 nachträglich auf ein spiel los lassen und es müsste nicht ins spiel implementiert werden. Aber dann würden auch z.B. Filmgrain und andere Effekte das Ergebnis verschlechtern.
Deshalb wird FSR1 im Spiel implementiert und vor diesen Effekten ausgeführt.

FSR2 muss implementiert werden, da es eine Zeitliche Komponente enthält und dazu gehören z.B. auch Bewegungsvektoren, wo sich die Pixel über die Zeit hin verschoben haben. Diese Information ist in der Engine vorhanden. Sie hinterher zu berechnen wäre zwar theoretisch möglich, aber es wäre mit einem enormen Rechenaufwand verbunden und sehr Fehleranfällig, weshalb es in das Spiel implementiert werden muss.
 
  • Gefällt mir
Reaktionen: Tanzmusikus
LorD-AcE schrieb:
Wenn ich schon lese "Wie der Entwickler von CapFrameX anführt, behaupte AMD selbst, dass FSR 2.0 zum Teil bessere Ergebnisse liefern könne als die native Auflösung" dann wirds mir unwohl. Ich mein, wie soll das gehen? Wenn man mit weniger Pixeln etwas rendert und dass dann hochskaliert, mit allen möglichen Tricks, hat man doch dennoch weniger Informationen im Ausgangsmaterial. Es kann sich also nur um eine sehr subjektive Wahrnehmung handeln, dass es besser aussehe als nativ. Oder sehe ich das falsch?
Vielleicht so gemeint, dass eine native Auflösung ohne Kantenglätterung (wie etwa MSAA) weniger gut wirkt als wenn FSR diese Aufgabe übernimmt.
Demnach könnte bei etwas kleinerer Auflösung + FSR möglicherweise ein besseres Ergebnis erzielt werden, bei gleichen Kosten/Performance.
 
Besser wie nativ, liegt immer im Auge des Betrachters.

Für mich gibt es das originale Bild = Nativ ... und alles andere ist erstmal "aufbereitet".
Ob das nun besser aussieht oder nicht, muss man sehen.

Normalerweise sehen Bilder oft unnatürlich aus.

In letzter Zeit ist eine Entwicklung zu beobachten die mir so gar nicht gefällt.
Die Ankündigungen und die PR seitens AMD, decken sich nicht mehr mit dem was kommt.

Vor einiger Zeit noch, war auf die AMD Benchmarks immer Verlass. Oft kam es sogar besser als angekündigt.

Nun aber seh ich sowas wie eine Trendumkehr.

Gefällt mir nicht.

AMD bleib sauber.

Mit Intel und nVidia ist der Markt an Lügenherstellern schon gesättigt.
 
  • Gefällt mir
Reaktionen: Tanzmusikus und Ned Flanders
whyme schrieb:
Theoretisch könnte man FSR1 nachträglich auf ein spiel los lassen und es müsste nicht ins spiel implementiert werden.
Wenn Du das ohne Implementation im Screenspace machst, dann hast Du das Problem, dass Texte, HUDs und Anderes ebenso auflösungstechnisch leidet. Deswegen sollte man das grundsätzlich auch nicht "roh" auf die Szene loslassen.
 
.Sentinel. schrieb:
Wenn Du das ohne Implementation im Screenspace machst, dann hast Du das Problem, dass Texte, HUDs und Anderes ebenso auflösungstechnisch leidet. Deswegen sollte man das grundsätzlich auch nicht "roh" auf die Szene loslassen.
Aber genau das ist ja das RSR, was demnächst im Treiber kommt. Mit den von dir beschriebenen Nachteilen. Vorteil ist dann die allgemein mögliche Verwendung, ohne Abhängigkeit von der Implementierung im Spiel.
 
  • Gefällt mir
Reaktionen: .Sentinel.
Inxession schrieb:
Für mich gibt es das originale Bild = Nativ ... und alles andere ist erstmal "aufbereitet".
Es gibt beim Rastern kein "natives" Bild. Deswegen muss ja erst überhaupt gerastert werden.
Du qantisierst die letztendlich zeitlich und örtlich unendlich auflösende Szene in ein Pixelgitter und eine Bildwiederholfrequenz.
Das zieht zwingend Artefakte nach sich.

Auch ein unter Deiner Definition natives Bild würdest Du ohne Bearbeitung/Verarbeitung mit einer vielzahl an Filtern (AA/AF usw. usf.) nicht sehen wollen.

Inxession schrieb:
Ob das nun besser aussieht oder nicht, muss man sehen.
Besser ist eine Frage der Betrachtungsweise. Ist die Darstellung von DLSS besser, weil die Kantenglättung überlegen ist und die Szene detailreicher rekonstruiert wird?
Oder ist die vermeintlich "native" Darstellung besser, weil man dort weniger Gefahr läuft temporale Artefakte zu erleiden (die mit jeder Version von DLSS geringer werden)?

Und vor allem ist die Frage, ob der Geschwindigkeits/-Effizienzuplift selbst bei einem "Unentschieden" bei der Bildqualität nicht den Einsatz der neuen Technik generell rechtfertigt.

Inxession schrieb:
In letzter Zeit ist eine Entwicklung zu beobachten die mir so gar nicht gefällt.
Die Ankündigungen und die PR seitens AMD, decken sich nicht mehr mit dem was kommt.

Vor einiger Zeit noch, war auf die AMD Benchmarks immer Verlass. Oft kam es sogar besser als angekündigt.

Ich finde, dass das derzeit bei AMD sogar löblich gut gehandhabt wird.
Seit Ryzen kann man sich auf die Leistungsvorschau einigermaßen verlassen und viele meiner Erwartungen wurden sogar übererfüllt...

Oft sind es auch die User, die Erwartungen in die Ankündigungen setzen (siehe FSR). AMD hat FSR nie gegen DLSS gestellt. Die User habens aber getan und waren dann zum Teil enttäuscht.
Inxession schrieb:
Mit Intel und nVidia ist der Markt an Lügenherstellern schon gesättigt.
Intel ok... Aber wo hat denn NVIDIA nicht Wort gehalten, was die Leistungsfähigkeit ihrer Produkte anbelangt?
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: ComputerJunge
.Sentinel. schrieb:
Das hat natürlich den Hintergrund, dass AMD mehrere Jahre marketingtechnisch einen Fail nach dem anderen hingelegt hat. Sie haben sich immer vor der Konkurrenz gesehen und dann letztendlich verhältnismäßig wenig geliefert.
Stichwort "poor volta".
Aber da nehmen sich unsere üblichen Verdächtigen sowieso nichts. Marketing bleibt halt Marketing.
Zu der Einschätzung "maximal 2080ti Level" haben sicher auch die Leaks vom "nur" 256bit SI beigetragen
 
  • Gefällt mir
Reaktionen: .Sentinel.
Zer0Strat schrieb:
Ne, passt tatsächlich rein thematisch nicht unbedingt, aber Sven hat halt die Bühne für diese interessante News genutzt, um das Projekt ein wenig zu supporten. Danke dafür @SV3N.
Ob das hier sinnvoll ist kann ich nicht beurteilen, die Aufrufzahlen zu den News kennen die Redakteure.

Was ich dazu sagen kann (nachdem mein Posting nur Kritik als meine erste Reaktion enthielt):
  • Ich mag es nicht wenn Themen so stark vermischt werden
  • Interessiert mich FSR hat das Update für mich keinen Themenbezug
  • Bin ich an CapFrameX interessiert lese ich die News vielleicht gar nicht da nicht ersichtlich ist dass es auch darum geht
  • Möchte ich später nach CapFrameX suchen übersehe ich diese News sicherlich da in der Überschrift nichts darauf hindeutet
  • Bei einem Artikelupdate sehe ich das als deutlich sinnvoller an, da hier z.B. die Rahmenbedinungen erweitert werden können, da passt dann ein im ersten Augenblick "fremdes" Thema plötzlich doch rein
  • Ist das ganze meine Meinung und Ansicht zum Thema, das ist weder der allgemeingültige noch einzig sinnvolle Weg
Vielleicht hat @SV3N auch das nächste Nikolausquiz auferlegt bekommen, ist besonders fleißig indem er das ganze Jahr vorarbeitet und möchte damit das Niveau dafür deutlich erhöhen :evillol::daumen:.
 
  • Gefällt mir
Reaktionen: Colindo
Hito360 schrieb:
komischer Satz auch: AMD will NV aufschliessen - dacht FSR läuft auf allen GPUs, auch nicht-AMD
Aber DLSS, welches bisher überlegen ist, läuft eben nicht auf AMD, daher muss die Technik die auf AMD läuft aufschließen
Ergänzung ()

GerryB schrieb:
Frametime als einzelner Wert ist vllt. net optimal, wenn Berg+Tal unmittelbar aufeinander folgen = worst Case.
Dann müsste eigentlich die Differenz stärker berücksichtigt werden.
Genau diese Differenz haben wir als Varianz in nem extra Diagramm

GerryB schrieb:
Die meisten User werden so ab ca. 16ms Differenz was merken und Sensible auch mit 8ms Differenz.
Halbiere das mal eher.
16ms Differenz wäre, wenn ich bei 60FPS(16.66ms) einmal auf 115FPS(8,66ms) hoch und dann direkt auf 40,5FPS(24,66ms) runter falle.

Und dann kommt es auch noch darauf an, in welchem FPS Bereich man sich bewegt, daher finde ich eine generelle Aussage "ab X ms Differenz merkt man es" schwierig.

Wenn ich mit 100FPS unterwegs bin, also 10ms average Frametime habe, muss ich nicht sensibel sein, um einen Sprung von 6ms -> 14ms -> 10ms zu bemerken.
Wenn ich nur 30FPS habe, ist es mit 29ms -> 37ms -> 33ms schon deutlich weniger auffällig. aber meist immer noch spürbar.
 
Zuletzt bearbeitet:
I'm unknown schrieb:
Vielleicht hat @SV3N auch das nächste Nikolausquiz auferlegt bekommen, ist besonders fleißig indem er das ganze Jahr vorarbeitet und möchte damit das Niveau dafür deutlich erhöhen :evillol::daumen:.
Das wär's ja. "Welche hilfreiche Funktion wurde in CapFrameX in Version 1.6.8 eingeführt?" und keiner findet's, weil's nicht in der Überschrift steht :D
@Jan wir haben's durchschaut!
 
  • Gefällt mir
Reaktionen: SVΞN, foo_1337, Jan und eine weitere Person
Inxession schrieb:
Für mich gibt es das originale Bild = Nativ ... und alles andere ist erstmal "aufbereitet".
Ob das nun besser aussieht oder nicht, muss man sehen.

Normalerweise sehen Bilder oft unnatürlich aus.
Ich gehe da seit ein paar Jahren noch ein paar Schritte weiter. Das "native" Bild was viele Entwickler mir präsentieren wird derart mit Postprocessing verunstaltet (und ich meine jenseits "filmisch inszenierter" Cutscenes!), dass ich selbst bei einem sieben Jahre alten Witcher 3 noch mit ner Mod nachhelfen muss, die tollen Linseneffekte abzustellen. Filmkorn, chromatische Abweichung (das Allerschlimmste, besonders in UltraWIde!), Bewegungsunschärfe, Tiefenunschärfe, Bloom.

Auch die Streamer und Youtuber begreifen oftmals nicht, dass diese Effekte allesamt Endgegner für Video-Encoder sind. Dann kommt noch Techland und schmeißt bei Dying Light 1+2 noch permanent Konfetti in die Luft. Das sind beispielhafte Titel, die "nativ" für mich ungenießbar sind ohne Mods. Und für mich ist das nicht nur eine ästhetische Randnotiz, mir brennen davon nach einer halben Stunde die Augen.

Dann kommt so ein Mechanismus wie DLSS oder FSR daher und soll mit niedriger aufgelöstem Matsch mehr Qualität erreichen? Oder schaffen sie die "besser als nativ" Illusion nur deshalb gelegentlich, weil sie den Postprocessing-Kram rausrechnen oder gleich ganz weglassen? Das schiene mehr einleuchtender, denn der User dreht ja alles nach Rechts, weil das ja automatisch "gut" sei.

Bin mir auch gar nicht sicher, dass es dabei immer nur um die künstlerische Vision geht, weil in den Stock-Engines der ganze Kram auch erstmal auf "On" ist.
 
  • Gefällt mir
Reaktionen: Hito360
Zurück
Oben