News FidelityFX Super Resolution: DLSS-Konkurrenz ab 22. Juni für AMD- und Nvidia-GPUs

leonavis schrieb:
Man benutzt eigentlich kein Linux, um sich dann doch wieder propietäre Treiber ins System zu holen.
Ok, dank für die Info. Dann muss ich jetzt wohl unzählige Linux Kisten runterfahren... Damn! :(

Code:
dmesg |grep -i tainted && halt -p
und vorbei ist der Spuk :P
 
foo_1337 schrieb:
Ok, dank für die Info. Dann muss ich jetzt wohl unzählige Linux Kisten runterfahren... Damn! :(
Keine Ursache. Nicht dass Du noch zum Verräter an der guten Sache wirst ;-)

Edit: nimm doch den einfach den Standard Treiber.
 
piccolo85 schrieb:
Ich habe ewig drauf gewartet, dass AMD richtiges VESA adaptive sync via HDMI auf meiner Vega 64 verfügbar macht um es auf meinem OLED TV nutzen zu können.
Ich habe das gleiche Problem wie du, auch mit CRU manuell behoben. Mein Verständnis war aber bisher, dass LG das nicht gebacken kriegt, das FreeSync in die Fernseher-Firmware zu integrieren. Es würde mich wundern, wenn AMD per Treiber eine Whitelist für unterstützte Monitore führt.
Laphonso schrieb:
@aldaric Ich werde mir nicht die Mühe machen, Dir hier 100 abwertende Zitate und Verbalinjurien Dutzender User zu präsentieren, die dann doch im Aquarium landen. Das ist nicht "subjektiv", sondern das waren zitierfähige Aussagen. Wenn Du das alles nicht gelesen hast, dann bist Du ggf. zu "subjektiv" selektiv als Rezipient ;)
Alleine, dass du das Aquarium mitzählst, zeigt doch, wie Banane deine Wahrnehmung ist. Die verschwinden doch nicht ohne Grund, und sind doch kein Anspruch für den Rest des Forums. Ich hatte ja gut Lust, mir dein Beispiel der Kommentare nach deinen DLSS-Vergleichsbildern anzuschauen, aber irgendwie vermute ich, das ist verlorene Liebesmüh.
 
Colindo schrieb:
Alleine, dass du das Aquarium mitzählst, zeigt doch, wie Banane deine Wahrnehmung ist. Die verschwinden doch nicht ohne Grund, und sind doch kein Anspruch für den Rest des Forums.
Es ging ja darum, dass sich vermehrt abwertend über DLSS geäußert wurde. Wenn viele davon im Aquarium sind, zeigt es ja(sofern es nicht nur Posts von eier einzigen Person sind), dass es viele sogar ziemlich übertrieben haben mit ihrer "Kritik", weshalb sie dort reingekommen sind.
 
  • Gefällt mir
Reaktionen: Colindo, .Sentinel. und Laphonso
leonavis schrieb:
Edit: nimm doch den einfach den Standard Treiber.
nouveau? Der hilft mir nicht, das sind Kisten, bei denen CUDA benötigt wird. Aber ich muss sagen, dass ich damit wenig bis keine Probleme habe. Die Zeiten sind vorbei, das war bis vor einigen Jahren deutlich schlimmer. Bei jedem Kernel Update wird das Shim geraffel neu gebaut und das war's.
Aber das (nvidia) ist halt nicht das einzige.. im DC Kontext hast du oft irgendwelches proprietäres Geraffel, obwohl die eigentliche Software, die auf der Kiste läuft, FOSS ist. Ich habe schon lange aufgehört mich darüber aufzuregen, ich kann's ja sowieso nicht ändern :)
 
  • Gefällt mir
Reaktionen: leonavis
surtic schrieb:
Ja die Nvidia Karten nutzen diese Tensor Cores für die DLSS Berechnung.

Und nein AMD hat nichts vergleichbares auf ihren Karten. Auch für Ray Tracing nutzt AMD die normalen GPU Kerne.
Ach man, bitte schreib hier in ein Technik Forum doch nicht so einen Quatsch rein. Erst informieren, dann schreiben.
https://www.amd.com/de/technologies/rdna-2
"Neu bei AMD RDNA 2-Compute Units ist die Implementierung einer Hochleistungsarchitektur für die Beschleunigung von Ray Tracing, die „Ray Accelerator“ genannt wird. Ray Accelerator ist eine spezialisierte Hardware, die Schnittstellen bearbeitet, um eine neue Größenordnung der Schnittstellenleistung gegenüber Software-Implementierung zu erzielen."
Sonst würde es ja nicht nur mit der 6000er Generation funktionieren :stock:
 
  • Gefällt mir
Reaktionen: Colindo
Auch wenn ich wccftech eher meide, aber dieser Kommentar ist nicht so schlecht:
https://wccftech.com/no-amds-fsr-fi...-alternative-and-here-is-why-you-should-care/

tl;dr:
  • No, AMD’s FSR (FidelityFX Super Resolution) Is Not A DLSS Alternative, And Here Is Why You Should Care
  • DLSS uses AI and a temporal feedback loop for native image quality in still and motion.
  • FSR is a simple spatial upscaler, with no AI or temporal feedback for high quality in motion.
  • AMD’s own comparison reveals a material reduction in image quality versus native resolution - and if you can see it through Youtube's compression algorithm, it will be even more visible in an uncompressed format

Und das wichtigste:
Gamers need to push AMD to bring out their own DL/AI-based upscaling system, bonus points if that is open source as well

Und damit wird er vermutlich vollkommen recht haben.
 
  • Gefällt mir
Reaktionen: ComputerJunge, A.Xander und Laphonso
foo_1337 schrieb:
Auch wenn ich wccftech eher meide, aber dieser Kommentar ist nicht so schlecht:
https://wccftech.com/no-amds-fsr-fi...-alternative-and-here-is-why-you-should-care/

tl;dr:
  • No, AMD’s FSR (FidelityFX Super Resolution) Is Not A DLSS Alternative, And Here Is Why You Should Care
  • DLSS uses AI and a temporal feedback loop for native image quality in still and motion.
  • FSR is a simple spatial upscaler, with no AI or temporal feedback for high quality in motion.
  • AMD’s own comparison reveals a material reduction in image quality versus native resolution - and if you can see it through Youtube's compression algorithm, it will be even more visible in an uncompressed format

Und das wichtigste:
Gamers need to push AMD to bring out their own DL/AI-based upscaling system, bonus points if that is open source as well

Und damit wird er vermutlich vollkommen recht haben.
Mir war schon von vorne rein klar, als es geheißen hat, das es auf Geforce Karten auch funktioniert!
Das es eine reiner "Software Algorithms" sein muss.
Und da war mir dann auch klar das es von der Bildqualität dann natürlich nicht so gut sein kann wie DLSS.
Jetzt kommt es eben darauf an um wieviel schlechter die Bildqualität ist und ob es zur Berechnung von FSR auch extra CPU Leistung benötigt wird.
Ich selber muss aber auch sagen das ich DLSS auch nicht nutze, da mir da die Bildqualität auch nicht zusagt.
Das ganze wird aber mit FSR etwas spannender! AMD wie Nvidia gehen in die richtige Richtung und bin schon gespannt wie sich die Technik in ein paar Jahren weiter entwickelt hat!
 
Laphonso schrieb:
DLSS > 4K nativ hat begonnen.
Das ist allerdings auch ein Aspekt, den ich an DLSS (2.0) nicht mag und auch nicht gutheiße.
DLSS, und vergleichbare Techniken, soll gerne im Interesse von mehr FPS die Optik so weit aufbessern, bis es wieder an die "Originalvorlage in höchster Auflösung" herankommt, aber es soll nicht versuchen, "besser als das Original zu sein". Denn damit wird das Bild gleichermaßen verfälscht, wie mit DLSS in einer schlechteren Qualitätseinstellung, die dafür aber mehr FPS drauf addiert.
 
catch 22 schrieb:
aber es soll nicht versuchen, "besser als das Original zu sein". Denn damit wird das Bild gleichermaßen verfälscht, wie mit DLSS in einer schlechteren Qualitätseinstellung, die dafür aber mehr FPS drauf addiert.
Ihr geht bei immer von falschen Tatsachen aus. Es geht hier nicht um ein Ölgemälde, welches rekonstruiert werden soll, sondern um ein gerendertes Bild! Nur so kann ich mir Aussagen wie "Besser als nativ geht nicht" oder "dann wird es verfälscht" erklären.

Wir sind uns doch alle einig, dass dieses in 8k besser aussieht als in 4k, oder? Und wenn DLSS nun dafür sorgt, dass man z.B. teilweise irgendwo zwischen 4k und 8k liegt, ist die Qualität besser aber nicht verfälscht.

Versuch doch mal folgendes: Angenommen du hast einen WQHD Monitor. Nutze DSR/VSR und stelle die Renderauflösung in 4k. Das Ergebnis wird auf deinem WQHD Monitor vermutlich besser aussehen als wäre die Auflösung nativ 1440p. Das Problem hier ist nur, dass das massiv Leistung kosten wird.
 
  • Gefällt mir
Reaktionen: Czk666
catch 22 schrieb:
soll gerne im Interesse von mehr FPS die Optik so weit aufbessern, bis es wieder an die "Originalvorlage in höchster Auflösung" herankommt, aber es soll nicht versuchen, "besser als das Original zu sein".
Wenn DLSS besser aussieht als nativ, dann liegt das einfach daran, dass das native Bild auch nicht optimal ist. Bei Nioh 2 ist kaum Antialiasing vorhanden und DLSS sieht teilweise besser aus, weil es eben weniger Aliasing zeigt. Bei Games mit TAA kann DLSS besser aussehen, weil TAA eben auch nur eine Approximation ist, die manchmal versagt. Es ist jedenfalls nicht das Ziel von DLSS künstliche Details zu erzeugen.
 
  • Gefällt mir
Reaktionen: Colindo und foo_1337
foo_1337 schrieb:
Wir sind uns doch alle einig, dass dieses in 8k besser aussieht als in 4k, oder? Und wenn DLSS nun dafür sorgt, dass man z.B. teilweise irgendwo zwischen 4k und 8k liegt, ist die Qualität besser aber nicht verfälscht.
Zumal man sich auch immer die Frage stellen muss: Verfälscht von welcher Basis aus?

Ist das, was man auf dem Monitor in nativem 4K sieht, ein komplett unverfälschtes Bild? Man könnte meinen, wenn man Anti-Aliasing anschaltet, ist das Bild bereits verfälscht.
Was ist denn das unverfälschte Bild? Heute gibt es so viele Techniken, die im Hintergrund arbeiten und die Bildqualität beeinflussen, ohne dass man sie explizit aktivieren müsste bzw generell überhaupt abschalten könnte.
 
  • Gefällt mir
Reaktionen: foo_1337
Es ist eine Sache, wenn man eine diagonal verlaufende Linie mit entsprechender Technik "gerader zieht" oder ob ich durch eine KI Lösung ein eigentlich verdrecktes Nummernschild im Halbschatten liegendes Nummernschild, welches ohne ein KI System erstmal nicht sicher direkt erkennbar ist, "sauber" dargestellt wird. Und was ist vor allem, falls das Nummernschild unter Umständen gar nicht direkt erkennbar sein sollte, und so womöglich zu viel Verrät? (Ja, ich weiß, dass setzt ein gewissen Rahmen an Handlung voraus... und das sind viele gar nicht mehr von Computerspielen gewohnt...)
 
Ein Nummernschild, welches vom Spiel als unleserlich und verdreckt im Halbschatten vorgesehen ist, wird auch in den umliegenden Frames, aus denen DLSS seine Daten bezieht, unleserlich und verdreckt im Halbschatten sein. Wenn es wirklich verdreckt sein soll, würde sogar eher die Textur vom Dreck verbessert werden.

Ich habe bisher noch keines dieser "Was wäre wenn..." Szenarien in der Realität gesehen und soweit ich die Funktionsweise von DLSS und FSR verstanden habe, wäre das auch nicht möglich.
 
  • Gefällt mir
Reaktionen: MrChronos, MehlstaubtheCat und foo_1337
1622693253973.png

1622693269397.png

Erstaunlich verdreckt und keines der beiden Kennzeichen lässt einen unachtsamen Menschen viel erkennen, vor allem, falls die Szenerie noch dunkler wäre.
Setzt man sich aber mit Aufmerksamkeit dran, dann kann man relativ viel heraus lesen und interpretieren.
Und das ist der Aspekt, wo die KI aufgrund vergleichbarer Bilder, einer Analyse der Farbverläufe und Kontrastwerte der menschlichen Intuition nahe kommt und letztendlich womöglich die Beschriftung des Kennzeichens sehr deutlich darstellt (womöglich sogar auf einem besserem Niveau als das was die meisten Menschen daraus erkennen, wenn sie denn darauf achten und sich darauf konzentrieren würden), was unter Umständen aber nicht gewünscht ist.

Auch gab es bereits in diversen DLSS Diskussion hier bereits Screenshots aus verschiedenen Spielen, die mehr zeigten, als da war. Sei es dass ein Linienmuster vervollständigt wurde, oder auf einer Kiste oder Rucksack (bin mir da nicht mehr sicher was es war) eine Beschriftung im Original gar nicht wirklich leserlich zu leserlich hin transformiert wurde
 
  • Gefällt mir
Reaktionen: jonderson und DannyA4
catch 22 schrieb:
Auch gab es bereits in diversen DLSS Diskussion hier bereits Screenshots aus verschiedenen Spielen, die mehr zeigten, als da war. Sei es dass ein Linienmuster vervollständigt wurde, oder auf einer Kiste oder Rucksack (bin mir da nicht mehr sicher was es war)
Die Information wurden aber nicht von der AI "erfunden" sondern korrekt aus vorherigen Bildern rekonstruiert. Das ist ist eben temporales Supersampling.
Hier ist ein extremes Beispiel von einem ähnlichen Verfahren, dass sogar in der Lage ist eine 4x4 Skalierung durchzuführen:
neural_supersampling.png

Dort sieht man auch, dass Linien unterbrochen sind, und der Text an der Wand zunächst teilweise unleserlich ist. Aus einer Bildsequenz lassen sich diese Details rekonstruieren, weil vorherige Bilder jeweils zusätzliche Details der Objekte enthalten. Auch diese AI hat das Bild vorher nie gesehen und die Städtenamen nicht "erfunden".
 
  • Gefällt mir
Reaktionen: Zwiebelsoße, foo_1337, Laphonso und 2 andere
leonavis schrieb:
Mit propietären Nvidia-Treibern, genau.
Grafiktreiber müssen proprietär sein, da sie sonst 99% der Funktionen einer Grafikkarte nicht ansprechen können.
Geht mal weg von dem Gedanken proprietär=schlecht. Generalistisch+Opensource=gut.

leonavis schrieb:
Man benutzt eigentlich kein Linux, um sich dann doch wieder propietäre Treiber ins System zu holen.
Wie oft liest Du die Sourcen und wie intensiv wirkst Du am Entwicklungsprozess mit? Wieviele, die Linux nutzen glaubst Du tun dies?
Wenn man diese Frage beantwortet hat, sollte man sich mal überlegen, ob dieses proprietär/nicht proprietär nicht nur rein ideologische/dogmatische Hintergründe hat.
leonavis schrieb:
Bei AMD kannst Du im ganzen System ohne nonfree-Treiber auskommen. Bei Nvidia ist das unmöglich.
Welche NachteileIe/Einschränkungen ergeben sich dadurch in Deiner Nutzung?

MehlstaubtheCat schrieb:
Ich selber muss aber auch sagen das ich DLSS auch nicht nutze, da mir da die Bildqualität auch nicht zusagt.
Ja- Die meisten Implementationen haben Textur-/Lod- Fehler, weil sie sich nicht an die Implementierungsrichtlinien halten.
Zudem tut sich DLSS schwer mit horizontalen Kameraschwenks und Effekten die nachträglich im Screenspace platziert werden.
Es gibt Möglichkeiten diese Fehler auszubügeln bzw. Schwierigkeiten damit zu vermeiden.
Ansonsten ist bezüglich Artefakten das DLSS Bild je nach Qualitätsstufe dem Original überlegen.

catch 22 schrieb:
DLSS, und vergleichbare Techniken, soll gerne im Interesse von mehr FPS die Optik so weit aufbessern, bis es wieder an die "Originalvorlage in höchster Auflösung" herankommt, aber es soll nicht versuchen, "besser als das Original zu sein". Denn damit wird das Bild gleichermaßen verfälscht, wie mit DLSS in einer schlechteren Qualitätseinstellung, die dafür aber mehr FPS drauf addiert.
Da liegt ein Denkfehler vor. Denn Du gehst davon aus, dass das gerasterte Bild ein "Original" wäre.

Eine Renderszene in den Rohdaten kann theoretisch eine unendliche Auflösung haben. Somit ist jeder raster- Snapshot grundsätzlich schon nur eine qualitativ minderwertige Kopie.
Ist halt die Frage, wie hoch du die Szene abtastest.

DLSS macht nichts anderes, als dass es die Szene über die Frames hinweg mehrfach abtastet, als es die normale Rasterisierung tut. Temporales Supersampling eben.
Verfälscht ist da eher das niedriger abgetastete "Original", wie Du es nennst, da Du mit DLSS das Bild mit mehr "echter" Pixelinformation fütterst.

Deshalb hat das DLSS Bild weniger Alias und nähert sich dem Informationsgehalt eines NVIDIA DSR oder AMD VSR Bildes.

Und wir sind uns doch einig- Je höher die Auflösung desto Näher am Original...

Und zu Deinem Beispiel mit dem Nummernschild.
Du musst nichts lesen/rekonstuieren können, wenn Du den Bauplan des Nummernschildes hast.
Siehe oben. Die Szenendaten liegen einem DLSS wie der Rasterisierung in potenziell unendlicher Auflösung vor.

Noch ein Beispiel. Stell Dich mal vor einem Zaun mit dicht gesetzten Zaunlatten.

Du wirst dahinter fast nichts erkennen. Jetzt fahr aber mal etwas schneller mit dem Auto oder dem Fahrrad vorbei und plötzlich wird sichtbar, was hinter dem Zaun liegt.
Das ganz einfach, weil Du das Bild in schneller Abfolge von unterschiedlichen Positionen abtasten kannst und somit durch die kleineren, aber vielen Einzelinformationen ein Gesamtbild der Szenerie dahinter entstehen kann.

Die KI in DLSS 2.x ist dazu da, Pixelpositionen in Bewegung zu bestimmen um diese wiederzuverwerten und nicht neu berechnen zu müssen und hat somit einen ganz anderen Zweck, als es sich so manch einer unter dem mystischen Begriff KI oder AI vorstellt.

Ganz ähnlich:
http://advances.realtimerendering.com/s2014/epic/TemporalAA.pptx
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: A.Xander, Zwiebelsoße, foo_1337 und 3 andere
Vielleicht ist es hilfreich, wenn man weiß, dass man das Verfahren in vereinfachter Form auch manuell nachvollziehen kann. Hier ist eine Anleitung, wie man aus einer Reihe von Fotos mit Hilfe von Photoshop, ein höher aufgelöstes Bild erzeugt: A Practical Guide to Creating Superresolution Photos with Photoshop

Es gibt auch seit einigen Jahren Kameras, die einen Pixel Shift Sensor haben und bereits in der Kamera aus einer Sequenz von leicht versetzten Bildern ein Bild mit höherer Auflösung erzeugen:
Which cameras have Pixel Shift?
We round up all the cameras that offer pixel shift technology for creating ultra high-resolution images that are bigger than what the camera's sensor can normally capture
 
.Sentinel. schrieb:
  • Grafiktreiber müssen proprietär sein, da sie sonst 99% der Funktionen einer Grafikkarte nicht ansprechen können.
Quelle?

Was hat es mit der Funktion zu tun, ob ein Quellcode offen zur Verfügung gestellt wird? :freak:

.Sentinel. schrieb:
Geht mal weg von dem Gedanken proprietär=schlecht. Generalistisch+Opensource=gut.
Warum?

.Sentinel. schrieb:
Wie oft liest Du die Sourcen und wie intensiv wirkst Du am Entwicklungsprozess mit? Wieviele, die Linux nutzen glaubst Du tun dies?
Wenn man diese Frage beantwortet hat, sollte man sich mal überlegen, ob dieses proprietär/nicht proprietär nicht nur rein ideologische/dogmatische Hintergründe hat.
Mehr als wenn sie proprietär wären.
Und vor allem Dingen muss man immer die Angst haben entdeckt zu werden, wenn man etwas im Quellcode versteckt ;)

Oder um mal ein blödes Beispiel zu bringen:
Wie viele machen Gebrauch von ihrem Recht auf freie Meinungsäußerung bei wichtigen politischen Themen? Das sind verdammt wenige, wenn man es mit der Zahl vergleicht, die das Recht dazu haben.
Vielleicht sollten wir das Recht auf freie Meinungsäußerung abschaffen....

.Sentinel. schrieb:
Welche NachteileIe/Einschränkungen ergeben sich dadurch in Deiner Nutzung?
  • Ich muss den Treiber selbstständig updaten.
  • Ich muss aufpassen, ob ich mein System updaten darf, weil mir sonst evtl das ganze System um die Ohren fliegt. ( https://www.phoronix.com/scan.php?page=news_item&px=NVIDIA-Linux-5.9-Delayed )
  • Früher ist einem mit den Nvidia Treibern regelmäßig der Kernel nach einem Update um die Ohren geflogen und man hatte nach dem Neustart kein Bild mehr.
  • Abhängigkeit von Nvidia.
  • Dazu gehört auch ob die Grafikkarten weiterentwickelt werden. Linux unterstützt Grafikkarten ewig, die Hersteller in der Regel nicht...
    Konkret, weil es hier ja um Nvidia geht:
    https://nvidia.custhelp.com/app/answers/detail/a_id/3142
  • keine Lust mir sonst noch die Auswirkungen zu überlegen, ich brauche seit Jahren keine properitären Grafik-Treiber und es ist genial sich um nichts bei den Treibern kümmern zu müssen...
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Inxession und Colindo
Zurück
Oben