Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News FidelityFX Super Resolution: DLSS-Konkurrenz ab 22. Juni für AMD- und Nvidia-GPUs
Es wäre schön, wenn wir meist nur Latenzprobleme und keine Frametime Probleme hätten. Welche Stufen der Pipeline sollten denn hier hilfreich sein? Es ist ja bereits erklärt worden, dass DLSS sequentiell läuft und nicht überlappend berechnet wird. Der Grund dafür wird sein, dass nicht genug Memory Bandbreite vorhanden ist. Bestimmte Dinge sind eben leider nur einmal vorhanden. Daran würde sich auch nichts ändern, wenn DLSS auf den Shadern liefe. Damit addiert sich die Dauer, die DLSS benötigt, auf die Frametime und da macht es halt einen großen Unterschied ob es z.B. 1-2ms auf den Tensor Cores oder 8ms auf den Shader Cores benötigt.SimsP schrieb:Naja jain. Ich mein das ganze heißt nicht umsonst Grafik-Pipeline.
Das sind einzelne Stufen, die abgearbeitet werden und die Stufe die am längsten braucht bestimmt letztlich maßgeblich wie lange das ganze im Schnitt dauert. Solange ich mit meinem DLSS Schritt nicht länger brauche, als mit meiner langsamsten Pipeline-Stufe bin ich immer noch genauso schnell wie davor, ich hab nur unter Umständen eine etwas längere Latenz.
Asghan
Der Ranglose
- Registriert
- Mai 2004
- Beiträge
- 7.386
DLSS1 lief auf den Shadern, erst seit 1.9 oder sogar 2.0 läuft es auf den Tensor Cores.foo_1337 schrieb:DLSS1 lief auf den TC
cvzone
Fleet Admiral
- Registriert
- Okt. 2004
- Beiträge
- 18.450
Also ich kann vielen Gedankengängen hier einfach nicht folgen. Es ist Fakt, dass AMD User kein DLSS nutzen können. Wir sind also auf FSR angewiesen, ob das nun gut oder schlecht wird. Und selbst wenn es kein Kopf an Kopf Rennen der Qualität wird, beide Technologien können und werden einfach parallel existieren.
Wer vorher AMD gekauft hat, wird das auch weiterhin tun, er hatte ja gar keine Alternative zu DLSS. Wem DLSS vorher so wichtig war, dass es Nvidia sein musste, wird auch dies weiterhin kaufen...
Wieso kann es immer nur A oder B geben?
Wer vorher AMD gekauft hat, wird das auch weiterhin tun, er hatte ja gar keine Alternative zu DLSS. Wem DLSS vorher so wichtig war, dass es Nvidia sein musste, wird auch dies weiterhin kaufen...
Wieso kann es immer nur A oder B geben?
Quelle? Nvidia selbst sagte 2018, dass DLSS auf den Tensor Cores laufe:Asghan schrieb:DLSS1 lief auf den Shadern, erst seit 1.9 oder sogar 2.0 läuft es auf den Tensor Cores.
DLSS makes extensive use of the TensorCores in the Turing GPU to implement a deep neural network (DNN) that offers high-resolution gaming at high FPS and improves image quality to super-sampled levels.
Ergänzung ()
Noch eine Quelle:
Control nutzte später DLSS 1.9 als Vorabversion von DLSS 2.0, die ohne "Tensor Cores" funktionierte und stattdessen die CUDA-Prozessoren nutzte.
[...]
DLSS 2.0 erfordert wieder die Tensor Cores der GPU.
Asghan
Der Ranglose
- Registriert
- Mai 2004
- Beiträge
- 7.386
@Colindo
Direkt hier auf CB der Artikel zu DLSS 2.0:
https://www.computerbase.de/2020-05/nvidia-dlss-2.0-test/
Zitat:
"Passend dazu nutzt DLSS 2.0 nun erstmals die Turing- beziehungsweise GeForce-RTX-exklusiven Tensor-Cores für die Matrizenberechnungen. Denn auch wenn es bis jetzt immer den Anschein erweckt hat, dass bereits DLSS 1.x auf den Tensor-Kernen berechnet worden ist, war dies nicht so. Stattdessen lief DLSS bis jetzt über die klassischen Shader-Einheiten. Mit DLSS 2.0 laufen die FP16-Berechnungen dagegen über die Tensor-Kerne, sodass sich die klassischen ALUs allein um die Grafik kümmern können."
Direkt hier auf CB der Artikel zu DLSS 2.0:
https://www.computerbase.de/2020-05/nvidia-dlss-2.0-test/
Zitat:
"Passend dazu nutzt DLSS 2.0 nun erstmals die Turing- beziehungsweise GeForce-RTX-exklusiven Tensor-Cores für die Matrizenberechnungen. Denn auch wenn es bis jetzt immer den Anschein erweckt hat, dass bereits DLSS 1.x auf den Tensor-Kernen berechnet worden ist, war dies nicht so. Stattdessen lief DLSS bis jetzt über die klassischen Shader-Einheiten. Mit DLSS 2.0 laufen die FP16-Berechnungen dagegen über die Tensor-Kerne, sodass sich die klassischen ALUs allein um die Grafik kümmern können."
.Sentinel.
Admiral
- Registriert
- Okt. 2007
- Beiträge
- 8.630
Haben wir doch alles schonmal überprüft.Colindo schrieb:selbst sagte 2018, dass DLSS auf den Tensor Cores laufe:
DLSS1 tensor- core
DLSS1.9 shader
DLSS2.x tensor- core
Durch DLSS1.9, wclches wohl ein Test war, sehe ich sogar die Chance, dass NVIDIA auch ein abwärtskompatibles Gegenstück bringen könnte, um FSR entgegenzutreten.
DLSS1.9 ist qualitativ aber minderwertiger gewesen, als DLSS2.x. Also selbst wenn, ist auch dort mit Abstrichen zu rechnen.
Zum Thema Denoising. Da hast Du recht. Bis jetzt gibt es eine offiziell zur Verfügung gestellte echtzeitfähige (target 30FPS) Variante, die auf den Tensor- Cores laufen würde.
Ergänzung ()
Ja- Das hat man fälschlicher Weise damals aus der Aussage NVIDIAs zu DLSS 1.9 geschlossen, da die Zwischenvariante rein auf den Shadern lief.Asghan schrieb:Passend dazu nutzt DLSS 2.0 nun erstmals die Turing- beziehungsweise GeForce-RTX-exklusiven Tensor-Cores für die Matrizenberechnungen.
Ich hoffe ich habe meine damaligen NSIGHT captures noch. Da kannst Du genau sehen dass nur in 1.9 keine TCs zum Einsatz kamen.
NVIDIA ist klar, dass die Leute debuggen und denen ist auch klar, dass genügend darauf warten, dass sie mal nen Fehler machen, so dass man ihnen mal wieder eins reinwürgen kann.
Wenn sie also nicht die debug- Daten der Messtools nicht selbst irgendwie abgefangen und verfälscht haben, dann ist das Ergebnis eindeutig.
Zuletzt bearbeitet:
Asghan
Der Ranglose
- Registriert
- Mai 2004
- Beiträge
- 7.386
@.Sentinel.
Danke für die Infos
Da ich nicht so tief im Thema drin bin, hab ich mich halt auf den CB Artikel verlassen.
Danke für die Infos
Da ich nicht so tief im Thema drin bin, hab ich mich halt auf den CB Artikel verlassen.
@Asghan Da muss man Wolfgang leider unterstellen, dass er das Pressematerial von Nvidia missverstanden hat. Meine zweite Quelle stellt das ja auch anders dar, nämlich so wie Sentinel.
Ergänzung ()
Meintest du das so?.Sentinel. schrieb:Bis jetzt gibt es keine offiziell zurr Verfügung gestellte echtzeitfähige Variante, die auf den Tensor- Cores laufen würde.
.Sentinel.
Admiral
- Registriert
- Okt. 2007
- Beiträge
- 8.630
Ja. Ich weiss, dass die nachwievor dran arbeiten (denoising).Colindo schrieb:Meintest du das so?
Es gibt aber diesbezüglich regelmäßig noch große Änderungen/Fortschritte in den verschiedenen realtimert Noise- Filtertechniken (da kommen ja immer mehrere in Kombination und vor allem je nach angewandter RT- Technik wie z.B. Schatten, GI, Reflections zum Einsatz). Die haben alle nach typ einen speziellen Denoiser am Laufen.
Ich glaube die haben noch kein Konzept, wie sie da die unterschiedlichen realtime- Lösungen mit einer Schnittstelle effektiv bedienen sollen.
Bei OptiX ist es egal ob da ne viertel Sekunde mehr auf dem Zähler steht. Realtime sollte es, wo auch immer möglich async ablaufen. Und da wirds haarig.
Zuletzt bearbeitet:
Naja aber Latenzprobleme münden doch in Frametime Problemen.Nolag schrieb:Es wäre schön, wenn wir meist nur Latenzprobleme und keine Frametime Probleme hätten. Welche Stufen der Pipeline sollten denn hier hilfreich sein? Es ist ja bereits erklärt worden, dass DLSS sequentiell läuft und nicht überlappend berechnet wird. Der Grund dafür wird sein, dass nicht genug Memory Bandbreite vorhanden ist. Bestimmte Dinge sind eben leider nur einmal vorhanden. Daran würde sich auch nichts ändern, wenn DLSS auf den Shadern liefe. Damit addiert sich die Dauer, die DLSS benötigt, auf die Frametime und da macht es halt einen großen Unterschied ob es z.B. 1-2ms auf den Tensor Cores oder 8ms auf den Shader Cores benötigt.
Puh wo gerade die größten Flaschenhälse in den aktuellen Renderpipelines sitzen kann ich nur mutmaßen, dazu hab ich zu wenig Praxiserfahrung. Als ich das letzte mal groß in der Grafikprogrammierung unterwegs war, waren gerade die Drawcalls und aufwendige Geometrie ein großes Thema. Aber das hat sich mit DX12 und Vulkan vermutlich wieder verschoben ... allerdings naja warum gibts dann jetzt die Mesh-Shader. Es ist halt auch immer eine Frage dessen was du in deine Pipeline einbauen möchtest und wie Sachen aussehen sollen.
Möchtest du höchauflösende 3D-Modelle mit haufenweise Polygonen zeichnen? Dann geb ich dir Brief und Siegel, dass das dein Flaschenhals sein wird und nicht die Fragment-Shader.
Was verstehst du jetzt unter sequentiell? Ich meine das ganze ist eine Pipeline. Dementsprechend ist alles irgendwie sequentiell. Aber die einzelnen Einheiten arbeiten ja trotzdem parallel.
Klar sind Speicherinhalte meist nur einmal vorhanden, aber das ist ja auch kein Problem. Dass du zu wenig Memory Bandbreite in die Register hast, wage ich mal zu bezweifeln.
Von meinem Verständnis her würde ich vermuten, dass DLSS irgendwann nach dem Rasterizer in der Pipeline kommt. Vermutlich als der letzte "Fragment/Pixel-Shader" und ja das muss dann nach allen anderen sein, also sequentiell, weil ich mein upscaling natürlich auf das fertige Bild anwenden will. Das heißt sämtliche andere Arbeit muss schon gemacht sein, zumindest für die Pixel die ich interpolieren möchte.
Und ja deswegen kann ich mur vorstellen, dass DLSS durchaus auch auf die Latenz (Frametimes) ne gewisse Auswirkung hat, aber ob es den Durchsatz (fps) so stark beinträchtigt .... weiß nicht, müsste man mal untersuchen @cb-Redaktion
- Registriert
- Nov. 2002
- Beiträge
- 8.928
Artikel-Update: Nachdem Twitter-Nutzer vegeta in inzwischen gelöschten Tweets mutmaßlich unter NDA stehende Informationen zu den ersten Spielen mit FSR-Unterstützung veröffentlicht hatte, will VideoCardz aus eigenen Quellen jetzt die ganze Liste der Titel für den Start am 22. Juni und die kommenden Monate in Erfahrung gebracht haben. 44 Studios sollen AMD FSR grundsätzlich unterstützten. Epic Games und damit die Unreal Engine, die seit Februar nativ Nvidia DLSS unterstützt, findet sich nicht darunter.
[Tabelle: Zum Betrachten bitte den Artikel aufrufen.]
MMIX
Lt. Junior Grade
- Registriert
- Dez. 2020
- Beiträge
- 509
Leider zu erwarten das die Spiele anfangs sehr überschaubar sein werden. Gerade Mal vier Spiele sind für mich interessant weil ich entweder welche schon habe oder künftig haben werden. Bisschen enttäuschend aber gut, jeder fängt Mal klein an. Nvidia mit DLSS 1.0 ja auch.....
Und wie ich sagte, alle die sich auf CP 77 Hoffnung gemacht haben, war doch klar und logisch dass das erstmal komplett außen vor bleibt.
Und wie ich sagte, alle die sich auf CP 77 Hoffnung gemacht haben, war doch klar und logisch dass das erstmal komplett außen vor bleibt.
B
B3nutzer
Gast
Anno 1800 wird wohl ein best case szenario für FSR werden, da das Spiel MSAA bietet.
Ein per MSAA sehr gut geglättetes Bild hochzuskalieren ist vergleichsweise einfach, da es keine/wenig Bild Artefakte gibt und die Kantenschärfe schon perfekt ist. Wobei ein upscaling ohne MSAA auch nochmal interessant wäre. Kann FSR die Kanten glätten oder werden die Treppchen vergrößert?
Interessant wirds bei GodFall oder Riftbraker. Die nutzen TAA und neigen auch zu flimmern. FSR läuft da wegen dem spatial upscaling gefahr, auch Artefakte mit hochzuskalieren.
Bin sehr gespannt auf die tests.
Dass Epic FSR nicht unterstützt erscheint mir aber logisch. Die haben doch mit Unterstützung von AMD einen temporalen Upscaler entwickelt, an den FSR sehr wahrscheinlich nicht rankommen kann.
Ein per MSAA sehr gut geglättetes Bild hochzuskalieren ist vergleichsweise einfach, da es keine/wenig Bild Artefakte gibt und die Kantenschärfe schon perfekt ist. Wobei ein upscaling ohne MSAA auch nochmal interessant wäre. Kann FSR die Kanten glätten oder werden die Treppchen vergrößert?
Interessant wirds bei GodFall oder Riftbraker. Die nutzen TAA und neigen auch zu flimmern. FSR läuft da wegen dem spatial upscaling gefahr, auch Artefakte mit hochzuskalieren.
Bin sehr gespannt auf die tests.
Dass Epic FSR nicht unterstützt erscheint mir aber logisch. Die haben doch mit Unterstützung von AMD einen temporalen Upscaler entwickelt, an den FSR sehr wahrscheinlich nicht rankommen kann.
Z
ZeroStrat
Gast
Welche laut Artikel auch wieder vegeta ist?! ^^Wolfgang schrieb:will VideoCardz aus eigenen Quellen
Ähnliche Themen
- Antworten
- 185
- Aufrufe
- 22.018
F
- Antworten
- 82
- Aufrufe
- 13.879