Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
TestF1 22 mit Patch 1.17 im Test: AMD FSR 2.2, FSR 1, Nvidia DLSS 2.4 & 3 fahren um die Wette
Was machen die Programmierer vom Spiel beruflich? Dlss gerade einmal ausreichend implementiert und fsr ungenügend..... Haben die das ein einziges Mal getestet? Frame Generation funktioniert immerhin einigermaßen gut, Rennspiele (außer Forza) sind jedoch sowieso nicht meins.
Für den Endkunden ist es aber vollkommen egal wer das ganze verhauen hat, da ist es völlig unangebracht AMD oder zum teil Nvidia in Schutz zu nehmen, wenn die Umsetzung katastrophal ist, und das ist sie bei fsr, dann ist es definitiv auch die Aufgabe von AMD zu den Entwicklern zu gehen und zu sagen das das so nicht geht. Inakzeptables Ergebnis von beiden Seiten.
Also schießt Du freiwillig Effizienz, Grafikqualität und überlegenes Antialias ab, nur um zu erreichen, dass Du Artefakte dann gegen andere Artefakte tauschst und das bei erheblich weniger Leistung?
Ich stelle die Einstellungen im Spiel runter und habe dadurch doch nicht igendwelche Artefakte... und sicherlich habe ich dadurch keine Bildfehler, wie die in dem Rennspiel hier, wo die Anzeigen über den Autos total verhuntzt sind.
.Sentinel. schrieb:
Leider wieder falsch, da Schärfefilter bei korrekter Implementation nicht notwendig sind.
Meine Spiele laufen auch ohne ordentlich, merke keinen Unterschied zwischen on/off. Aber ja, hier muss ich dir tatsächlich recht geben, das Gedöns kann wohl nicht wirklich schaden.
.Sentinel. schrieb:
Wenn Du es ausstellst, hast Du oftmals höhere Latenz, unterlegene Bildqualität da Quantisierungsartefakte, garniert mit höherem Stroverbrauch bei niedrigeren FPS
Gratuliere. Der "native- warrior" hat den Weg zur Steinzeit zurückgefunden.
Wenn dir die DLSS bzw. FSR Grafik gefällt ist es schön, ich möchte eher keine Schlieren, Ghosting oder andere Bugs dadurch und wähle lieber, wenn nötig, die abgespeckte Grafik ohne solche Grafikfehler.
Die FPS sind ja eh auf einen Höchstwert beschränkt und die Unterschiede in der Leistungsaufnahme sind mir die Bildfehler nicht wert, da nutze ich lieber meinen OptiGrill weniger... wobei eigentlich auch nicht!
.Sentinel. schrieb:
Aber klar- Du würdest auch lieber das "lückenhafte" dafür native Bild bevorzugen, oder (siehe Antennen)?
Sieht aus wie ein Bild komplett ohne/low AA vs eines mit DLSS... ohne konkrete Angaben zu den jeweiligen Einstellungen halt nicht wirklich überzeugend!
Doch - Dazu muss man sich vergegenwärtigen dass Rastern bedeutet, dass Du eine potenziell unendlich Auflösende Szene in Kästchenform pressen musst. Deshalb muss es zwangsläufig zu Fehlwerten in der Farbdarstellung kommen.
iron_monkey schrieb:
und sicherlich habe ich dadurch keine Bildfehler, wie die in dem Rennspiel hier, wo die Anzeigen über den Autos total verhuntzt sind.
Je nach Auflösung hast Du solche Bildfehler eben schon. Nämlich genau ab dem Zeitpunkt, ab dem sich Textoverlays nicht pixel- Perfext in die Rasterauflösung einpassen.
Hier ab 7:20 siehst Du, was Rastern an Artefakten gerade an Kanten und Farbübergängen generiert. Die niedrige Auflösung legt das Brennglas drauf. Checkt nur keiner mehr, weil durch Filter und Antialiasing inzwischen selbst das vermeintlich "native" Bild nachbehandelt ist.
YouTube
An dieser Stelle steht ein externer Inhalt von YouTube, der den Forumbeitrag ergänzt. Er kann mit einem Klick geladen und auch wieder ausgeblendet werden.
Die Schärfefilter gibt es nur, weil die wenigsten Implementationen sauber sind aber auch weil diverse User inzwischen dem absoluten Schärfewahn erlegen sind.
Oftmals werden die Bild extrem überschärft. In keiner natürlichen Aufnahme ist das zu finden, was sich die User diesbezüglich oft einstellen.
iron_monkey schrieb:
Wenn dir die DLSS bzw. FSR Grafik gefällt ist es schön, ich möchte eher keine Schlieren, Ghosting oder andere Bugs dadurch und wähle lieber, wenn nötig, die abgespeckte Grafik ohne solche Grafikfehler.
Das hat nichts mit Gefallen zu tun. Ein Bild mit Supersampling hat höhere Qualität und weniger Fehler als ein gerastertes ohne eben dies. Schlieren und Ghosting gibt es nur, wenn bei der Implementation gepfuscht wird. Gibt diverse Beispiele ohne Artefakte und Schlieren. Komplett Bugfrei.
Somit ist es berechtigt, auf diverse schlechte Umsetzungen zu schimpfen, aber nicht auf die Technik an sich.
iron_monkey schrieb:
Sieht aus wie ein Bild komplett ohne/low AA vs eines mit DLSS... ohne konkrete Angaben zu den jeweiligen Einstellungen halt nicht wirklich überzeugend!
Es ist halt nunmal so, dass moderne Spiele ein temporales AA haben müssen, da aufgrund diverser Rendertechniken sonst flimmern und flirren die zwangsläufige Folge ist.
Hier ab 2:12 kann man bewundern, was das native Bild in modernen Titeln tatsächlich wert ist:
YouTube
An dieser Stelle steht ein externer Inhalt von YouTube, der den Forumbeitrag ergänzt. Er kann mit einem Klick geladen und auch wieder ausgeblendet werden.
Technisch ist die Aussage falsch. Auch hier wird die Qualität der Implementation mit der Technik an sich verwechselt.
Zum Glück hat man mit diesen Techniken intelligentere Wege als Brute- Force- Rendering, also pure und sinnlose Energieverschwendung eingeschlagen. Zum Glück erkennen auch die meisten User inzwischen die großen Vorteile, die die neuen Techniken bieten können.
Ich frage mich, wenn es doch nicht spürbar durch starke Bildfehler auffällt, was juckt es dann, ob die Frames "Fake" sind oder nicht?
Es sind eben doppelte Frames, die man auch spürt, für die die GPU nur etwas mehr und die CPU überhaupt nicht arbeiten muss.
Wenn mein Gehalt einfach so verdoppelt wird, sag ich ja auch nicht ne lass mal, ich steh nicht so auf Geld, für das nicht hart gearbeitet wurde^^
Clipping ist dir ein Begriff?
Das Problem hat man bis heute noch nicht gelöst, allerdings fällt es in vielen Spielen gar nicht auf.
Mit deinem Argument dürftest du also gar nichts spielen, weil alle Frames "beschiss" sind und Fehler enhalten (können).
Hier ein weiteres Beispiel von Quake 3:
YouTube
An dieser Stelle steht ein externer Inhalt von YouTube, der den Forumbeitrag ergänzt. Er kann mit einem Klick geladen und auch wieder ausgeblendet werden.
Aber gut, wenn du lieber in 4K mit <30 Frames zockst oder auf Low den Pixelmatsch so viel besser findest, dann gönn dir.
Ich genieße währendessen Ultrasettings in 4K mit 60-120 FPS x)
.Sentinel. schrieb:
Es wäre schön, wenn sich die Leute mal mit tiefgreifend mit entsprechenden Techniken beschäftigen würden, bevor Nachplappern und Stammtischparolen das Ruder übernehmen.
Damit haben wir auch hier nicht nur >50% mehr FPS sondern auch gleichzeitig eine 12% geringere Latenz mit FG.
Das Argument mit der schlechteren Latenz zählt wie schon mehrfach erwähnt eben nur für Nvidia Karten die dann auch ohne FG Reflex aktiv haben, was in diesem Spiel nun gar nicht geht.
Wenn FG so schlechte Latenzen haben soll, müsste das Spiel ja bisher unspielbare Latenzen gehabt haben.
Es ist eben eher so, dass die Latenz Nativ mit Reflex noch mal besser wäre als Nativ ohne Reflex und nicht, dass sie mit FG generell schlecht wäre.
Denn ich habe bisher keinen sagen hören, dass die Latenz in F1 22 schlecht wäre. Auch habe ich noch nie gelesen, dass in den anderen Spielen, die aktuell FG bieten, AMD Nutzer, die ja Reflex nicht nutzen können, unspielbare Latenzen hätten.
FG+Reflex verbessert diese Latenzen nun sogar noch gegenüber Nativ. Da FG einiges an Latenz kostet, ist der Sprung nicht so stark, aber Reflex senkt die Latenz trotzdem in Summe mehr, als FG sie hoch setzt.
Ja, Reflex alleine würde demnach die Latenz noch weiter verringern, aber wie gesagt, wer vorher ohne Reflex keine Probleme mit der Latenz hatte, wird mit FG+Refllex erst recht keine Probleme haben.
Ich glaube aber auch generell, dass kaum jemand hier einen Unterschied beim Input Lag von 80ms auf 70ms, den man durch Reflex+FG bekommt, bemerken würde.
Ich stimme deiner gesamten Argumentation bis auf diesen Punkt zu, denn das ist funktional quasi unmöglich. Die KI schätzt ja, weil sie versucht Strukturen zu erkennen. Das kann aber auch für ein paar Frames danebenliegen. Ist eben nie 100%, sondern best effort.
Mein Lieblingsbeispiel dazu ist z.B. eine Holzbrücke aus hintereinander liegenden Brettern in RDR2, der man sich mit ziemlich flachem Blickwinkel nähert. An stellen, wo ein ungefiltertes Bild Aliasing hätte, welches TAA hier sauberer lösen würde, sieht man DLSS, was ja mit einer noch niedrigeren Auflösung als Input arbeitet, und dementsprechend stärkeres Aliasing im Ausgangsmaterial hat, sich erstmal ein paar Frames einpendeln. Das kannst du quasi nicht verhindern.
Es werden keine Strukturen erkannt und geschätzt wie sie aussehen müssten, das war der allererste Ansatz von DLSS 1.0
DLSS2 arbeitet genau wie FSR2 mit den Motion Vectors(unter anderem) um durch das Abtasten mehrerer Frames in geringerer Auflösung die Position der Pixel im nächsten Frame zu bestimmen.
Damit enthält das DLSS Bild von Grund auf mehr Bildinformationen, als das native Bild.
Der "KI"-Part bei DLSS2 betrifft einfach nur die Art, wie der dafür verwendete Algorithmus entstanden ist und weiterentwickelt wird. Während man DLSS mit der GPU nutzt, ist keine KI am Werk.
Eine detailliertere Erklärung maße ich mir nicht an, das kann @.Sentinel. deutlich besser
Damit haben wir auch hier nicht nur >50% mehr FPS sondern auch gleichzeitig eine 12% geringere Latenz mit FG. Das Argument mit der schlechteren Latenz zählt wie schon mehrfach erwähnt eben nur für Nvidia Karten die dann auch ohne FG Reflex aktiv haben, was in diesem Spiel nun gar nicht geht.
Wenn FG so schlechte Latenzen haben soll, müsste das Spiel ja bisher unspielbare Latenzen gehabt haben.
Ich sehe das Problem nicht darin, dass die Latenzen mit FG schlechter als bei AMD oder ähnliches wären. Das Problem ist, dass die Latenzen mit FG immer schlechter sind als ohne FG bei den ansonsten gleichen Voraussetzungen, was zur Folge hat, dass ein FPS mit DLSS 3 eben weniger wert ist als ein FPS ohne FG. Mit FG, ganz gleich ob dieses durch DLSS 3 oder später durch FSR 3 erzeugt wird, unterscheidet sich in der Wirkung zu einem FPS mit zum Beispiel DLSS 2 / FSR 2.
Das ist nichts, was gegen FG oder ähnlichem spricht. Problematisch sehe ich nur die direkten Vergleiche an. Denn, "ich habe 100 FPS mit FG" und "ich habe 100 FPS mit DLSS 2" (zum Beispiel) sind eben nicht dasselbe in der Performance. Das ist aber genau das, was die Hersteller machen bzw. machen werden.
Das stimmt zwar, aber wie gesagt, wen die Latenz von Nativ bereits nicht stört, dem wird es auch nicht störend auffallen, wenn es mit FG nur 10ms und mit DLSS2 Quality dann 30ms weniger sind.
Es wird ja oftmals so dargestellt, als würde man mit FG zwar mehr FPS als Nativ bekommen, aber es würde quasi gar nichts bringen bzw. sich sogar schlechter anfühlen, weil die Latenz gleichzeitig nach oben geht.
Allerdings nicht in Grenzbereichen, wo sowieso Aliasing herrscht und Strukturen verschwimmen. Gemeint ist nicht die Antenne vor blauem Himmel. Das ist es ja. Du hast zwar rein betragsmäßig vielleicht mehr Input, du hast aber eben nicht alle Pixel des nativen Bildes. Nach wie vor machst du aus wenig mehr. Und in solchen Bereichen, wie in meinem Beispiel hat so ein Algorithmus oder auch eine KI eben schlechte Karten wohingegen TAA oder gar SSAA bessere Karten haben, mit dem üblichen Nachteil der Verwaschenheit oder dem Leistungsverlust.
Es wurde ja auf der letzten Seite ein Vergleich zwischen TAA und DLSS gepostet, da sieht man, was TAA auch mit feinen Strukturen machen kann, genau solche, wo viel Aliasing vorhanden ist.
DLSS ist auch ohne den Performancefaktor einfach das bessere Anti-Aliasing