Starcraftfreak schrieb:
Worum es aber eigentlich geht bei "ich will keinen Fake" ist, dass die Hardware gefälligst das berechnen soll, was man von ihr verlangt. Um bei deinem "dummen" Beispiel zu bleiben, wenn die Software sagt "mach Bumpmapping", dann will ich, dass die Hardware Bumpmapping wie aus dem Lehrbuch berechnet.
Das ist ja auch immer noch so und wird auch so bleiben, mit der Einschränkung, dass man oberhalb des untersten Indie-Budgets heute niemals einfach nur Bump-Mapping ohne weitere Effekte verwenden würde. In der Praxis geht aber eben kaum ein Spieler hin und sagt "Ich will Bump-Mapping", sondern eher "Ich will eine möglichst gute Grafik und möglichst viel FPS". Und da kann man dann folgerichtig wollen, dass dieser Zweck mit den Mitteln der Zeit bestmöglich umgesetzt wird.
Starcraftfreak schrieb:
Bei DLSS Quality sind wir inzwischen immerhin so weit, dass es bei UHD und teils WQHD auf jeden Fall empfohlen wird, weil es besser als "nativ" aussieht. Wobei man das immer noch von Spiel zu Spiel beurteilen muss, denn ganz allgemein philosophisch kann das gar nicht sein (als Informatiker bist du ja wohl mit etwas Informationstheorie vertraut). Kann in der Praxis natürlich schon sein, da die KI eben teils Informationen hinzufügt, die gar nicht da waren und das sieht für unser Gehirn dann "besser" aus, was ja eine legitime Bewertung des Resultats ist.
Redirion schrieb:
Wir sind doch gerade bei den Auflösungen so deutliche Schritte nach oben gegangen, weil mehr Informationen (im Sinne von Auflösung) eigentlich durch nichts zu ersetzen seien. […] Eine möglichst hohe native Auflösung ist die Basis für Bildqualität. Deswegen sehe ich auch weiterhin DLSS als "Pixelbei", mit Ausnahme von DLAA / FSR Native. DLSS Quality ist doch nur deswegen hübscher anzusehen als natives 4k, weil es einfach so stark TAA überlegen ist.
Ihr müsst bedenken, dass bei einem beispielsweise mit DLSS Quality ausgegeben Bild
deutlich mehr tatsächlich berechnete bzw. gerenderte Pixel die Grundlage des Ausgabe-Frames sind als bei nativem UHD, weil DLSS (und auch FSR sowie XeSS) temporal arbeiten, d.h. auf die Pixel- und Vektor-Informationen
von vielen vorherigen Frames zugreifen. Man hat also, wenn wir bei den Begriffen der Informatik bleiben wollen, statt des Brute-Force-Ansatzes eine Heuristik und einen approximativen Algorithmus, der in diesem Fall sogar dank der großen Datenbasis bessere Ergebnisse liefert (und nicht nur wegen der besseren Kantenglättung).
Das ist auch keine Anomalie in der Computergrafik, überall werden solche Prinzipien angewandt, um Rechenleistung effizienter nutzen zu können. TAA war btw eine direkte Vorstufe, auch da fand bereits eine Verrechnung einiger vorheriger Frames statt, nativ ist/war also auch das nicht (so wie halt gar nichts, wenn es gut aussehen soll).
blackiwid schrieb:
Ich finde die Diskussion über Fakeframes schon Sinnvoll, soll man sie durchkommen lassen mit "die 5070 ist so gut wie ne 4090" weil alle Frames sind Fake daher ist das doch ganz normale "native" Darstellung?
Ne, so weit würde ich es definitiv nicht treiben und das ist auch als irreführendes Marketing zu kritisieren. FPS als Metrik allein reichen bei solchen Vergleichen nicht mehr, da muss zwangsläufig auch auf die Latenz geschaut werden und da wird die 5070 nie mit der 4090 mithalten können. Zumal der stumpfe Fokus auf die FPS auch den Grafikspeicher komplett ausklammert, von dem die 5070 natürlich viel zu wenig hat um 2025 ein sorgenfreier Kauf für UHD sein. Also, ja, Nvidia lotet aktuell wirklich noch härter die Grenzen der Unverschämtheit aus und hat Spielern imho mit der ganzen RTX-50-Genreration einen Bärendienst erwiesen, will meinen wenn sie einfach den RTX-40-Zustand vor einem halben Jahr bewahrt hätten wären Spieler jetzt deutlich besser dran. Man darf aber trotzdem nicht aberkennen, dass nahezu alle relevanten Innovationen in der Computergrafik der letzten 25 Jahre entweder direkt auf Nvidia zurückgehen oder von Nvidia zuerst aufgegriffen und verbreitet wurden. Das sind halt zwei Paar Schuhe.