foo_1337 schrieb:
Es ist einfach lächerlich. Wäre es umgekehrt, wären die Threads voll mit Lästerein über Nvidia, wie sehr sie es doch verkacken.
Sorry, aber das ist einfach nur Polemik und an der Stelle könnte man dir sehr wohl einen Fanboy-Brille aufsetzen, weil du genau den selben Blödsinn ablässt, wie so manch andere Fanboys, die dann hier immer von AMDbase reden oder von intelbase oder von nvbase.
Lese ich mir die Diskussionen wertfrei durch, dann kommen in jeder Diskussion AMD-Fanboys genau so wie NVIDIA-Fanboys bzw. Intel-Fanboys die rum schwadronieren, dass man - in dem Fall - DLSS nicht braucht oder dass das Feature schlecht hin ist und weil AMD dieses Feature nicht hat, AMD so scheiße ist.
An Ignoranz und Engstirnigkeit nehmen sich dabei die Lager überhaupt nichts und so billige und - entschuldige die Ausdrucksweise, aber die Spitze hast du dir in dem Fall mehr als verdient - auch
dumme platte Polemik, facht diese Fanboys-Kriege nur unnötig an.
Ich kann es verstehen, dass man sich über die stumpfen Aussagen mancher Fanboys ägert, aber dann sollte man selbst die Größe haben einfach die Füße still zu halten und Ruhe rein kommen zu lassen, statt genau in die gleiche Kerbe zu schlagen und damit die eigene Doppelmoral allen vorzuführen.
DLSS ist eines der interessantesten Features der letzten Jahre und dass AMD nun einen Konkurrenten entwickelt ist sogar klar. Wir nähern uns langsam wirklich den phsyikalischen aber teilweise auch den mathematischen Grenzen sowohl bei der Hardware als auch Software an, wenn man bedenkt, dass weitere Steigerungen der Auflösung den Arbeitsaufwand expotentiell steigern.
Und selbst wenn AMD und NVIDIA jetzt kurzfristig auf ein "Chiplett"-Design umstellen können, ändert es nichts daran, dass wir zwar dann theoretisch beliebig große GPUs auf das Board schnallen können, diese aber auch Energie benötigen.
Genau so ist es mit RT: Klar, es gibt Tricks, mit denen man auch beim klassischen Rasterizer "Spiegelungen" in Pfützen als auh in Glas und Co gut "simmulieren" kann. Genau so was Schatten angeht. Nur - und dass ist das, was viele hier nicht verstehen: Diese Tricks benötigen oft auch sehr viel Leistung und sind zu dem stark limitiert. RT bietet die Möglichkeit viele diese Effekte "on-the-fly" einfach mit zunehmen.
Gehen wir doch mal das Bespiel Spiegelungen an: Kann man ähnliche Spiegelungen wie in BF5 und Co umseten in Pfützen, Fenster und Co - auch Controll: Ja kann man. Ungenau: Screen Space Reflections. Will man es genau: Ein neune Viewport auf machen aus Perspektive der Fläche und den Inhalt in eine Textur rendern, das ganze mit nem Alpha-Blending auf die Oberfläche projezieren und die Spiegelung ist geschafft. Nur dann kommt es drauf an, wie hochauflösend die Textur sein soll: Je neideriger, um so matschiger die Spiegelung. 4k-Bild - 8M Pixel - eine Spiegelung mit 1024px-Textur: 1M Pixel: 9M Pixel zu rendern. Bei einer 2K-Textur sind wir dann schon bei 12M Pixel. Da haben wir aber nur EINE Spiegelung. Nehmen wir aber mal 5 Fenster an, 2 Pfützen und bleiben wir bei 1k-Textur: 15M Pixel, also knapp doppelt soviel wie vorher. Und jede weitere Spiegelung lässt den Bedarf steigen.
Bei RT? Da ist es egal, ob wir 1 spiegelnde Fläche haben, 3 oder 5: Wir nehmen es on the Fly mit. Genau so was SSAO und Co angeht: Während mann für immer bessere "Verfahren" immer höheren Aufwand betreiben muss, nimmt man es be PathTracing einfach mit. Das ist ja das schöne daran, bei RT nimmt man es einfach mit und es ist quasi egal wie viele Spiegelungen und Co es gibt.
Bei klassischen Rasterizern ist es eben nicht egal, da man viele Sachen über umwege zwar lösen kann, es aber immer komplexer wird. Es ist jedem Entwickler klar, dass die Vereinfachungen, die früher dafür sorgte, dass sich die Rasterung bei Echtzeit-3d-Grafik durch gesetzt hat, irgendwann rächen wird und man ab Punkt X mehr "Rechenaufwand" benötigt als wenn man dann auf RT schwenkt. Und diese Zeit ist nun wirklich langsam gekommen.
Es geht hier nicht mehr darum, dass man ja die Rasterizer nicht weiter entwicklen könnte, es geht nun darum, dass es Leistungstechnisch einfach nicht mehr sinnvoll ist.
Das irgendwann die Rasterzierung bei den Echtzeitanwendungen durch RT ersetzt wird, ist bereits seit den 90er bekannt. Und das DLSS und später auch AMD Gegenpart notwendige "übel" sind - nicht nur wegen RT - ist jedem klar, der sich ein wenig mit den "Pixelmengen" beschäftigt, die da berechnet werden soll:
FHD => 2 MP, UHD => 4 MP, 8k => 16 MP! Und 16K? Steht jetzt auch schon "vor der Tür". Wir bräuchten - die aktuellen Karten schaffen jetzt endlich bei 4k zuverlässig 60 FPS bei hohen Details, für 8k bräuchten wir - bei gleichbleibender Grafik - eine VERVIERFACHUNG der Leistung. Ampere und RX 6000 haben aber gerade mal ca. 30 - 40% drauf gepackt, also nicht mal verdoppelt.
Egal wie man es sehen will: VRS (Variable Rate Shading), RT und "DLSS" sind die Zukunft um überhaupt noch höhere Auflösungen möglich zu machen. Man kann aktuell davon halten was man will und man kann dere aktuellen Nutzen gerne auch in Frage stellen, es ändert aber nichts daran, dass diese Sachen spätestens in der nächsten Generation notwendig sind.