Tulol schrieb:
Somit ist die bisherige Umsetzung von RT in Spielen nicht glaubwürdiger als bisherige Techniken.
Was aber auch zu weiten Teilen daran liegt, dass RT oft nur für bestimmte Bereiche eingesetzt wird und damit die Vorteile eines richtigen Path-Tracers überhaupt nicht zum Vorschein kommen.
Auch wenn man es nicht glaubt, aber sowohl die
"Doom"-Mod als auch
Quake 2 RTX und auch
Minecraft RTX zeigen deutlich besser, wohin die Reise mit RayTracing gehen kann.
Ja, ich weiß, dass nun hier einige bei Minecraft als auch Quake 2 mit entsprechenden Hinweisen auf Shader-Mods kommen und bei Quake 2, die zeigen wollen, dass man das alles ja genau so hin bekommt.
Gibt da nur ein kleinen Punkt: In Minecraft kosten diese Shader auch massiv viel Leitung und lassen die Framerate stark einbrechen und bei Quake 2 wird zwar eine ähnliche Qualität durchaus erreicht nur - und das ist das Geheimnis - dass die Mods auf Vorberechnete Lightmaps zurück greifen, die auch per RT berechnet wurden und dass die sonstige Leichtberechnung eben nicht mehr so dynamisch ist, wie mit der RTX-Version.
Und auch bei der jetzigen Doom-Mod zeigt sich etwas sehr gut: Alleine durch die korrekte Lichtberechnung - auch wenn das Spiel sehr dunkel wird - nimmt die Plastizität des Spieles gewaltig zu. Ja Texturen alles noch schlecht, aber in diesen Spielen lässt sich RT relativ einfach integrieren, da diese Spiele eine sehr saubere Angelegenheit sind von den Effekten her.
Pixelkiller schrieb:
z.B. wasserpfützen die im Licht spiegeln als wären die mit kristallklarem Wasser gefüllt.
Na, wenn ich mir gerade die Pfützen hier ansehe, dann spiegeln die auch, als wären die mit kristallklarem Wasser gefüllt obwohl das Wasser eher schmutzig ist.
Die Spiegelungen einer Pfütze oder eines Gewässers hat nur bedingt etwas mit der Klarheit des Wassers zutun, sondern mit der Oberfläche und je ruhiger das Wasser in der Prüfte um so besser.
Dann spielt auch unser eigener Blickwinkel eine Rolle. Aber das Sauberkeit des Wassers ist hier nicht der Faktor.
Chismon schrieb:
Gespannt bin ich auf die
XeSS Implementierung/Umsetzung (im nachfolgenden Video ab 46:05) und ob damit Intel vielleicht ueberraschend zum Arc Marktstart gleich- oder vorbeiziehen wird koennen (an DLSS 2.X oder FSR 2) zu hoffen/wuenschen waere das wohl
Wird man abwarten müssen. Was ich bisher sehe, setzt XeSS relativ früh in den Spielen schon an - auch schon einen Bereich der relativ viel Leistung kostet, aber heute nicht mehr alleine die Last verursacht.
Intel wird selbst mit XeSS nicht an NVIDIA und AMD vorbeiziehen können und auch einen Gleichstand kann man getrost aktuell vergessen. AMD und NVIDIA bringen in den nächstne Monaten RDNA3 und Ada auf den Markt.
AMD zeigt aktuell mit FSR2.0 - und Epic mit TSR - dass man doch "vergleichbare" Qualität mit DLSS erreicht ohne "KI". DLSS hat seine Stärken und Schwächen, FSR2.0/TSR werden Stärken und schwächen haben. Um ein optimales Ergebnis zu erzielen, wird es darauf ankommen, dass man an den Stellschrauben schraubt.
.Sentinel. schrieb:
Man hat also wenn dann nur den Nachteil, dass man derzeit eher die Szenen noch nicht auf Raytracing auslegt und sie somit "komisch" oder "übertrieben" wirken mögen.
Na ja, ich glaube ein Teil der Probleme liegt nicht direkt daran, dass man die Szenen noch nocht auf Raytracing auslegt, sondern dass wir aktuell immer noch starke Hybriden haben, die das eigentliche Bild noch "klassisch" berechnen, während RT bestimmte Aspekte ersetzt.
Wenn ich mir die ganzen alten "Spiele" ansehe, die aktuell mit RT aufgewertet werden, dann sieht man an denen sehr gut, wie es sein könnte, wenn man quasi die ganze Pipeline durch RT ersetzt. Ich liebe Quake 2 RTX! Das macht echt Spaß und wie plastisch selbst diese alten Texturen wirken können oder die ganze Umgebung!
Und ja, Metro Exodus zeigt das auch sehr gut, weil man da RT dann nicht nur mehr als "Option" anbietet, sondern das Spiel darauf auslegt.
.Sentinel. schrieb:
Verschmerzbar, wenn man dagegen den von mir beschriebenen oftmals stattfindenden Totalausfall von Screenspace- Reflections dagegenstellt. Das sind richtig grobe Fehler, die ordentlich an der Immersion kratzen.
Es gibt ja zu de Screenspace Reflections auch noch eine Alternative. Dumme an der Alternative ist dann nur, dass man ein weiteres Rendertarget offen hat und man NOCH mehr Leistung braucht.
Das schöne an RT ist ja, dass es fast egal ist, ob man 1 Reflexion oder n Reflexionen dann hat. Allgemein muss ich sagen: RT macht vieles drastisch einfacher. Jetzt kann sogar Pandi, die eigentlich in der Datenaufbereitung arbeitet, einen Shader programmieren, weil das Prinzip Physik ist! YEAH!
Es ist schon bezeichnend, wie einfach es wird eine Grafikengine für ein eignes Projekt zu entwickeln, wenn man rein sich auf Raytracing/Pathtracing stürtzt. Wissen von Strahlentheorien und damit auch verbunden ein paar Sondereigenheiten für "Oberflächen" mit ihren Werten und schon hat man das gröbste verstanden und kann experimentieren.
Dagegen sind klassische Engines wirklich kompliziert und man muss teilweise echt um 10 Ecken denken, damit man ans Ziel kommt.
Egal was hier einige über RayTracing denken und dass ja normales Rendern ja nicht viel schlechter ist und ja reicht: NEIN! Einfach nur nein! Auch wenn man meint, dass es grafisch gleichwertig ist, das ist es nicht und die normalen Renderer sind sowas von aufgeblähte Komplexitätsmonster, ein PathTracer ist viel simpler aufgebaut und viel schöner zu lesen und zu warten!
RT, wir kommen und zwar hoffentlich immer schneller!