conf_t schrieb:
Raytraycing ist eher die nächste „Physix“-
Nein, diese Aussage ist auf so vielen Ebenen falsch, dass man nicht mal weiß, wo man anfangen muss. So viele möglichen Punkte, an denen man anfangen kann.
Ray Tracing und PhysX kann man nicht miteinander vergleichen. PhysX war in seiner ursprünglichen Form - weitere Beschleunigerkarte - direkt von Anfang an zum Scheitern verurteilt. Mit der Übernahme durch Nvidia hat sich PhysX aber gerade im Softwarebereich stark gemacht und wird auch heute noch als Grundlage für viele Physik-Berechnungen genutzt. Was bei PhysX gestroben ist, sind die ganzen zuästzlichen grafischen "Partikeleffekte", weil diese kaum Mehrwert boten, gleichzeitig Nvidia durch die Beschränkung auf Cuda die Konkurrenz ausgesperrt hat, diese damals aber noch bei dem ca. 50 / 50 Marktanteil war und sich den Konsolenmarkt sichern konnte. Mit DirectCompute und den passenden Gegenschnittstellen on OpenGL und späterm Vulkan, gibt es zudem auch die Möglichkeit, dennoch die GPU zu nutzen, was gemacht wird.
conf_t schrieb:
Auch das stimmt so nicht, weil SLI - 3dFX-Version - sehr wohl relativ Erfolgreich genutzt wurde und teilweise sogar bisheute auch noch genutzt wird. Quantum3D mal so als Stichwort.
Die Probleme von SLI/CF für "Spiele" fing mit den Schnittstellen DX7 und DX8 an, weil die Grafikpipeline aufgebrochen wurde und die GPU heute weit mehr berechnet, als damals noch. Das Konzept hinter SLI/CF besteht aber auch hier noch weiter und sowohl AMD als auch Nvidia arbeiten daran, nur dass es eben nicht mehr über mehre Karten gehen wird, sondern über mehrere Chips.
SLI/CF sind tot, lang lee SLI/CF. (Und bevor jetzt jemand darübe belehren: Ich weiß, dass die Mutlichip-Ansätze noch mal anders aufgebaut sind - arbeiten eher nach dem SFR-Prinzip, statt AFR. Würde den Beitrag nur sprengen).
conf_t schrieb:
Vision3D war - ähnlich wie heute VR - am Anfang ein Nischenprodukt - hohe Kosten, hoher Aufwand mit Brille und Verkabelung usw. Und ja, heute schreit am PC da kein Hahn mehr und doch lebt auch Vision3D weiter und Teile der Techniken dahinter, sowohl in VR als auch im Heimkino und sogar Kinomarkt.
conf_t schrieb:
In 4 Jahren kräht kein Hahn mehr danach.
Genau, in 4 Jahren kräht kein Hahn mehr danach, weil sich RT in den nächstne Jahren immer stärker durchsetzen wird, weil jede weitere Verbesserung bei klassischen Rasterizern auch mit immer stärkeren Preformance-Impact einher geht und ebenso kaum optischen Mehrwert auf den ersten Blick bietet, sondern immer erst, wenn man die Funktionen deaktiviert.
Avatar ist eines der ersten Spiele, die zwar noch ein Hybrid-Kern haben, das aber ohne RT massiv an Qualität abbaut. Cyberpunk 2077 der Overdrive-Modus zeigt, dass man bereits jetzt in 1440p ohne FG ein modernes Spiel mit "nur" RT spielen kann, mit FG sogar in 2160p. Klar, der Rasterizer sieht bereits super aus, nur der Overdrive-Modus sieht in vielen belangen noch mal besser aus, auch wenn es nicht sofort auffällt, spätestens in Bewegung fällt es aber auf.
conf_t schrieb:
Da steht einfach nichts im Verhältnis.
Was steht da in keinem Verhältnis? Ja, die Rechenlast mit RT ist noch mal höher, gleichzeitig wird es aber auf so vielen Ebenen einfacher. Dazu kommt, dass man am Ende sehr viele Effekte on-the-fly mit nimmt, die in Rasterizerspielen umständlich über zig Shader implementiert werden müssen und die wegen ihrer Laufzeit teilweise sogar bereits heute in der Auflösung halbiert und sogar geviertel werden, um anschließend zu interpolieren.
Ja, man kann sich mit Screen-Space-Reflections helfen, man kann sich mit neuen Render-to-Texture-Targets helfen, man kann mit Screen-Space-Occlusion die Kanten abfahren und mutmaßungen nehmen. All das sind aber auch Sachen, die immer mehr Ressourcen binden, wenn man minimale Verbesserungen haben will.
Wozu soll man weiter am Rasterizer festhalten, wenn jede weitere optische Verbesserung dort auch die Framerate locker mal halbiern würde, dafür aber gerade mal ein "Highlight" bringen würde. Gerade Spiegelungen sind für Rasterizer der Tod, weil jede akkurate Spiegelung als eigene Textur gerendert werden muss. Da wird - wenn das gemacht wird - so viel vereinfacht und heraus genommen, dass man das sieht. Bei RT ist das unnötig.
conf_t schrieb:
auch nach 20 Jahren kein Mainstream.
Ja, es war damals kein Mainstream, weil damals die ersten Gehversuche gemacht wurden. Gleichzeitig waren die Demos bereits damals atemberaubend, wenn man sich den damaligen Stand ansieht und was dann mit RT möglich war. Ja Rasterizer haben mit den letzten Fesseln, die DX9 gelöst hatte, massiv an Qualität gewonnen, gleichzeitig hat es aber auch gezeigt, wie viel Ressourcen es benötigt weiter zu kommen. Wenn ich überlege, was die ersten Screen-Space-Occulusion-Shader an Leistung gefressen haben und was da für ein Aufwand betrieben wurde, dass es weniger wurde.
conf_t schrieb:
Und das machst du woran fest? AMD, Intel, Nvidia arbeiten alle an ihren GPUs und verbessern die RT-Leistung. Rasterizer sind weitgehend ausentwickelt und selbst wenn RT nicht direkt verwendet wird, kommt RT im Background immerhäufiger zum Einsatz um anschließend interpoliert zu werden.
conf_t schrieb:
BTW Multi GPU gibt es bald seit 30 Jahren und hat sich trotz mehrere Versuche nicht im leistungssteigernden Maßstab durchgesetzt.
Ja, weil es bestimmte Probleme hat und sich MultiGPU weiter entwickeln muss und das auch getan hat, nur eben anders.
conf_t schrieb:
Raytracing macht optisch einfach zu wenig unterschied und frisst dabei zu viel Leistung.
Ja und Nein. Die Änderungen sind in der Regel subtil, fallen aber in der Regel genau dann auf, wenn man zwischen den grafischen Modi umstellt und man merkt, dass plötzlich Spiegelungen weg sind, Schatten fehlen, Szenen anders ausgeleuchtet sind und und und.
Würde man versuchen viele der Spiegelungen in Cyberpunk, sowie teile der Schatten und Co wirklich so nachziustellen, dann wäre der Rasterizer heillos überfordert und wäre sogar noch langsamer, weil man zig Render-to-Texture-Ports hätte, man die Lichtquellen stärker miteinander verrechnen müsste usw.