Technik, Zukunft und Potenziale der Turing Architektur (keine Marken-/Firmen-/Preisdiskussion)

Hier nachfolgend ein weiteres, bemerkenswertes Projekt, welches kein RTX Featureset für Pathtracing-/Raytracing benötigt (läuft auf jeder SM3.0 Grafikkarte):

Da kann man sehr schön erkennen, wie drastisch sich doch eine realtime global illumination und spiegelungen auf das Gesamtbild auswirken.

Hier noch ein Vergleichsscreen RT on zu RT off von Shadow of the tomb raider

An
770305


Aus
770306


Die Bilder sprechen Bände, was die natürliche Darstellung der Schatten anbelangt. Man sehe sich allein links oben die Holzkonstruktion oder rechts die Verschattung der Würfel an.
Rechts neben dem Schatten des Turms sieht man bei RT Off einen scharfen Schatten eines Baumes/Gebüschs, wo weit und breit keine Quelle dafür zu existieren scheint, wohingegen bei RT On korrekterweise nur eine minimale, diffuse Abdunkelung des Bereichs stattfindet.

Beispiel 2:

RT on
770311


RT off
770312


Auch hier sticht bei RT On sofort das deutlich natürlichere wirkende, homogenere Bild ins Auge.
Bei RT off stehen Bereiche im Licht, die aufgrund der Tempelkonstruktion verschattet sein müssten.

LG
Zero
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: KlaraElfer
ZeroZerp schrieb:
Hier noch ein Vergleichsscreen RT on zu RT off von Shadow of the tomb raider

Gute Screenshots, die Du da gepostet hast. Mit RTX on sieht es tatsächlich einfach natürlicher aus.
 
ZeroZerp schrieb:
Hier nachfolgend ein weiteres, bemerkenswertes Projekt, welches kein RTX Featureset für Pathtracing-/Raytracing benötigt (läuft auf jeder SM3.0 Grafikkarte):

Stimmt, das sieht wirklich sehr cool aus.
Zwei Dinge sind mir bei den Minecraft-Demos aufgefallen:

  1. Das Licht ist immer sehr hart, was ein Indiz für eine geringe Anzahl von Strahlverfolgungen sein könnte.
  2. Die Sichtweite ist meist extrem begrenzt, was ein Indiz dafür sein könnte, dass die FPS extrem einbrechen, sobald man die Sicht nicht künstlich beschränkt.
Insgesamt denke ich schon das Ray- bzw. Pathtracing die Zukunft ist, aber ich glaube nicht an die Zukunft von RTX. RTX, insbesondere wenn es wirklich laufen soll, ist einfach zu teuer, was für Entwickler den doppelten Aufwand bedeutet, weil sie weiterhin den Mainstream-Markt ohne RTX bedienen müssen, wenn sie Geld verdienen wollen.

Stattdessen glaube ich, dass sich mittelfristig hybride Modelle auf klassischer Hardware durchsetzen werden, die parallel zur GPU auf der CPU eine Baumstruktur (e.g. Octrees) mitführen, die das finden relevanter Strahlen in logarithmischer Zeit ermöglicht.
Das muss auch nicht zwangsläufig statisch sein, auch in der Vergangenheit gab es Ansätze, die die Struktur für jeden Frame neu aufgebaut haben.
Möglich wird dies natürlich nur durch den nahezu sprunghaften Anstieg der Kernzahl der CPUs in den letzten Jahren, die es erlauben, ein oder mehrere Kerne für diese Aufgabe zu opfern.
 
R1ng0 schrieb:
aber ich glaube nicht an die Zukunft von RTX.
RTX ist ja nur der Name der Grafikkartenserie bzw. des Hardware- Featuresets. Die entscheidende Schnittstelle ist ja DXR oder Vulkan RT.
Dieser ist es völlig egal, was da im Hintergrund die Instruktionen bearbeitet.
Allerdings ist es denke ich fast ausgeschlossen, dass ohne spezialisierte Einheiten in absehbarer Zeit eine Adäquate Leistung in Sachen RT abrufbar sein wird. Wo soll denn die 10-20 Fache Leistung plötzlich aus FP32 und FP16 Einheiten rausgeholt werden können?

Stattdessen glaube ich, dass sich mittelfristig hybride Modelle auf klassischer Hardware durchsetzen werden, die parallel zur GPU auf der CPU eine Baumstruktur (e.g. Octrees) mitführen, die das finden relevanter Strahlen in logarithmischer Zeit ermöglicht.
Du hast bei Hybriden Modellen (Octrees) das Problem der Genauigkeit. Eine GI mit Gradienten mag damit noch funktionieren (auch wenn es ab und zu zu clipping- Fehlern kommen wird), wie man damit aber pixelgenaue Berechnungen wie Schatten und Reflexionen hinkriegen soll, erschliesst sich mir noch nicht so ganz.

Zudem hat man ja bei Erstellung des Octrees über die CPU ja dann wieder ein Problem. Die Funktion wird exklusiv einem Nutzerkreis mit sehr starken Prozessoren vorbehalten sein.

Ich halte den jetzigen Ansatz schon für richtig. Das Problem ist ja einzig und allein der Preis. Die Technik dahinter funktioniert ja, wie man an den verschiedenen Titeln sehen kann, wie gewünscht.

Aber auch da wird die üblich ein Preisverfall einsetzen.

Grüße
Zero
 
Zuletzt bearbeitet:
Ich bin in der Materie schon seit vielen Jahren nicht mehr drin. Aber nach meinem Verständnis ist ein Problem bei Pathtracing das Problem, das die meisten berechneten Strahlen zu keinem verwertbaren Ergebnis führen, d.h. umsonst berechnet wurden. Und selbst dann ist das Ergebnis nicht immer befriedigend, bzw. verrauscht, wo sich dann die Frage stellt, ob beispielsweise eine Verdopplung der Rechenkapazität eine Verdopplung der Bildqualität nach sich ziehen würde (keine Ahnung, ob das logarithmisch, linear, polynomiell oder exponentiell ist).
Hier könnten Baumstrukturen auf der CPU helfen, die meisten Pfade auszuschließen, bzw. in logarithmischer Zeit diejenigen zu finden, die relevant zum Gesamtergebnis beitragen.

Mit anderen Worten, die Frage ist, ob brute force (Monte Carlo) die Lösung ist oder ob das, angesichts steigender Kernzahl auf den CPUs, nicht noch smarter ginge.

Mir ist schon klar, dass das vermutlich nicht ganz so einfach ist, wie von mir dargestellt, sonst würde es schon so gemacht.
Aber bevor die ersten Leute mit BSp-Bäumen und Portal-Engines gekommen sind, hätte man die Ergebnisse ja auch nicht für möglich gehalten. Dabei ging es immer darum, die Anzahl zur Laufzeit potenziell darzustellenden Objekte zu minimieren
 
  • Gefällt mir
Reaktionen: .Sentinel.
Eine neue Methode, die Berechnung weicher Schatten zu vereinfachen, wurde ja schonmal hier angesprochen. Wie @R1ng0 schon sagt, müssen weitere clevere Lösungen gefunden werden, um den Rechenbedarf bei Pathtracing zu verringern. Dann steht auch einem nicht-hybriden Ansatz weniger im Weg.
 
  • Gefällt mir
Reaktionen: .Sentinel. und R1ng0
R1ng0 schrieb:
Ich bin in der Materie schon seit vielen Jahren nicht mehr drin. Aber nach meinem Verständnis ist ein Problem bei Pathtracing das Problem, das die meisten berechneten Strahlen zu keinem verwertbaren Ergebnis führen, d.h. umsonst berechnet wurden.
Das kommt darauf an, was man mit dem BVH Ergebnis machen will, denn auch ein Strahl, der nichts trifft würde z.B. in Sachen GI, AO etc. ein relevantes Ergebnis liefern. Bei RT ist ja sowohl wichtig, ob was getroffen wird, aber für mancherlei Berechnung eben auch, ob nichts getroffen wird.

Und selbst dann ist das Ergebnis nicht immer befriedigend, bzw. verrauscht, wo sich dann die Frage stellt, ob beispielsweise eine Verdopplung der Rechenkapazität eine Verdopplung der Bildqualität nach sich ziehen würde (keine Ahnung, ob das logarithmisch, linear, polynomiell oder exponentiell ist).
Da sind nicht die RT Einheiten das beschränkende Maß (die sind bei der 2080TI für 4K mit 60FPS für 20Rays pro Pixel ausgelegt), sondern die Shader(cores), die dann im Hintergrund eine Bewertung ausführen und evtl. weitere Shader(programme) anstoßen müssen.

Hier könnten Baumstrukturen auf der CPU helfen, die meisten Pfade auszuschließen, bzw. in logarithmischer Zeit diejenigen zu finden, die relevant zum Gesamtergebnis beitragen.
Das ist mit das A und O der Technik und wird in sämtlichen Grundlagen mit Priorität erwähnt.

z.B.
https://developer.nvidia.com/rtx/raytracing/dxr/DX12-Raytracing-tutorial-Part-1
Stichwort acceleration structure.

Mit anderen Worten, die Frage ist, ob brute force (Monte Carlo) die Lösung ist oder ob das, angesichts steigender Kernzahl auf den CPUs, nicht noch smarter ginge.
Genau das befindet sich bereits in der Optimierung. Battlefield 5 hat da schon einen recht effizienten algorithmus, der die Strahlen da konzentriert, wo sie auch tatsächlich einen Effekt haben.

Mir ist schon klar, dass das vermutlich nicht ganz so einfach ist, wie von mir dargestellt, sonst würde es schon so gemacht.
Siehe oben- Man setzt derlei Techniken bereits ein.
Die Optimierungen funktionieren immer besser (Battlefield 5), so dass man im letzten Update im Setting Ultra aufgrund frei gewordenen Renderbudgets die Anzahl der verschossenen Strahlen erhöhen konnte.

LG
Zero
 
Zuletzt bearbeitet:
Na ja, so wie ich das sehe, sind das flache Strukturen und vor allem kein einzelner Baum für die ganze Geometrie, der Gewinn daher nach meinem Verständnis linear, nicht logarithmsich.
Ich dachte eher an etwas wie diese andere Demo, das hier letztens gepostet wurde, allerdings voxel-basiert (war das von Crytek?). Nur da war, wieder nach meinem Veständnis, die Struktur so organisiert, dass sie nach jeder Bewegung der Kamera, "gepflegt" werden mußte, was bei Kamera-Schwenks (derzeit noch) zu zeitintensiv ist. Ein anderer Ansatz wäre weniger sophisticated, bei dem die Struktur für jeden Frame neu aufgebaut wird, was mitunter schneller sein kann, weil der Verwaltungsaufwand entfällt.
 
Hier hat einer den Anteil an DIE- Fläche für die RTX Einheiten gemessen:
https://www.reddit.com/r/nvidia/comments/baaqb0/rtx_adds_195mm2_per_tpc_tensors_125_rt_07/

DieTPCsSizeSize Without RTX
TU10236754684
TU10424545498
TU10618445410

Die Einheiten nehmen deutlich weniger Platz ein, als es einige vermutet hatten...

Somit löst sich der Vorwurf, der im Raum stand, dass man den vorhandenen Platz lieber für standard- Shader hätte nutzen sollen, die dann einen massiven Geschwindigkeitsschub in standard Rasterszenarien gebracht hätten, mehr oder weniger in Luft auf.
Viel mehr Shader wären das nicht geworden und in Anbetracht der älteren Architektur wäre auch die Skalierung nicht mehr günstig verlaufen.

Hier ein interessanter Vortrag in Sachen Weiterentwicklung von Global Illumination durch RT:
https://www.gdcvault.com/play/1026182/

Und hier, wie die Schatten in Shadow of the Tomb Raider geraytraced wurden und warum man das überhaupt macht:
https://www.gdcvault.com/play/1026163/

So sind auf herkömmlichem Wege diverse Arten des Schattenwurfs erst garnicht machbar und zweitens ist die Performance nur bei einer sehr begrenzte Anzahl an dynamisch schattenwerfenden Lichtquellen annehmbar und nimmt mit jeder weiteren Lichtquelle im Gegensatz zum Raytracing- Ansatz rapide ab.

LG
Zero
 
Zuletzt bearbeitet:
Ein weiteres Beispiel eines Environment- Artists mit mehreren RT Effekten gleichzeitig (RT Global illumination, RT Spiegelungen, RT Ambient Occlusion, RT Schatten)

https://www.artstation.com/artwork/zmByL

Da kann man schon gut erkennen, wo in Zukunft die Reise hingehen kann.

LG
Zero
 
Vulkan Path Tracing Performancezahlen (kein Hybrid- Rendering)

With drivers 425.31, VK_NV_ray_tracing is now exposed in Vulkan on Pascal GPUs as well. I was curious to see how the old GTX 1080 Ti would fare against the RTX 2080 Ti in a pure ray tracing example (i.e. no hybrid rendering).

Scene 1Scene 4
GeForce RTX 2080 Ti25.3 fps10.4 fps
GeForce GTX 1080 Ti3.6 fps1.3 fps

Quelle:
https://www.reddit.com/r/nvidia/comments/bc68kl/vulkan_rtx_path_tracing_rtx_vs_gtx/

Ausführbare Detei:
https://github.com/GPSnoopy/RayTracingInVulkan/releases/download/r2/RayTracingInVulkan.r2.7z

Somit hat nvidia bezüglich der Leistungsfähigeit der RTX Architektur keine Märchen erzählt (theoretisches Maximum 10x schneller als Pascal):
Szene 1 - Um den Faktor 7 schneller
Szene 2 - Um den Faktor 8 schneller

Zudem ist das KI Malen auf GitHub veröffentlicht:

Beispiel:
https://camo.githubusercontent.com/...3504144452f2f696d616765732f6f6365616e2e676966

https://github.com/NVlabs/SPADE

Grüße
Zero
 
Ein neuer Titel am RT- Himmel:
https://www.grimmstargame.com/

Hier wird auf die Problematik eingegangen, die sich z.B. bei Space- Spielen ergibt, weil man dort kaum/keine Effekte vorberechnen kann und diese Aufgrund der Skalierung mit Standard- Rastermethoden fehlerbehaftet sind:

Hier sieht man sehr schön, dass RT in diversen Bereichen einfach auch ein Problemlöser sein kann...
 
  • Gefällt mir
Reaktionen: KlaraElfer und kisser
Die Integration des RTX Pfades im Octane Renderer schreitet voran (die erste Integration soll Mitte des Jahres freigegeben werden) mit Geschwindigkeitvorteilen bis zum Faktor 7.5 im Vergleich zu den Karten ohne RTX Featureset:
774931

https://render.otoy.com/forum/viewtopic.php?f=7&t=71067

Somit zeichnet sich ab, dass Karten mit RTX Featureset durch eine entsprechende Unterstützung sich geradezu zu einem "Schnäppchen zum Schleuderpreis" im Rendersektor entwickeln.
Man zahlt noch nicht mal das Doppelte gegenüber den üblichen Karten, erhält aber in einigen Disziplinen eine um Faktoren höhere Leistung

Kein Wunder, dass nVidia dort in große Beklemmungen gekommen ist, als sie sich einen Preis für das Produkt Turing &Co ausdenken mussten, wenn man bedenkt, was die Dinger zeigen, wenn sie entsprechend genutzt werden.

Soviel zum Holzhammerargument die RTX Karten seien zu teuer.
Und deshalb folgt auch immer meine Frage darauf: Zu teuer unter welchem Aspekt?

Grüße
Zero
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: KlaraElfer und kisser
und wird vermulich nur bei der Pro Treiber Version der Quadro Karten aktiviert werden .... , ist dasselbe wie bei der Radeon VII , die nur das Basis Feature Set im Pro Treiber erhält und nicht die komplette Workstation Unterstützung , würde mich schon stark Wundern wenn NV da im Treiber nicht gegensteuert bei den Consumer Karten um unliebsame Konkurrenz zu ihren RTX Quadro Karten zu eleminieren ...

Die kleinste Quadro
Die größte Quadro , nur 6799 € ein wahres Schnäppchen
 
Zuletzt bearbeitet:
Bezüglich Raytracing hab ich vor kurzem nochmal geschaut bei Metro Exodus, aber laut eines Artikel (den ich grad mal wieder nicht finde) werden bei ihrer Implementierung von GlobalIllumination keine Reflektionen mit Raytracing berechnet. Also es berechnet alles außer Reflektionen. Laut Artikel wäre "Metro Exodus damit das Gegenteil von Battlefield V, welches nur die Reflektionen mit Raytracing berechnet".
Gibt es irgendeinen Spieletest, der "alles" beinhaltet? Also "alles" im Sinne von Licht, Schatten, Reflektionen (...gibt's noch mehr?). Ist der Atomic Heart Test sowas? Allerdings steht da nichts von GI. Berechnet wenigstens der Benchmark Port Royale alle 3 Dinger mit Raytracing?


Bezüglich Technik/Zukunft/Potentiale ist mir dann plötzlich eingefallen, dass in Spielen das Wasser nicht physikalisch richtig berechnet wird (z.B. als Masse von vielen physikalisch korrekt agierenden Tröpfchen). Das sind alles nur Flächen mit einem Vertex-Animator, und dann eben zusätzlich ein Partikelemitter an diversen Stellen (Gischt). Kommt "echtes Wasser" dann als nächstes? Ich glaube Nvidia hatte dazu auch eine Demo. Könnten sie dann auf die Idee kommen PhysX-Cores in die Grafik Chips einzubauen?
 
franzerich schrieb:
Bezüglich Raytracing hab ich vor kurzem nochmal geschaut bei Metro Exodus, aber laut eines Artikel (den ich grad mal wieder nicht finde) werden bei ihr... aut Artikel wäre "Metro Exodus damit das Gegenteil von Battlefield V, welches nur die Reflektionen mit Raytracing berechnet".
Also als Gegenteil kann man das nicht bezeichnen. Es berechnet einfach nur einen anderen Teilaspekt des Lichts.

Gibt es irgendeinen Spieletest, der "alles" beinhaltet? Also "alles" im Sinne von Licht, Schatten, Reflektionen (...gibt's noch mehr?). Ist der Atomic Heart Test sowas? Allerdings steht da nichts von GI. Berechnet wenigstens der Benchmark Port Royale alle 3 Dinger mit Raytracing?
Ja- Atomic Heart vereint mehrere RT Effekte, genauso wie der kommende Titel "control" von Remedy. Ob "alle" wird man im finalen Produkt sehen...

Aber hier kannst Du alle Effekte im Zusammenspiel sehen:
https://www.computerbase.de/forum/t...-firmen-preisdiskussion.1824660/post-22525487

https://www.computerbase.de/forum/t...-firmen-preisdiskussion.1824660/post-22444665


Bezüglich Technik/Zukunft/Potentiale ist mir dann plötzlich eingefallen, dass in Spielen das Wasser nicht physikalisch richtig berechnet wird (z.B. als Masse von vielen physikalisch korrekt agierenden Tröpfchen).
Hardwarebeschleunigte Physik gibt es schon länger. Das können die Cuda Cores ganz gut.
Bezüglich Flüssigkeiten und sonstigen Partikelgestützten Effekten gibts nVidia Flow/Flex:

In Sachen Simulation offener Gewässer gibt es Waveworks:

Lustig- Der Typ auf dem Titelbild sieht aus wie "Kloppo"

LG
Zero
Ergänzung ()

MK one schrieb:
und wird vermulich nur bei der Pro Treiber Version der Quadro Karten aktiviert werden .... ,
Es gibt es keinerlei Einschränkung bezüglich der Karten bei Octane. Die Mindestvoraussetzungen für die Nutzung von RTX lauten von offizieller Seite:

Requirements:

  • Windows (64-bit) 7 (SP1), 8 or 10 (1803).
  • NVIDIA graphics card (CM 3.0 or higher, CM 7.5 is required for RTX support).
  • NVIDIA driver 416.94 (GeForce) or 416.78 (Quadro) or newer (except 418 series).

Grüße
Zero
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: franzerich
Vega 64 + Unreal Engine 4 mit RT enabled

Auslastung der Vega ca 70 % , zufällig gesehen
 
Zurück
Oben