Technik, Zukunft und Potenziale der Turing Architektur (keine Marken-/Firmen-/Preisdiskussion)

@Faust2011
Ja- Ich weiss... Das macht gerade die Runde. Hat aber letztenendes nicht ganz so viel mit der Technik an sich zu tun.
Es ist eher so, dass man aufgrund des überhasteten Releases nun die Lernkurve der Entwickler, diese Technik effektiv einzusetzen, "miterleben" kann.

Auch hat sich ja zwischenzeitlich herausgestellt, dass der Treiber von NVIDIA einfach viele Funktionen noch nicht implementiert hat, die eine effektive Nutzung der neuen Cores überhaupt erst zulässt.

Wir werden sehen, wo wir performancetechnisch landen werden. Ich denke aber, dass da noch einiges passieren wird.

Danke für den Beitrag!

Interessant ist dann vielleicht schon wieder das hier, wenn vielleicht auch nur eine "Abwandlung" der bekannten Techniken.

Dort experimentiert man mit Game- Engine Rendering Verfahren, die über Deep Learning neural Networks laufen.

Sieht schon garnicht so schlecht aus:

https://www.tomshardware.com/news/nvidia-ai-research-render-graphics,38185.html
 
Zuletzt bearbeitet:
ZeroZerp schrieb:
Dort experimentiert man mit Game- Engine Rendering Verfahren, die über Deep Learning neural Networks laufen.

Oh ja, das sieht gut aus. Irgendwo hatte ich das heute auch schon aufgeschnappt. Allerdings geht es da ja gerade nicht um simples Game-Engine Rendering, sondern um das Erstellen von virtuellen Welten per se per AI/KI. Das ist jetzt erstmal soweit ein Novum. Finde ich ganz interessant. Mal schauen, insbesondere wie detailliert solche Modelllandschaften von einer KI "entworfen" werden können.
 
Hier ein interessantes und hochwertiges Experiment in Sachen raytraced global Illumination.
Denoising fehlt noch- Sieht aber schon sehr gut aus:
 
Das ist allerdings ein doch ungeschickt ausgewähltes Beispiel von Nvidia, um Raytracing zu demonstrieren. Voxelgrafik passt doch für GI-Effekte mal gar nicht?!
 
@Faust2011
So wie ich das sehe ist das ein Projekt von jemandem, der an sich nichts mit NVIDIA am Hut hat.
Ich finde, dass man trotz des Minecraft- Stils schon ganz gut die Beleuchtung, das Light Bleeding und deren Qualität sehen kann.
Fehlt mal wieder der "wunder- Denoiser" der Tensor- Cores ;)
 
Touring Mesh- Shader ist testbar.
https://www.reddit.com/r/nvidia/comments/a7m2gq/using_turing_mesh_shaders_nvidia_asteroids_demo/

https://devblogs.nvidia.com/using-turing-mesh-shaders-nvidia-asteroids-demo/
Es ist jedoch eine Anmeldung notwendig.

"The Turing architecture introduces a new programmable geometric shading pipeline through the use of mesh shaders. The new shaders bring the compute programming model to the graphics pipeline as threads are used cooperatively to generate compact meshes (meshlets) directly on the chip for consumption by the rasterizer. Applications and games dealing with high-geometric complexity benefit from the flexibility of the two-stage approach, which allows efficient culling, level-of-detail techniques as well as procedural generation."

Nachtrag- Hab die Demo jetzt "gespielt". Das ist schon der absolute Hammer...
Über 350.000 Asteroiden im Blickfeld mit Licht, HBAO etc. etc. bei 1080P und 150 FPS.
Ich bin platt. Keine sichtbaren LOD- Transitions mehr (Objekte verändern sichtbar ihre Geometrie, wenn man sich ihnen nähert).
Das war bisher immer extrem störend, dass wenn man sich einem Objekt aus der Ferne nähert, dieses stufenweise sichtbar "morpht".

Da wird Herr Aaltonen wohl Recht behalten:
Sebastian Aaltonen - ex-Ubisoft senior rendering lead:

Looks like people are disappointed in RTX ray-tracing performance. Can we finally start the mesh shader hype?

Mesh+task shader brings big perf increase in complex, dynamic high poly rasterized scenes. Most important feature of the RTX cards in my opinion. Waited for it since PS2.

Mesh+task shaders finally fix the huge mistake done way back when hardware T&L was introduced. PS2 programmable geometry pipe was way superior to hardware T&L, vertex shaders, geometry shaders, domain shaders and hull shaders. RTX cards finally make rasterization good again.

Nobody will miss geometry, hull, domain shaders. Or restrictive fixed function index buffer hardware that is utterly ill designed for currently massively parallel machines. Stream duplicate removal + vertex wave packing is not easy to parallelize efficiently.
Das ist wohl tatsächlich ein deutlich größeres Killer- Feature als RT und die Tensor- Cores zusammen...

Hoffentlich integrieren sie das in Elite Dangerous bzw. Star Citizen. Keine platten und teils nicht beleuchtete Sprites mehr- ein ECHTES durchgerendertes Asteroidenfeld mit voller Beleuchtung, Schattierung etc. ohne sichtbare LOD- Transitions.

Das ist wirklich unglaublich, wenn man sich da durchbewegt....

1545248382175.png


Elite dangerous:
1545248959658.png


Star citizen
1545249034477.png
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Faust2011
AllEs schön und gut, ich will Raytracing. Alles andere kommt natürlich auch.
 
Danke, @ZeroZerp, für den Hinweis zum Meshshading und das Zitat des Ubisoft Professionals. Hört sich nicht nur gut an, sondern sieht auch gut aus (also die Grafiken, nicht der zitierte ex-Mitarbeiter :D).

ZeroZerp schrieb:
Hoffentlich integrieren sie das in Elite Dangerous bzw. Star Citizen. Keine platten und teils nicht beleuchtete Sprites mehr- ein ECHTES durchgerendertes Asteroidenfeld mit voller Beleuchtung, Schattierung etc. ohne sichtbare LOD- Transitions.

Und das heißt letztlich, dass man Mesh-Shading nur für Asteroidenfelder verwenden kann? Ist ja langweilig! :D ;)

ZeroZerp schrieb:
Über 350.000 Asteroiden im Blickfeld mit Licht, HBAO etc. etc. bei 1080P und 150 FPS.
Ich bin platt. Keine sichtbaren LOD- Transitions mehr (Objekte verändern sichtbar ihre Geometrie, wenn man sich ihnen nähert).

Zuerst gab es Bump Mapping, um Objekte ein auf der Oberfläche eine gewisse Struktur zu geben, also ein Relief. Später konnte man beim Rendern mit dem Geometry Shader tatsächlich jedes Objekte bzgl. Detailgrad aufblasen und parallel dazu kamen die Tessellation Shader. Das Problem war jedoch weiterhin, dass man bis Direct X 11 / OpenGL nur ca. 10.000 Objekte pro Szene rendern konnte. Das Mesh Shading scheint beides zu lösen, wobei letzteres bereits mit Direct X 12 / Mantle / Vulkan angegangen wurde.

AMD hat übrigens seit Vega etwas ähnliches im Programm (nein, in der Hardware ;)), nämlich die Next Geometry Engine, siehe auch das AMD Vega Whitepaper
 
Faust2011 schrieb:
Und das heißt letztlich, dass man Mesh-Shading nur für Asteroidenfelder verwenden kann? Ist ja langweilig! :D ;)
Hehe- Ja. Ausschliesslich. Sie hätten es asteroids acceleration shader nennen sollen ;)

Letztenendes werden wir so etwas in Hardware gegossen, engineunabhängig und ohne LOD- Plopping erwarten können:

Das Problem war jedoch weiterhin, dass man bis Direct X 11 / OpenGL nur ca. 10.000 Objekte pro Szene rendern konnte. Das Mesh Shading scheint beides zu lösen, wobei letzteres bereits mit Direct X 12 / Mantle / Vulkan angegangen wurde.
Ja- DirectX und Vulkan weiten den Singlecore- Drawcall Flaschenhals, der nun mulithreaded abgearbeitet werden kann. Man hat dadurch die Anzahl der Drawcalls erhöht, die Richtung Grafikkarte "gefeuert" werden konnten.

Die mesh shader eliminieren diesen Flaschenhals dann fast vollständig, weil die Anzahl der notwendigen Aufrufe CPU-Garfikkarte per se extrem gesenkt werden kann. Der Mesh- Shader generiert diese auf der Grafikkarte selbst, weswegen eben auch ein komplettes und x- Fach schnelleres und effizienteres Culling auf den Grafikkarten möglich wird.

Man kann also einen stattlichen Anteil der notwendigen Berechnungen einer Engine von der CPU auf die GPU auslagern.

AMD hat übrigens seit Vega etwas ähnliches im Programm (nein, in der Hardware ;)), nämlich die Next Geometry Engine, siehe auch das AMD Vega Whitepaper
AMD war ja quasi der Pionier (wenn auch in noch deutlich eingeschränkterem Umfang) in Sachen einer großteils auf der GPU ablaufenden Renderpipeline.

Da scheiden sich ja heute noch die Geister, was da bei denen schiefgelaufen ist, dass sie die Entwicklung diesbezüglich noch vor einem Release eingestellt haben. Damals war die Enttäuschung darüber (anscheinend nicht nur bei mir) extrem groß. Das war eines der Auftritte, wo AMD sich nicht mit Ruhm bekleckert hat.

Wir werden sehen, wo sich das bei AMD hinentwickelt. Nachdem auch AMD seit langer Zeit auf den 4096 Kernen wie festgetackert hängen bleibt, wird auch dort ersichtlich, dass es mit Skalierung der Kerne darüber hinaus nicht zum Besten steht, weswegen man auch hier wie NVIDIA den Weg der Restrukturierungen/Optimierungen/Erweiterung des Featuresets gehen muss.
Soviel immer zu denjenigen die Fordern:"Einfach nach mehr Shader- Cores drauf und alles wird automatisch unbegrenzt schneller".
Die Ingenieure von AMD und NVIDIA sind keine Trottel. Wenn das so einfach ginge, dann würden sie diesen relativ unkomplizierten Weg der Geschwindigkeitssteigerung immer weiterreiten.

Grüße
Zero
Ergänzung ()

Colindo schrieb:
Zu AMDs NGG habe ich gestern nochmal gesucht. Inwieweit das ansprechbar ist, ist ja seit Januar 2018 unklar, weil damals der Treiber-Support aufgegeben wurde. Ein Artikel von August 2018 vermutete, dass zum ansprechen eine Änderung in den APIs (Vulkan und DX12) notwendig ist.

Ja- Da wird noch viel spekuliert und keiner weiss so recht, wo die Reise hingehen soll:
https://www.hardwareluxx.de/index.p...twicklungspfad-fuer-primitive-shader-ein.html
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Colindo
Ich bin genau wie dieser Youtuber fasziniert von Raytracing:
Besonders am Ende spricht er für mich.
 
  • Gefällt mir
Reaktionen: Jens1882
@ZeroZerp du hattest doch diese eine Demo "Atomic Heart" in einem Thread in den letzten Tagen gepostet.
Ich habe sie aus den Augen verloren, wäre doch eigentlich wieder was für den Thread?
 
Realtime- Full scene path tracing mittels RTX:
 
  • Gefällt mir
Reaktionen: CMDCake
ZeroZerp schrieb:
Realtime- Full scene path tracing mittels RTX:
Nice find!
 
Zuletzt bearbeitet:
Hier wird mit Raytraced ambient occlusion+refelections experimentiert (UE Version 4.22 mit RTX unterstützung).

Meiner Meinung nach kann man hier sehr gut erkennen, dass Screenspace- Reflections deutlich unterlegen sind, wenn man sich in Räumen bewegt, in dem sich Dinge auch ineinander Spiegeln:


Hier auch nochmal ein schönes Beispiel, wie Raytracing gerade auch in Sachen Beleuchtung/Verschattung neue Maßstäbe setzt:

Grüße
Zero
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Jens1882 und pietcux
Wird in den Videos jeweils auch angegeben mit welcher Hardware das alles berechnet wird? Weil das ist doch eigentlich der interessante Part. Wenn man z.B. dafür noch einen größeren Server zum berechnen benötigt, wird das ganze ja leider noch etwas dauern, bis es soweit ist die Sachen auf den heimischen Bildschirm zu zaubern mit der Hardware die man selber verbaut hat.
 
@Selanius
Erstes Video läuft auf einer 2080TI unter Nutzung der RT Cores.
Zweites Video auf einer GTX970 unter Nutzung der CUDA Cores.

LG
Zero
 
Noch ein schönes Beispiel, was sehr schön die Vorzüge demonstriert, wenn man die Licht/Schattenberechnung über Raytracing durchführt:

LG
Zero
 
  • Gefällt mir
Reaktionen: Jens1882
ZeroZerp schrieb:
was sehr schön die Vorzüge demonstriert, wenn man die Licht/Schattenberechnung über Raytracing durchführt

Findest Du? Ich denke, dass man da auch mit klassischer Schattenberechnung und ein wenig Screen Space Ambient Occlusion recht nahe hingekommen wäre. Ungünstig ist in der Demo eher, dass es keine Reflexionen gibt und beispielsweise auch die Bäume außerhalb des Gebäudes sind recht schlecht modelliert, sodass deren Schattenwurf leider auch klötzenförmig aussieht (aber es ist ja im Minecraft Stil).
 
@Faust2011

Hier der Vergleich:
Minecraft mit SSAO

Du überschätzt SSAO ;)

Du kriegst die von der Lichtquelle weg immer mehr gestreuten Schatten mit Rasterisierung so nicht hin, außer man macht das ganze Prebaked (z.B. über Lightmass auf der UE4 -
), was dann wieder unmengen an Speicher kostet und ebenso Leistung zum Frühstück frisst.

Am besten hat das bis jetzt in der Praxis Asassins Creed Unity umgesetzt:

Einhergehend mit derbsten Performanceeinbrüchen und Hardwareansprüchen und das obwohl wir hier dann eben nicht mehr von dynamischen sondern statischen Vorberechnungen reden.

In solch einem Szenario kannst Du keine dynamischen Lichtquellen benutzen, zerstörbare Objekte können mit dem vorberechneten Licht nicht interagieren.
Dynamischer Tag/Nachtwechsel ist nicht möglich. Schatten hängen immer an der gleichen Stelle und verschieben sich nicht mit der Uhrzeit.
Keine anderen Wetter/Lichtstimmungen möglich (außer im Screenspace, wo es immer extrem kacke aussieht, wenn man bei Regen zwar dann etwas abgedunkelte Räume hat, die aber trotzdem Sonnenschlagschatten werfen, als gäbs kein Morgen mehr).


LG
Zero
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Jens1882
Zurück
Oben