Technik, Zukunft und Potenziale der Turing Architektur (keine Marken-/Firmen-/Preisdiskussion)

Also ich finde den Thread sehr interessant... da ich die Innovation in Sachen Grafik sehr begrüsse. Und das NV aufgrund seiner Marktdominanz diesen Schritt wagt finde ich mutig.

Ich bin gespannt was damit alles möglich ist... und ich denke sehr viel wenn sich kluge Leute daran setzen.


Ich habe mal ein Interessantes Video gefunden wo wenn ich das richtig verstanden habe im Jahre 2016 Raytracing auf einem Power VR Mobile Chip vs 980ti realisiert wurde und gegen ende des Videos in Echtzeit wie in der BF5 Demo Raytracing in Realtime dargestellt ist. Wenn ich das richtig verstanden habe;)

Ich persönlich denke das es zeigt das wenn das schon früher mit schwächerer Hardware möglich dank kluger Algorithmen dann wird das mit RTX über die Zeit eventuell zu mehr führen als wir bisher sahen. Ich denke das 60FPS / Raytracing in 4k auch auf einer 2070 möglich sind....;)

 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: .Sentinel.
Also doch... soviel zum Thema ,,Turing kann nicht 4K und Raytracing"

 
ZeroZerp schrieb:

Je öfter ich da jetzt einen Blick reinwerfe, desto mehr habe ich den Eindruck, dass das kein Architecture Whitepaper ist, sondern hauptsächlich Marketinggeblubber. Die neuen Techniken sind nur angerissen. Keine Aussage über Performancevorteile, Tradeoffs, API-Möglichkeiten/Erweiterungen, kurze Codesnippets zur Verdeutlichung oder ähnliches.
 
Faust2011 schrieb:
@ZeroZerp Kennst Du die Sponza Atrium Scene? Das ist quasi eine Referenz für das klassische Rasterizer Rendering mit Ambient Occlusion. Ich würde das gerne mal sehen, wenn es raytraced wurde - am besten im direkten Vergleich. Hast Du dazu zufällig einen Link gesehen?

Die Szene ist ja quasi der Klassiker für allerlei Rasterized- Kniffe.
Fully raytraced habe ich die aber tatsächlich noch nirgenwo gesehen.
Ergänzung ()

Faust2011 schrieb:
Je öfter ich da jetzt einen Blick reinwerfe, desto mehr habe ich den Eindruck, dass das kein Architecture Whitepaper ist, sondern hauptsächlich Marketinggeblubber. Die neuen Techniken sind nur angerissen. Keine Aussage über Performancevorteile, Tradeoffs, API-Möglichkeiten/Erweiterungen, kurze Codesnippets zur Verdeutlichung oder ähnliches.

Und ja- Natürlich werden die Features hier positiv angepriesen. Ne EInführung bezüglich RTX inkl. Code Beispielen kriegst Du bei dem vorher von mir verlinkten Siggraph Video. Ansonsten muss man sich bei den einschlägigen Game Engine und Programmierer- Foren die Informationen zusammensammeln.

Dort wird auch sehr schön das Potenzial erklärt, was in den neuen Rechenwerken von Turing schlummert. Gerade vor dem Hintergrund dass darauf eingegangen wird, zu was findige Programmierer die Shader inzwischen treiben können.

Grüße
Zero
Ergänzung ()

Computx schrieb:
Also doch... soviel zum Thema ,,Turing kann nicht 4K und Raytracing"


Soviel dazu- Viele verstehen einfach nicht, wie Raytracing funktioniert und bewerten die Technik anhand von schlechten Alpha Demos, die in zwei Wochen zusammengeschustert wurden.

Ich frage mich immer wieder, was nVidia geritten hat, das Ding ohne zu 100% performant funktionierenden "Bling Bling" Referenz- Titel auf den Markt zu werfen.

Die haben ja jetzt markttechnisch wirklich keinen Druck...
 
Zuletzt bearbeitet:
ZeroZerp schrieb:
Soviel dazu- Viele verstehen einfach nicht, wie Raytracing funktioniert und bewerten die Technik anhand von schlechten Alpha Demos, die in zwei Wochen zusammengeschustert wurden.

Ich frage mich immer wieder, was nVidia geritten hat, das Ding ohne zu 100% performant funktionierenden "Bling Bling" Referenz- Titel auf den Markt zu werfen.


Ja das stimmt schon denke auch das es etwas unglücklich war den Entwicklern nicht mehr Zeit einzuräumen. Denn in zwei Wochen kann man nicht völlig umfänglich diese neue Technik ausnutzen. Kann mir vorstellen das Sie eventuell wirklich ein Zeitliches Problem hatten mit den Endgültigen Spezifikationen des Turing und gleichzeitig irgendwie ,,liefern" mussten.

Der Aktien Börse sei (un)dank...

Deswegen haben sie wahrscheinlich auch eine Ti um ,,auf ,,Nummer Sicher zu gehen" benutzt... Denn ich glaube die wussten auch das in kürze der Zeit nicht wirklich viel zu machen ist.

Ich bin aber vom Potenzial der Turing Architektur dennoch sofort begeistert gewesen. Und das obwohl ich von den anderen Verbesserungen zu dem Zeitpunkt noch gar nichts wusste. Und wenn AMD sowas demonstriert hätte wäre ich davon ebenso begeistert gewesen...

Ich denke das dieser Chip wirklich ein Meilenstein ist. Eine wirklicher Fortschritt in vielen Punkten. Und hoffe das NV es noch schafft das auch zu demonstrieren.
 
  • Gefällt mir
Reaktionen: .Sentinel.
ZeroZerp schrieb:
Fully raytraced habe ich die aber tatsächlich noch nirgenwo gesehen.

Wahrscheinlich weil auch Turing hier nur 3 fps in FullHD ermöglicht ;) :lol:

ZeroZerp schrieb:
zu was findige Programmierer die Shader inzwischen treiben können

Kennst Du shadertoy.com? Ziemlich coole Seite, um Shadereffekte auf die Schnelle auszuprobieren oder einfach zu schauen, was so möglich ist. Beispielsweise ein Furmark im Browser: furball
 
@Faust2011
Ich bin geplättet.... Das ist ja mal wirklich eine absolut praktische Sache. Kannte ich noch nicht.
Der Spieltrieb ist geweckt :)
Ergänzung ()

Interessant auch dieses Statement:
4K at 60 fps = 0.5 Gigarays/s, assuming one ray/pixel. Thus RTX 2080 Ti allows you to cast 20 rays per pixel in scenes like this at 60 fps (4K). Assuming of course that you use 100% of your frame time for TraceRays calls, or overlap TraceRays calls (async compute) with other work

https://twitter.com/SebAaltonen/status/1041631227168600064?ref_src=twsrc^tfw|twcamp^tweetembed|twterm^1041631227168600064&ref_url=https://s9e.github.io/iframe/twitter.min.html#1041631227168600064

Ursprungsthread (Lesenswert):
https://forum.beyond3d.com/threads/nvidia-turing-architecture-2018.60890/
 
Zuletzt bearbeitet:
Ich habe wohl nur wenig Ahnung von der Thematik, aber trotzdem ein interessanter Thread. Direkt erfrischend abseits der ständigen Lagerdiskussionen.
 
  • Gefällt mir
Reaktionen: xXQuadXx und Model
Hier vielleicht auch noch ein Interessantes Video... Mit einigen Interessanten Einblicken und aussagen um die Turing Architektur.

 
Hier mal ein Beispiel, bei dem nicht jeder gleich an Raytracing denkt. Pathtracing und Sound in Spielen:


Ist natürlich auch nochmal ne Nummer.... Die 4000 Rays/sek, die das zusätzlich kostet, würde ich dafür dann auch nochmal sehr gerne opfern. Soundtechnisch ist das ein absoluter Gamechanger...

http://www.pcgameshardware.de/Nvidi...T-Cores-koennen-auch-Toene-berechnen-1263032/

Grüße
Zero
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: CMDCake
Ich find es auch klasse, dass nVidia einen Schritt voran schreitet Richtung Zukunft und Änderungen vorschlägt, die zurzeit viel Kosten (und daher eher schlecht aufgenommen werden), in Zukunft aber reichlich Potential haben dürften. Zwei Dinge sehe ich dabei als kritisch an:
1. Es muss sich noch zeigen, welche der neuen Technologien, insbesondere auf der Software-Seite, auch von AMD genutzt werden können. Nochmal die Situation wie aktuell bei GSync und FreeSync will sicherlich keiner. Da ist es besonders drastisch, da GSync teuerer ist als FreeSync, allerdings ist das sozusagen bei den Extra-Recheneinheiten aktuell auch der Fall (Chipfläche kostet).
2. Die Entwickler werden sich anfangs sehr genau überlegen müssen, welche Effekte sie umsetzen wollen. Dabei ist es wichtig, dass nicht einfach der Gedanke herrscht, dass alles recht einfach einzubinden ist, sondern dass man die Kontrolle über die benötigte Anzahl an RT-Cores bzw. Tensor-Cores behält. Also entweder braucht man ein gutes Optionsmenü, wo jeder User selbst die Qualität einstellt (Was heutzutage ja auch bei Tesselierung viel hilft, früher konnte man da nichts auswählen), oder die Entwickler entscheiden je nach Spiel, ob gute Schatten oder gute Reflexionen wichtiger sind und in welchem Ausmaß. Letzteres hat ja auch bei BF V die Diskussion losgetreten.

Wenn diese beiden Punkte gut gelöst werden, sehe ich nichts, was einem neuen Sprung in Grafikqualität im Wege stünde.
 
Ja ich finde auch das diese Punkte durchaus wichtig sind. Gerade in Bezug auf AMD darf Nvidia nicht den Fehler machen so wie bei G-Sync und Free/Sync, da hier versucht wird seitens Nvidia wirklich eine Revolution in Sachen Echtzeit Computergrafik einzuleiten.

Und bei aller Vormachtstellung seitens Nvidia im PC Grafikmarkt, können sie meiner Meinung nach das nicht alleine schaffen. Kooperation und eine ehrliche Offenheit in Bezug aus Software ist aus meiner Sicht in dem Fall wirklich notwendig.

Ich vermute aber das AMD oder Intel ebenfalls etwas in der Richtung machen werden. Denn DXR wurde sicher nicht Nvidia exklusiv von MS erschaffen. Und Konsolen alla Xbox arbeiten mit AMD Chips auch im Jahre 2020/21 wenn die neue Gen kommt....
 
Neue RTX Demo im Anflug:

Ist wohl aber noch nicht downloadbar...
Hmmm...
 
Ende-/Anfang diesen Jahres sind sollte der Support für RTX/DXR in den großen Engines gesetzt sein:
https://www.gamestar.de/artikel/cry...00-fixes-plus-raytracing-support,3334982.html

https://forums.unrealengine.com/dev...9-how-do-we-try-out-dxr?p=1520782#post1520782

https://github.com/Unity-Technologi...mmit/4552c5acce0a919abf5a644771b00bb660b85d89

https://www.ea.com/frostbite/news/r...ve-global-illumination-workflows-in-frostbite

Das ist schonmal eine gute Basis für weitläufigen Support.
Mal sehen, was die Entwickler draus machen...

Grüße
Zero
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Faust2011
@ZeroZerp Klasse, dass Du mit diesem Thread am Ball der Entwicklung von RTX bleibst.

Gibts eigentlich was Neues zur Performance? 60fps bei 1080p und dann nur 2 Rays pro Bildpunkt (oder so ähnlich)... ist das weiterhin das, was Turing maximal in kommenden Spielen leisten kann?
 
@Faust2011
Ich treib mich derzeit viel in verschiedenen Programmiererforen der großen Engines rum.

Aber hier mal ein Praxisbeispiel (Zitat von mir in einem anderen Thread, wo es um das gleiche Thema geht):
Wenn man die Demo von Remedy nimmst:

https://segmentnext.com/2018/10/17/nvidia-rtx-2080-ti-remedy/
in der sie alle Register ziehen, kommen die auf Berechnungszeiten von 2.3ms für Schatten, 4.4ms für Reflexionen und 2.5ms für den Denoiser.

Sind 9.2ms, womit bei Einsatz all dieser Techniken eine theoretische FPS Rate von knapp über 100FPS möglich wäre, wenn die Berechnung parallel zum sonstigen Rasterisierungsverfahren laufen würde (da wird es sicher noch irgendwelche Verluste durch Abhängigkeiten bzw. nicht- parallelisierbare Vorgänge geben).

Derzeit wird viel diskutiert, ob die Denoiser auch mit weniger Rays zufriedenzustellen kann, ob man die RT Parts mit asynchroner Framerate laufen lassen kann oder diese gar über die Tensor Cores interpolieren oder Vorhersagen kann (wie z.B. bei asynchronous spacewarp https://developer.oculus.com/blog/asynchronous-spacewarp/), so dass z.B. nur jedes zweite Frame voll berechnet werden müsste.

Da die Programmierer jetzt erstmal Blut geleckt haben (da die Technik einiges einfacher und besser macht), wird man in Zukunft alle möglichen und unmöglichen Tricks/Techniken zu sehen bekommen, um die Effekte mit starker Performance auf den Bildschirm zu pflastern.

Endgültige Aussagen wird man aber da noch nicht treffen können. Dem Anschein nach, kann man aber, wenn die Technik einigermaßen sinnvoll eingesetzt würde, in den Anfangszeiten wohl eher von maximal 1440P in 60FPS ohne große Tricksereien ausgehen können.

Ich denke, dass das für die meisten auch in Ordnung geht. Bei unseren High- End- Kunden ist 1440P derzeit das Maß der Dinge und nur die wenigsten sind auf 4K.

Grüße
Zero
 
ZeroZerp schrieb:
Sind 9.2ms, womit bei Einsatz all dieser Techniken eine theoretische FPS Rate von knapp über 100FPS möglich wäre, wenn die Berechnung parallel zum sonstigen Rasterisierungsverfahren laufen würde (da wird es sicher noch irgendwelche Verluste durch Abhängigkeiten bzw. nicht- parallelisierbare Vorgänge geben).

Genau dieser Punkt ist mir noch nicht so ganz klar, denn in den Abbildungen zur Architektur sieht man eine klare Aufteilung zwischen den klassischen SM-Cores (heißen die so?), Tensor-Cores und den RTX-Teil. Demnach müsste doch über einen Scheduler alles gut parallelisierbar sein - auch wenn es eventuell bedeuten würde, dass immer an zwei Frames gleichzeitig durch die Einheiten gearbeitet wird, da das Denoising erst nach dem Raytracing stattfinden kann. Andererseits ist erst danach wiederum der finale Schritt in der Renderpipeline (Rasterizing?) möglich... oder doch nicht? Ach, ich lass es jetzt, ich hab da einfach zu wenig Ahnung :D
 
@Faust2011
Ja- Da hast Du schon recht. nVidia hat sich viel Mühe gegeben, dass die einzelnen Gewerke möglichst unabhängig voneinander arbeiten können.
Du kannst ab dem Punkt, in dem die Szenengeometrie inkl. Attributen an die Grafikkarte übermittelt wurde, parallel anfangen, mit Shadern und den RT Cores zu arbeiten.

Und ja- das Denoising kann natürlich erst stattfinden, nachdem durch die RT Cores und den Shadern entsprechendes "Pufferbild" erstellt wurde, welches durch die relativ geringe Zahl an Rays ziemlich rauschig wirkt.
Die Tensor Cores erkennen den Rauschanteil und entfernen diesen. Die Farb-/Helligkeitsinformation (je nach Effekt) wird dann mit dem nach alten Standard generierten Bild verschmolzen.

Der Vorgang der Rasterisierung an sich, generiert über die Werte der einzelnen Abteilungen aus den Geometriedaten dann einzelne Pixel deren Farbwerte eben durch die einzelnen Pufferbilder bestimmt werden.

Hier mal eine Beispieldemo aus der Community, die mit 140-200 FPS läuft:

Ist jetzt keine ausgesprochene Schönheit, die Demo. Zeigt aber, dass RT nicht zwangsläufig 1080P bei 30FPS bedeutet.

Auch das hier:
https://derstandard.at/200008612799...ter-ueberrascht-mit-sensationeller-Raytracing

Es wird also so sein, wie in der normalen Spielelandschaft auch. RTX bzw. RT funktionieren nur so gut, wie es implementiert wird.

Grüße
Zero
 
Zuletzt bearbeitet:
Die ersten Tests der RTX Serie mit v-ray:
https://www.chaosgroup.com/blog/profiling-the-nvidia-rtx-cards
Derzeitiger Stand 1,5x-1,8x schneller als die 1080TI.

Da sollte ja durch die hochspezialisierten meines Erachtens noch deutlich mehr drin sein.

Der Entwickler relativiert allerdings die Ergebnisse:
For the three scenes, the RT Cores provide a speedup of 1.78x, 1.53x and 1.47x respectively compared to the pure CUDA version. We expect these results to get better as we get closer to the official builds in the coming months.

Mal sehen, wo sich das hinbewegt. Für Entwickler bzw. Leuten die V-Ray benutzen ist dann doch ein spürbarer Leistungssprung zu erwarten.

Hier noch die ersten Tests mit Octane
https://www.facebook.com/groups/OctaneRender/permalink/1120240151486395/
 
Zuletzt bearbeitet:
Zurück
Oben