Technik, Zukunft und Potenziale der Turing Architektur (keine Marken-/Firmen-/Preisdiskussion)

@MK one
Das ist möglicherweise nur semi-korrekt....

Jede Anwendung hat natürlich irgendeinen Teil, der sich nicht mehr parallelisieren läßt und zu dem die Laufzeit bei vielen Kernen konvergiert.
Allerdings läßt sich das/die "Problem/Aufgabe" mitunter skalieren, ohne das der nicht-parallele Anteil steigt.

Bei Spielen allerdings ist wahrscheinlich schon nach 16 kernen Schluss.
Da wird sich dann zeigen, dass der Frühling, der mit Ryzen begonnen hat, schon bald wieder vorbei sein wird und es, sobald 16 Kerne Mainstream geworden sind, wieder um die Taktrate gehen wird.

Ich bin unsicher bezüglich dessen, was er über RT sagt, da ich mich mit den RT-Kernen zugegebenermaßen nicht auskenne. Ich denke aber, dass RT skaliert, sowohl bezogen auf die Auflösung (Anzahl der Pixel), als auch bezogen auf die Anzahl der Strahlen.
Will sagen: Er mag recht haben, dass bei konstanter Anzahl von Pixeln und Strahlen bei 128 RT-Kernen ein Plateau erreicht wird, ich bin mir aber nicht sicher, wie sich das darstellt, wenn die Anzahl der Pixel und/oder die Anzahl der Strahlen erhöht wird.
Entscheiden dürfte sein, ob der sequentielle Teile mitskaliert oder nicht.
 
@R1ng0
Das wiederum sehe ich an etwas anders , jetzt nicht was das einzelne Programm angeht , jedoch läuft bei mir im Hintergrund einiges , ob es Hintergrund Tasks des OS sind oder der Virenscanner , Gaming Apps wie Steam oder Origin , der Graka Treiber usw .
Und sobald man sich mit VM s = virtuellen Maschienen beschäftigt , ist das ganze sowieso hinfällig , weil man da jeder VM meinetwegen 8 Kerne zuweist zusammen mit anderen Resourcen .

Aber ja , bei 16 Kernen dürfte auf der Mainstream Plattform erstmal wieder Schluss sein , Ryzen ist deswegen jedoch nicht am Ende , beim Takt werden sie wohl auf 5 GHz kommen beim Boost , besseres bietet Intel im 14nm++ auch nicht , lt Intels eigenen Übersichten wir sich der 10 nm (+) wohl nicht so hoch takten lassen ...

Intels 7 nm mit EUV wird wohl frühestens 2021 kommen , eher 2022 , bis dahin ist TSMC bei " 5 nm " angelangt , TSMC 5 nm ist allerdings nichts anderes als eine komplette Nutzung von EUV beim Belichten , soll 20 % mehr Performance bringen = 5,5 - 6 Ghz und nochmal weniger Verbrauch .
Die Performance Schritte pro Node werden immer kleiner , die Entwicklungszeiträume immer länger und damit die Kosten höher . Die 5 - 6 Ghz Taktraten werden uns wohl noch ne ziemlich lange Zeit erhalten bleiben... , egal ob Intel oder jemand anderes
 
@R1ng0 hat dahingehend Recht, dass sich das Amdahlsche Gesetz nur auf die Beschleunigung eines gleichbleibenden Problems bezieht.

Man wird also mit steigender Kernzahl problemlos mehr Dinge in Spielen in gleicher Zeit darstellen können, nur noch mehr fps wird es nicht notwendigerweise geben. Das gleiche gilt dann bei den RT-Kernen im dem Sinne, dass mehr Rays berechnet werden können, aber nicht die gleiche Anzahl Rays in deutlich kürzerer Zeit.

Das Amdahlsche Gesetz wird oft missverstanden, dass es allgemeingültig ist, aber es bezieht sich nur darauf, dass die berechnete Aufgabe völlig gleich bleibt. Und genau dafür braucht man clevere Programmierer, die bestehende Lösungen neu formulieren.
 
@Colindo
Das ist richtig , jedoch muss dennoch bei RT alles in Relation gebracht werden , eben jene 5 % Code die sich nicht paralellisieren lassen , bei RT ist es nur ein Game das man gleichzeitig spielt , im Video wird ja darauf eingegangen , es bringt nur noch marginal etwas mehr als 128 RT Cores statt der derzeit 48 Cores zu bringen .
Da hier die Einschränkungen erfüllt sind : ein Game , eine Aufgabe ( RT) denke ich das man hier Amdahls Gesetz in Anwendung bringen kann .
Es bringt nichts noch mehr Rays zu berechnen durch noch mehr Cores wenn die 5 % Code , die nicht parallel laufen , das nicht in das Spiel einfügen können
 
@MK one & @Colindo

Fraglich ist, was denn die sequentiellen 5% sind. Wenn das Threadverwaltung und I/O ist, dann müssen die nicht zwingend z.B. mit einer Erhöhung der Anzahl der Strahlen pro Pixel mitskalieren.

Dann wird das zwar nicht schneller, aber schöner.

Siehe den Abschnitt 'Kritik' in Wikipedia:
Weiterhin geht Amdahl in seiner Rechnung davon aus, dass die Problemgröße unverändert bleibt; das Ziel ist also, ein Problem in möglichst kurzer Zeit zu berechnen. Für den Fall, in der gleichen Zeit ein größeres Problem zu berechnen, ergeben sich günstigere Voraussetzungen, da der parallele Anteil je nach Problem dann sehr groß werden kann. Je länger eine Berechnung dauert, desto weniger fällt die Zeit für die Initialisierung und abschließende Synchronisierung ins Gewicht.
 
Zuletzt bearbeitet: (Update)
  • Gefällt mir
Reaktionen: Colindo
Ich finde den Thread informativ, neue Technologien die Abläufe stark beschleunigen und zudem noch die Qualität steigern sind immerhin etwas von dem wir alle profitieren ^~^ Gerade das mit den Meshes und den wegfallenden LOD Stufen wäre mal was Starkes. Die Technologie an sich ist fortschrittlich und gut, jedoch muss jetzt auch dafür gesorgt werden dass es bei der Masse ankommt.

Nvidia hätte die RTX Features bei allen Karten auf maximaler Stufe belassen sollen und nicht die 2080, 2070 und 2060 so weit beschneiden dass sie von der Rohleistung die angestrebten Features garnicht mehr vernünftig darstellen können. Auch eine eventuelle GTX 1160 ohne RTX passt da dann nicht ins Bild, hier muss man konsequent sein und das Sortiment komplett umstellen, damit wirkt man einer Fragmentierung der Karten die RTX unterstützen und jene die es nicht tun gleich von Anfang an entgegen.

Ich bin gespannt was passieren wird, es sieht jedenfalls so aus als ließen sich mit der neuen Technik viele alte Probleme und komplexe Bastellösungen und Tricks lösen.
 
Das erste Spiel mit RT Global Illumination/Ambient occlusion/Verschattung ist da:


Und für Battlefield 5 kam DLSS als zusätzliche Funktion dazu:

Zudem ist RTX für Shadow of the Tomb Raider im Anflug:
https://schedule.gdconf.com/session...-tracing-deep-dive-presented-by-nvidia/865256

Somit sollte das ganze im schlimmsten Fall mitte März verfügbar sein.

LG
Zero
 
Zuletzt bearbeitet:
Auch durch das Erscheinen des (noch fehlerhaften) DXR Preview- Builds der Unreal Engine wird schon fleissig rumprobiert:




Alles noch sehr rudimentär, zeigt aber, dass es in die richtige Richtung geht...
 
Fermat/Octane Benchmarks für die RTX Generation OptiX 6.0 preview:

Die Steigerungen im Bereich Raytracing sprechen für sich selbst und geben NVIDIA mit seinem Faktor bis zu 10x Recht.

Grüße
Zero
Ergänzung ()

Sieht so aus, als ob RTX für Shadow of the Tomb Raider bald (morgen?) verfügbar ist - Ist vielleicht aber auch nur ein Klickgenerator ;)
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: pietcux
War wohl nichts., lol!
 
Zuletzt bearbeitet:
Na endlich:

Now, at GDC, we’ve launched GameWorks RTX, a comprehensive set of tools that help game developers implement real-time ray tracing effects in their games. It’s available to developers in open source form under the GameWorks license, includes plugins for Unreal Engine 4.22 and Unity 2019.03’s preview release, and includes the following features:

  • RTX Denoiser SDK – a library that enables fast, real-time ray tracing by providing denoising techniques to lower the required ray count and samples per pixel. It includes algorithms for ray traced area light shadows, glossy reflections, ambient occlusion and diffuse global illumination.

Bin gespannt, ob die vorhandenen Titel mit dem Tensor- Denoiser "nachgepatcht" werden und welchen Geschwindigkeitschhub das dann gibt...

Auch der Full- Scene Pathtracer von Quake 2 wurde weiter aufgebohrt (z.B. mit PBR), soll "fertig" entwickelt werden und dann kostenlos zur Verfügung gestellt werden :
http://images.nvidia.com/geforce-co...rtx-nvidia-rtx-ray-tracing-001-on-vs-off.html

http://images.nvidia.com/geforce-co...rtx-nvidia-rtx-ray-tracing-006-on-vs-off.html

Damit hätten wir dann einen Titel, der den "real deal" in Sachen RT in Echtzeit erfüllt.

Noch ein wenig "Stoff" (Global illumination, RT Reflections und RT Shadows/AO gleichzeitig aktiv):

 
Zuletzt bearbeitet:
wirst du vermutlich umsonst warten denn unter Denoiser verstehe ich das " entrauschen " das von den Tensor Cores bereits jetzt gemacht werden muß damit das Bild mit RTX ON nicht pixelig aussieht ....
 
MK one schrieb:
wirst du vermutlich umsonst warten denn unter Denoiser verstehe ich das " entrauschen " das von den Tensor Cores bereits jetzt gemacht werden muß damit das Bild mit RTX ON nicht pixelig aussieht ....
Genau das wird es eben bis jetzt nicht. Das Entrauschen der erhältlichen Titel läuft derzeit noch über die Shader und kostet deshalb ordentlich Renderzeit.

BattlefieldV
Zudem soll der per Compute berechnete Denoiser bezüglich Qualität und Performance verbessert worden sein
https://www.computerbase.de/2018-12/battlefield-v-raytracing-dxr-patch-benchmark/

Metro
The problem is that when you try to bring your number of samples right down, sometimes to one or less per pixel, you can really see the noise. So that is why we have a denoising TAA. Any individual frame will look very noisy, but when you accumulate information over a few frames
https://www.eurogamer.net/articles/digitalfoundry-2019-metro-exodus-tech-interview

Bis jetzt wurde mangels Verfügbarkeit eben in keinem Titel Denoising über die Tensor Cores abgewickelt.

Deshalb wird man unter den AA Verfahren auch bei beiden Titeln auf TAA festgetackert.

Grüße
Zero
 
Zuletzt bearbeitet:
Ich hab was anderes gelesen , aber ich stecke ja auch nicht so tief in der Sache drin und kann mich auch irren
 
@MK one

https://www.eurogamer.net/articles/...-battlefield-5s-stunning-rtx-ray-tracing-tech:
While DICE is getting some great quality of the rays it shoots, the unfiltered results of ray tracing are still rather noisy and imperfect. To clean that noisiness up, a custom temporal filter is used, along with a separate spatial filter after that to make sure reflections never break down and turn into their grainy unfiltered results. Interestingly, this mean that DICE is not currently using the Nvidia tensor cores or AI-trained de-noising filters to clean up its ray traced reflections. Even then, the de-noising works wonderfully in general and the RT reflections are dramatically clearer and more temporally stable and accurate than the standard game's cube maps and screen-space reflections. The only area where the denoising is imperfect right now is on transparent surfaces of a certain glossiness, where you can see them appearing visibly grainier.

Wie gesagt- Bis jetzt hat man in noch keinem Titel Tensor- core gestütztes Denoising gesehen. Kann sich ja jetzt mit der Verfügbarkeit entsprechender Bibliotheken ändern und sollte einen guten Performanceschub bringen.

Dann wird sich zeigen, was an den Sprüchen von Herrn Huang dran ist. Denn das (verrauschte) Raytracing an sich ist ja nur die halbe Miete...
 
Zuletzt bearbeitet:
@ZeroZerp
wie gesagt , hab anderes gelesen ..
https://www.hardwareluxx.de/index.p...-und-den-neuen-shader-funktionen.html?start=6

Wozu NVIDIA die Tensor Cores verwendet?
NVIDIA verwendet die Tensor Cores der Turing-Architektur derzeit für zwei konkrete Anwendungen: Das Denoising bzw. Entrauschen und für einen neuen Super-Sampling-Modus namens Deep Learning Super Sampling (DLSS).

Das Denoising ist im Zusammenhang mit dem Ray Tracing besonders wichtig. Trotz aller Hardwareressourcen, die auf das Ray Tracing geworfen werden, sind wir aktuell noch nicht in der Lage eine komplette 3D-Szene per Ray Tracing zu berechnen. Es handelt sich also immer um ein partielles Ray Tracing, was natürlich die Frage offen lässt, was mit den Bereichen passiert, die nicht per Ray Tracing berechnet wurden.

Ein Denoising schaut sich die Bereiche an, die nicht oder nicht ausreichend von berechneten Rays abgedeckt sind und versieht diese "künstlich" mit den entsprechenden Informationen. Ein trainiertes Deep-Learning-Netzwerk bestimmt dabei, welche Informationen hinzugefügt werden. Das Inferencing des Deep-Learning-Netzwerkes findet auf den Tensor Cores statt.
 
@MK one
Genau das hatten sie zu Anfang versprochen. Gekommen ist bis jetzt nichts (was ja auch klar ist, wenn die entsprechenden Bibliotheken/Funktionen erst jetzt freigeschalten wurden).

Das war für mich der Treppenwitz schlechthin, dass Herr Huang predigt, dass Denoising über die Tensor Kerne das zweite große Kernelement für realtime- RT seien und im Nachhinein werden bei den Vorzeigetiteln stinknormale auf temporal AA basierende Shaderlösungen eingebaut.

Siehe auch meinen Beitrag hier:
https://www.computerbase.de/forum/t...-firmen-preisdiskussion.1824660/post-22261403

Da hat sich nVidia (mal wieder) nicht mit Ruhm bekleckert...

Naja- Besser spät als nie....
 
Epics Demos (in den youtube- Links steht in der Beschreibung "realtime" auf einer 2080 TI) für die kommende Raytracing- Unterstützung und die dadurch neuen grafischen Möglichkeiten der Unreal Engine (GDC 2019) demonstrieren:
https://www.theverge.com/2019/3/20/...ngine-demo-troll-rebirth-ray-tracing-gdc-2019

https://www.pcgamer.com/this-impressive-unreal-engine-ray-tracing-demo-runs-on-a-single-rtx-2080ti/



“We’re no longer talking about prototype or demonstration stuff. We now have an engine that will raytrace. What we’re trying to explain to people is that raytracing is not just about shiny bottles or glass surfaces or doing a bit of refraction. It’s about subtlety. It brings a quality of lighting that you’ve really only seen in animated movies or live-action photography.”

Langsam nimmt der Zug Fahrt auf... Die Renderdemo läuft mit allen verfügbaren RT Effekten mit durchgängig 24 FPS.

Allerdings werden durch den Fortschritt wohl nun auch andere Problemfelder offensichtlicher denn je:
“You can walk around an environment built in Unreal Engine that looks pretty photographic. With raytracing now it looks very photographic. But if you pick something up or try to fracture a wall or knock down a door, you get met with very simple rigid-body physics, relatively simple collisions — physics is still in a simple state in the game industry.”

LG
Zero
 
Zuletzt bearbeitet:
Zurück
Oben