Wow, der Nebel lichtet sich und doch bleiben viele Fragen offen.
Wie schnell Turing in Spielen sein wird, bleibt indes weiterhin unklar. Die RT- sowie Tensor-Kerne müssen von der Software unterstützt werden, damit sie einen Vorteil bringen.
Und damit sitzt Nvidia im gleichen Boot wie AMD, die mit den ganzen Vega-Features auch erstmal im Abseits rumstehen und auf die Software-/Spieleentwickler warten, denn diese müssen es einbauen/aktiveren.
Um das zu erreichen wurde die Grafik-Pipeline erweitert, Nvidia spricht von einer „neuen, programmierbaren Shading-Technologie“.
Erinnert wieder an AMD, nämlich deren Primitive-Shader.
De-Noising und AI Inference eignen. Die Raytracing-Leistung der RT-Kerne in Verbindung mit den Tensor-Cores soll gegenüber Pascal um den Faktor 25 höher sein und um Faktor 30 höher als mit modernen CPUs. Nvidia nennt 10 Gigarays in der Sekunde für Turing.
Die Leistungssteigerung hört sich immens an, allerdings kann ich das überhaupt nicht einschätzen. Die Frage ist doch letztlich, ob die Performance überhaupt schon ausreicht, damit die Features sinnvoll eingesetzt werden können oder ob es immer noch eher im Bereich
Spielerei / Machbarkeitsstudie / Techdemo liegt.
CUDA-Cores, RT-Cores, Tensor-Cores
Mit Begriffen um mich werfen kann ich auch:
Vertex-Shader,
Pixel-Shader und
Fragment-Shader. In Hardware umgesetzt sind diese derzeit als
Unified Shader. Und um die Auslastung zu erhöhen nutzt man
Asynchronous Compute. Dazu kommen dann noch die
NCUs von AMD und die Berechnungen in FP8 und FP16
Ich bin gespannt, wie die RT-Cores von Nvidia tatsächlich aufgebaut sind und welche Art von Berechnungen sie beschleunigen.
Insgesamt ist Raytracing eni spannendes Thema. Wie man das in Hardware am besten beschleunigt? Reicht vielleicht sogar eine besonders flexible Compute Shader Architektur, wie sie bereits AMD hat?