Bericht Raytracing in Spielen VI: So werden Strahlen von GPUs beschleunigt

Danke für den Schmöker am Ostermontag. Bin eh schon gespannt, was das auf den Konsolen wird und sich Big Navi dann mit Ampere gegenüber stehen 👍
 
  • Gefällt mir
Reaktionen: gartenriese, konkretor und Colindo
Interessant wie anders der Ansatz von AMD ist.

Mir gefällt die Nvidia Umsetzung besser, kommt aber auch daher, dass es noch keinen Vergleich zur AMD Implementierung gibt.

Vielleicht ist der Ansatz von AMD auch technisch einfacher umgesetzt, aber effizienter.

Hoffentlich kommen dabei nicht wieder zwei proprietäre Schnittstellen bei raus, wo je nach Spiel nur die von AMD oder Nvidia genutzt werden kann.
 
zombie schrieb:
Vielleicht habe ich einen "eigenen Geschmack" aber Raytracing in dieser Form beeindruckt mich nicht. Oft wirkt es dann zu glatt, zu glänzend und dadurch unnatürlich. Gemessen an dem riesen Rechenaufwand und der nötigen Potenten und teuren Hardware kein Grund komplett die Zukunft der Games darauf aufzubauen.

Du hast bisher nur vergleichsweise einfache und oberflächliche Implementierungen von Raytracing gesehen. Wir stehen hier noch am Anfang. Was gerade passiert ist ungefähr mit der Einführung der ersten 3D-Beschleuniger vergleichbar.

Stell dir Spiele vor, die visuell nicht mehr von Filmen oder gar der Realität zu unterscheiden sind; stell dir eine Zukunft vor, in der es egal sein wird, wieviele Polygone auf den Bildschirm geschmissen werden. Davon sind wir noch einige Hardware-Generatione entferntn, und bis dahin werden wir mit dieser Mischpoke aus Rasterisierung und Raytracing leben müssen, die wahrlich nicht immer wie ein Fortschritt aussieht oder im Großen und Ganzen vernachlässigbar erscheint. Aber irgendwann werden heutige Spiele mit rasterisierter 3D-Grafik so archaisch erscheinen wie der Blick auf Spiele in den ersten Tagen der 3D-Beschleuniger.
 
  • Gefällt mir
Reaktionen: fox40phil und Lübke82
Extrem gut recherchierter Artikel, sehr interessant zu lesen 👍
Mir würde auf Anhieb einfallen, wo Intersection-Beschleunigung noch von Vorteil wäre :D
 
  • Gefällt mir
Reaktionen: konkretor und Colindo
TopAce888 schrieb:
Ihre habt in eurer Spiele - Aufzählung noch Wolfenstein Youngblood vergessen, das unterstützt sogar DLSS
Aber basiert, soweit ich weiß, nicht auf DXR, sondern der proprietären Implementierung Nvidias in Vulkan. Also ein Spezialfall. Trotzdem erwähnenswert.
Hoeze schrieb:
Mir würde auf Anhieb einfallen, wo Intersection-Beschleunigung noch von Vorteil wäre
Erzähl mir mehr :)
 
Schade, dass man aktuell noch so gut wie nichts über RDNA 2 GPUs weiß... ich frage mich nämlich, ob es Sinn macht jetzt noch ca. 300€ in eine GPU (5700) zu investieren (aktuell noch rx 480@1200p), oder lieber noch zu warten, um sich dann was ähnlich teures mit RT Feature zu kaufen. Man könnte annehmen, dass AMDs zukünftige GPUs ja schneller sein müssen als aktuelle RTX Karten (bis runter zu 2060), da sie sich ja mit der nächsten Gen messen müssen. Denn sicherlich wird es nicht nur "Big Navi" für 700+€ geben. Schwierige Lage, aber ich denke ich werde mich noch gedulden!

PS: Danke für den Umfassenden Artikel, auf so etwas habe ich schon lange gehofft! Muss ihn aber noch in Ruhe komplett lesen :).
 
  • Gefällt mir
Reaktionen: konkretor und Colindo
Colindo schrieb:
[...]
Das wird auch für Microsoft lustig, wenn Ende des Jahres viele Menschen (vor allem in den USA) weniger ausgeben können und deren Konsole potentiell mehr kostet als die von Sony. Damit hat Microsoft sicher nicht gerechnet.

Ich glaube eher, dass sie dann anfänglich einen "Corona-Rabatt" einführen, bis die ersten 100.000 verkauft sind. 😁
 
  • Gefällt mir
Reaktionen: Colindo
Danke für die Mühe und den guten Artikel. Habe die RT Serie damals schon gemocht.
Aktuell würde ich in keine GPU investieren. Erst kurz nach Erscheinen der next Gen
 
  • Gefällt mir
Reaktionen: fox40phil und Colindo
t3chn0 schrieb:
Hoffentlich kommen dabei nicht wieder zwei proprietäre Schnittstellen bei raus, wo je nach Spiel nur die von AMD oder Nvidia genutzt werden kann.
Hmm- Die Schnittstellen stehen ja schon fest DX12 bzw. Vulkan RT.
Nur Sony könnte da vielleicht nochmal sein eigenes Süppchen kochen...

sverebom schrieb:
Du hast bisher nur vergleichsweise einfache und oberflächliche Implementierungen von Raytracing gesehen. Wir stehen hier noch am Anfang. Was gerade passiert ist ungefähr mit der Einführung der ersten 3D-Beschleuniger vergleichbar.
Da bitte nicht täuschen lassen. Denn teils sehr hochwertiges RT wird schon lange Zeit bei diversen Titeln gezeigt bzw. sind moderne AAA Games ohne RT grafisch so gut wie undenkbar.

Mit dem Unterschied, dass die Grafik eben nicht realtime- berechnet wird, sondern auf aufwändig vorberechnetem RT basiert.

Das ist einer der großen Irrtümer, welchen viele Nutzer unterliegen. Nämlich, dass man JETZT erst Raytracing- Unterstützung bzw. Grafik erhalten würde.

Solch eine Grafikqualität wäre sonst kaum erreichbar:

Der unterschied zum aktuellen Anlauf, Realtime- RT zu integrieren, liegt darin, dass mit oben genannter vorberechneter Methode eben genau eins nicht möglich ist: Dynamik der Szene, große Physik- oder Lichtspielereien.
Damit die Szene beleuchtungstechnisch und grafisch konsistent bleibt, darf sich eben nicht viel ändern.

Was sich also mit RT bewegen könnte und wahrscheinlich bewegen wird:

1. Die vorberechneten Szenen/Daten nehmen immer mehr Platz auf der Festplatte ein. Teilweise ist ein Raum/eine Szene je nach Beleuchtungs- Szenario oder Zerstörungsgrad mehrfach auf der Festplatte abgelegt, weil verschiedene Geometrie bzw. Beleuchtungszustände vorberechnet hinterlegt sein müssen.
Dadurch blähen sich die Daten eines modernen Spiels auf inzwischen zig Gigabyte auf.
->Mit RT ist keine Vorberechnung mehr nötig. Alles spielt sich in Echtzeit ab. Somit kann der Speicherverbrauch wieder dramatisch sinken.

2. Durch den Realtime- Ansatz ist es möglich sich komplett verändernde Szenen/Beleuchtung bzw. Physikspielereien zu integrieren, ohne dass die Konsistenz bzw. Glaubwürdigkeit der Grafik darunter leidet.
->Zukünftig können Lichtverhältnisse in ganz anderem Maße in das Spielgeschehen eingebunden werden und teils einen Beitrag zur Mechanik des Spiels leisten. Ebenso können alle Objekte grafisch korrekt physikalisch bewegt/zerstört werden, ohne den grafischen Gesamteindruck der Szene zu ruinieren. Sieht man sehr schön in Control. Es können spürbar interaktivere und lebendigere Welten damit generiert werden.

3. Ganz offensichtlich sind aber die derzeitig oft genutzten Features/Vorteile.
Die Schwächen bzw. Fehler, die sich im Bereich der Rasterisierung zwangsweise ergeben, lassen sich egalisieren.
->Man erhält korrekte Ambient Occlusion, korrekte Spiegelungen, korrekte contact- shadows bzw. contact hardening shadows.
Somit werden Fehler, die einem offensichtlich in jeder Rasterszene begegnen, ausgebügelt. Sieht also grafisch garnicht so viel anders aus, nur eben fehlerfrei.

4. Nebst performancetechnischen Nachteilen kann RT in Zukunft auch ebenso Vorteile bieten.
Denn RT arbeitet deutlich performance- unabhängiger von den ansteigenden Rechenaufwand in Sachen Szenenkomplexität.
Gerade weil bei mit RT auch eine nochmals deutliche Steigerung in Sachen Parallelisierung einhergeht, kann mittelfristig gesehen, im Gegensatz zum Status Quo, tatsächlich auch eine Beschleunigungte Berechnung von Hybriden Szenen einhergehen.

Das sind mal ein par Punkte in Sachen Auswirkungen, die RT in Zukunft in den Spielen haben kann/wird...

Ist schon irgendwie ne kleine Revolution in Sachen Computergrafik und möglicher gesteigerter Design- und Gameplayfreiheiten...

LG
Zero
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: SDJ, fox40phil, KlaraElfer und 5 andere
KlaraElfer schrieb:
Naja, die paar Euro darf man dann schon investieren - 5700XT~2070 non Super fürs gleiche Geld.
Einen wirklichen Aufpreis kann ich da nicht sehen, mal abgesehen von der 5700er - die einzige AMD Karte mit besserem Preisleistungsverhältnis, die momentan am Markt ist.
1. Wer bitte kauft noch eine Non Super RTX Grafikkarte von Nvidia, der hat glaube ich einiges nicht mitbekommen. Gerade wegen der RX 5700XT von AMD war ja Nvidia gezwungen die Super Grafikkarten nachzuschießen.

2. Für eine RTX 2070 Super bezahlt man derzeit für die einigermaßen gescheiten Custom Modelle weit über 500,00 Euro, klar für den User wo Geld keine Rolle spiel, ist das kein Betrag. Für alle die, die jetzt in Kurzarbeit sind und alle die Ihren Job demnächst oder auch jetzt schon verloren habe, ist das eine Menge Geld.

3. Hier bei Deiner Antwort kann man schön sehen und lesen, das bei Dir noch nichts angekommen ist und wahrscheinlich glaubst Du, die Maßnahmen wegen der Corona Kriese werden demnächst gelockert und alles wird wieder so wie es vorher war. Aber irgendwo müssen die Tausend Milliarden Euro Rettungspaket ja herkommen und wieder zurückgezahlt werden und jetzt rate mal von wem? Oder glaubst Du irgendwo in Europa sitzt eine kleine Firma die das unbegrenzte Geld drucken und in Umlauf bringen kann?

Die Tensor Cores haben mit RT überhaupt nichts zu tun. Die werden für DeepLearning / KI genutzt - also u.a. DLSS. Was du meinst sind die RT Cores - ganz einfach zu merken: Das R steht für Ray und das T für Tracing.
Ja, da hätte ich mich klarer ausdrücken sollen, aber ändert nichts an der Tatsache, dass Raytracing sehr viel Leistung kostet, deshalb hat Nvidia ja auch zu der Maßnahme mit der zusätzlichen Hardware gegriffen, anders ist es ja kaum zu stemmen, sieht man ja schön, wie die GTX Pascal Grafikkarten ohne diese zusätzliche Hardware in Games mit Raytracing performen.

Wer es nicht glaubt soll einfach mal Raytracing ausschalten und schauen wieviel FPS generiert werden, wer da glaubt die Grafikkarte verliert keine Leistung oder es liegt an der CPU, der soll es halt glauben!

Spannend wird es bezüglich RT in Exklusiv Titel sein, da die Games eben nur auf der Konsole und nicht am PC laufen müssen. Interessant ist da aber auch, wie der Vergleich XBOX XS und Anzahl der CUs und somit auch den Texture Einheiten ist.
Ich denke man kann auch die Konsole nicht ganz mit dem Desktop PC vergleichen, da die Konsole ein geschlossenes System beeinhaltet und man hier viel besser auf die gesamte Hardware optimieren kann. Bin auch mal gespannt, wie die Konsolen da mit Raytracing performen, aber sicherlich deutlich besser, als mit vergleichbarer Hardware auf dem Desktop PC.

Was ich bei der RT Diskussion aber noch interessant finde. Als man mit Low Level API wie Mantle und Vulkan kam und schließlich DX12, meinte man, dass man ja letzteres nicht benötigt und DX11 ja sowieso gut optimiert ist. Jz ist RT ein Teil von DX12 und Version 1.1 sogar ein Teil von DX 12 Ultimate.
Ich denke, dass dies auch viel mit AMD zu tun hat, da man hier einen anderen Weg gehen will was Raytracing betrifft, als das bei Nvidia mit der zusätzlichen Hardware in Form von RT Kernen der Fall ist. Ob Raytracing die API DX12 deswegen besser macht, wird man sehen, über kurz oder lang wird ja auch Vulkan Raytracing können, dann wird es erst richtig interessant. Bei allem was man bisher so gesehen hat, würde mich nicht wundern, wenn auch hier die Vulkan API besser performt als die DX12 API, aber das ist meine persönliche Meinung.
 
Zuletzt bearbeitet:
Zotac2012 schrieb:
Ich denke, dass dies auch viel mit AMD zu tun hat, da man hier einen anderen Weg gehen will was Raytracing betrifft, als das bei Nvidia mit der zusätzlichen Hardware in Form von RT Kernen der Fall ist.
Geht man nicht- Man verteilt nur die Aufgaben anders und lagert die "RT- Einheiten" in eine andere Region aus, die naturgemäß stark an den Speicher angebunden ist. Es wird mehr in Richtung Softwareebene verschoben, was einem zwar theoretisch mehr Kontrolle über die Vorgänge beim Rendern ermöglicht, anderenteils aber wieder theoretisch mit Performancenachteilen einhergehen wird.

Es wird sich zeigen, was da die Vor- und Nachteile sind, wenn die neuen Karten auf dem Markt sind.

Zotac2012 schrieb:
Für eine RTX 2070 Super bezahlt man derzeit für die einigermaßen gescheiten Custom Modelle weit über 500,00 Euro,
Man kann auch derzeit für 477,-€ (auch noch viel Geld) einkaufen mit Custom Dual Fan.
Wenn man wenig Geld hat, sollte man es sich meines Erachtens verkneifen, ein 630,-€ Modell haben zu wollen, welches unwesentlich schneller arbeitet.

Ob Raytracing die API DX12 deswegen besser macht, wird man sehen, über kurz oder lang wird ja auch Vulkan Raytracing können, dann wird es erst richtig interessant.
Aus Entwicklersicht macht es keinen großen Unterschied ob man DX12 oder Vulkan nutzt. Bei entsprechend effektiver Nutzung gibt es auch kaum Performancevorteile/Nachteile für die APIs.

Bei allem was man bisher so gesehen hat, würde mich nicht wundern, wenn auch hier die Vulkan API besser performt als die DX12 API, aber das ist meine persönliche Meinung.
Siehe oben.
Nachteilig an Vulkan ist, dass die immer zu spät aus dem Quark kommen und viele Features erst sehr spät in ihre API aufnehmen.

LG
Zero
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: KlaraElfer, Xidus, fox40phil und 2 andere
ZeroZerp schrieb:
Aus Entwicklersicht macht es keinen großen Unterschied ob man DX12 oder Vulkan nutzt. Bei entsprechend effektiver Nutzung gibt es auch kaum Performancevorteile/Nachteile für die APIs.
Aus Spieleentwicklersicht macht's je nach Engine auch überhaupt keinen Unterschied. Wenn z.B. die Unreal Engine 4 benutzt wird, reicht ein Klick auf "RayTracing aktivieren". Die anderen großen Engines werden das sicherlich auch bald anbieten.

ZeroZerp schrieb:
Nachteilig an Vulkan ist, dass die immer zu spät aus dem Quark kommen und viele Features erst sehr spät in ihre API aufnehmen.
So ist das halt bei Konsortien mit vielen Parteien mit unterschiedlichen Interessen, aber das war in der Khronos Group ja auch schon immer so. OpenGL war nie federführend in Sachen Innovation - außer vielleicht in der Zeit vor Direct3D und DirectX.
Microsoft hat's da natürlich einfacher. Die müssen sich nur intern einigen. Und dann wird gesagt "so wird's gemacht" und fertig.
 
  • Gefällt mir
Reaktionen: fox40phil, gartenriese, Krautmaster und eine weitere Person
sverebom schrieb:
Du hast bisher nur vergleichsweise einfache und oberflächliche Implementierungen von Raytracing gesehen. Wir stehen hier noch am Anfang. Was gerade passiert ist ungefähr mit der Einführung der ersten 3D-Beschleuniger vergleichbar.
Das Gegenteil ist der Fall. Weil bei weitem nicht genug Leistung zur Verfügung steht muss man Klimmzüge machen um mit viel Aufwand was hinzubekommen. Dazu muss jetzt für mehrere Beleuchtungssysteme optimiert werden. Was natürlich ohne Sponsor wie bei GPU-PhysX so gut wie keiner macht. Die Gesamtpalette von RT ist hingen eher relativ simpel.
 
Hi,
Interessant, dass genau vor diesem Bericht der Rückblick ins jahr 2000 raus kam.
Ungefähr im Jahr 2000 wurde Raytracing mit Quake 3 und auch gleichzeitig als die Zukunft vorgestellt. Etwa 20 Jahre später wird berichtet, dass es langsam integriert wird.
Damals habe ich nicht gedacht, dass es so lange dauern wird. Vor Allem weil es ja immer noch eine Besonderheit ist wenn es im Spiel verwendet wird.
 
  • Gefällt mir
Reaktionen: fox40phil
Was? Sowohl AMD als auch NVidia machen nur BVH-Traversal in Hardware, der Unterschied ist nur die Zuordnung der Einheiten. Abgesehen davon ist alles was derzeit gemacht und angedacht ist ein hybrider Ansatz aus Rasterizing und Raytracing, darauf sollte man vielleicht mehr eingehen.
 
Sinnfrei schrieb:
Abgesehen davon ist alles was derzeit gemacht und angedacht ist ein hybrider Ansatz aus Rasterizing und Raytracing, darauf sollte man vielleicht mehr eingehen.
Ja gut, aber was soll man dazu sagen? Die neuartige Funktion ist ja schließlich das Raytracing und dessen Implementation in die GPU. Dass die GPU auch die alte Rasterisierung, und dadurch auch beides gleichzeitig, kann, ist ja nicht gerade bahnbrechend.

Daniel Pohl sagte übrigens zu dem hybriden Ansatz damals:
Aus technischer Sicht macht es keinen Sinn, da die Kosten des Teils, der mit Raytracing berechnet wird, in vielen Fällen sehr schnell den ausschlaggebenden Teil der Berechnung einnehmen.
 
  • Gefällt mir
Reaktionen: fox40phil
Zurück
Oben