Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Bericht Raytracing in Spielen VI: So werden Strahlen von GPUs beschleunigt
- Ersteller Colindo
- Erstellt am
- Zum Bericht: Raytracing in Spielen VI: So werden Strahlen von GPUs beschleunigt
Interessant wie anders der Ansatz von AMD ist.
Mir gefällt die Nvidia Umsetzung besser, kommt aber auch daher, dass es noch keinen Vergleich zur AMD Implementierung gibt.
Vielleicht ist der Ansatz von AMD auch technisch einfacher umgesetzt, aber effizienter.
Hoffentlich kommen dabei nicht wieder zwei proprietäre Schnittstellen bei raus, wo je nach Spiel nur die von AMD oder Nvidia genutzt werden kann.
Mir gefällt die Nvidia Umsetzung besser, kommt aber auch daher, dass es noch keinen Vergleich zur AMD Implementierung gibt.
Vielleicht ist der Ansatz von AMD auch technisch einfacher umgesetzt, aber effizienter.
Hoffentlich kommen dabei nicht wieder zwei proprietäre Schnittstellen bei raus, wo je nach Spiel nur die von AMD oder Nvidia genutzt werden kann.
sverebom
Vice Admiral
- Registriert
- Aug. 2004
- Beiträge
- 6.335
zombie schrieb:Vielleicht habe ich einen "eigenen Geschmack" aber Raytracing in dieser Form beeindruckt mich nicht. Oft wirkt es dann zu glatt, zu glänzend und dadurch unnatürlich. Gemessen an dem riesen Rechenaufwand und der nötigen Potenten und teuren Hardware kein Grund komplett die Zukunft der Games darauf aufzubauen.
Du hast bisher nur vergleichsweise einfache und oberflächliche Implementierungen von Raytracing gesehen. Wir stehen hier noch am Anfang. Was gerade passiert ist ungefähr mit der Einführung der ersten 3D-Beschleuniger vergleichbar.
Stell dir Spiele vor, die visuell nicht mehr von Filmen oder gar der Realität zu unterscheiden sind; stell dir eine Zukunft vor, in der es egal sein wird, wieviele Polygone auf den Bildschirm geschmissen werden. Davon sind wir noch einige Hardware-Generatione entferntn, und bis dahin werden wir mit dieser Mischpoke aus Rasterisierung und Raytracing leben müssen, die wahrlich nicht immer wie ein Fortschritt aussieht oder im Großen und Ganzen vernachlässigbar erscheint. Aber irgendwann werden heutige Spiele mit rasterisierter 3D-Grafik so archaisch erscheinen wie der Blick auf Spiele in den ersten Tagen der 3D-Beschleuniger.
Aber basiert, soweit ich weiß, nicht auf DXR, sondern der proprietären Implementierung Nvidias in Vulkan. Also ein Spezialfall. Trotzdem erwähnenswert.TopAce888 schrieb:Ihre habt in eurer Spiele - Aufzählung noch Wolfenstein Youngblood vergessen, das unterstützt sogar DLSS
Erzähl mir mehrHoeze schrieb:Mir würde auf Anhieb einfallen, wo Intersection-Beschleunigung noch von Vorteil wäre
Z
ZeroStrat
Gast
Colindo schrieb:Erzähl mir mehr
Entweder meint er Kollisionsabfragen oder es war ein Scherz...
fox40phil
Rear Admiral
- Registriert
- Okt. 2008
- Beiträge
- 5.975
Schade, dass man aktuell noch so gut wie nichts über RDNA 2 GPUs weiß... ich frage mich nämlich, ob es Sinn macht jetzt noch ca. 300€ in eine GPU (5700) zu investieren (aktuell noch rx 480@1200p), oder lieber noch zu warten, um sich dann was ähnlich teures mit RT Feature zu kaufen. Man könnte annehmen, dass AMDs zukünftige GPUs ja schneller sein müssen als aktuelle RTX Karten (bis runter zu 2060), da sie sich ja mit der nächsten Gen messen müssen. Denn sicherlich wird es nicht nur "Big Navi" für 700+€ geben. Schwierige Lage, aber ich denke ich werde mich noch gedulden!
PS: Danke für den Umfassenden Artikel, auf so etwas habe ich schon lange gehofft! Muss ihn aber noch in Ruhe komplett lesen .
PS: Danke für den Umfassenden Artikel, auf so etwas habe ich schon lange gehofft! Muss ihn aber noch in Ruhe komplett lesen .
Steueroase
Lieutenant
- Registriert
- Juli 2017
- Beiträge
- 531
Colindo schrieb:[...]
Das wird auch für Microsoft lustig, wenn Ende des Jahres viele Menschen (vor allem in den USA) weniger ausgeben können und deren Konsole potentiell mehr kostet als die von Sony. Damit hat Microsoft sicher nicht gerechnet.
Ich glaube eher, dass sie dann anfänglich einen "Corona-Rabatt" einführen, bis die ersten 100.000 verkauft sind. 😁
Krautmaster
Fleet Admiral
- Registriert
- Feb. 2007
- Beiträge
- 24.314
Danke für die Mühe und den guten Artikel. Habe die RT Serie damals schon gemocht.
Aktuell würde ich in keine GPU investieren. Erst kurz nach Erscheinen der next Gen
Aktuell würde ich in keine GPU investieren. Erst kurz nach Erscheinen der next Gen
.Sentinel.
Admiral
- Registriert
- Okt. 2007
- Beiträge
- 8.643
Hmm- Die Schnittstellen stehen ja schon fest DX12 bzw. Vulkan RT.t3chn0 schrieb:Hoffentlich kommen dabei nicht wieder zwei proprietäre Schnittstellen bei raus, wo je nach Spiel nur die von AMD oder Nvidia genutzt werden kann.
Nur Sony könnte da vielleicht nochmal sein eigenes Süppchen kochen...
Da bitte nicht täuschen lassen. Denn teils sehr hochwertiges RT wird schon lange Zeit bei diversen Titeln gezeigt bzw. sind moderne AAA Games ohne RT grafisch so gut wie undenkbar.sverebom schrieb:Du hast bisher nur vergleichsweise einfache und oberflächliche Implementierungen von Raytracing gesehen. Wir stehen hier noch am Anfang. Was gerade passiert ist ungefähr mit der Einführung der ersten 3D-Beschleuniger vergleichbar.
Mit dem Unterschied, dass die Grafik eben nicht realtime- berechnet wird, sondern auf aufwändig vorberechnetem RT basiert.
Das ist einer der großen Irrtümer, welchen viele Nutzer unterliegen. Nämlich, dass man JETZT erst Raytracing- Unterstützung bzw. Grafik erhalten würde.
Solch eine Grafikqualität wäre sonst kaum erreichbar:
YouTube
An dieser Stelle steht ein externer Inhalt von YouTube, der den Forumbeitrag ergänzt. Er kann mit einem Klick geladen und auch wieder ausgeblendet werden.
Ich bin damit einverstanden, dass YouTube-Embeds geladen werden. Dabei können personenbezogene Daten an YouTube übermittelt werden. Mehr dazu in der Datenschutzerklärung.
Der unterschied zum aktuellen Anlauf, Realtime- RT zu integrieren, liegt darin, dass mit oben genannter vorberechneter Methode eben genau eins nicht möglich ist: Dynamik der Szene, große Physik- oder Lichtspielereien.
Damit die Szene beleuchtungstechnisch und grafisch konsistent bleibt, darf sich eben nicht viel ändern.
Was sich also mit RT bewegen könnte und wahrscheinlich bewegen wird:
1. Die vorberechneten Szenen/Daten nehmen immer mehr Platz auf der Festplatte ein. Teilweise ist ein Raum/eine Szene je nach Beleuchtungs- Szenario oder Zerstörungsgrad mehrfach auf der Festplatte abgelegt, weil verschiedene Geometrie bzw. Beleuchtungszustände vorberechnet hinterlegt sein müssen.
Dadurch blähen sich die Daten eines modernen Spiels auf inzwischen zig Gigabyte auf.
->Mit RT ist keine Vorberechnung mehr nötig. Alles spielt sich in Echtzeit ab. Somit kann der Speicherverbrauch wieder dramatisch sinken.
2. Durch den Realtime- Ansatz ist es möglich sich komplett verändernde Szenen/Beleuchtung bzw. Physikspielereien zu integrieren, ohne dass die Konsistenz bzw. Glaubwürdigkeit der Grafik darunter leidet.
->Zukünftig können Lichtverhältnisse in ganz anderem Maße in das Spielgeschehen eingebunden werden und teils einen Beitrag zur Mechanik des Spiels leisten. Ebenso können alle Objekte grafisch korrekt physikalisch bewegt/zerstört werden, ohne den grafischen Gesamteindruck der Szene zu ruinieren. Sieht man sehr schön in Control. Es können spürbar interaktivere und lebendigere Welten damit generiert werden.
3. Ganz offensichtlich sind aber die derzeitig oft genutzten Features/Vorteile.
Die Schwächen bzw. Fehler, die sich im Bereich der Rasterisierung zwangsweise ergeben, lassen sich egalisieren.
->Man erhält korrekte Ambient Occlusion, korrekte Spiegelungen, korrekte contact- shadows bzw. contact hardening shadows.
Somit werden Fehler, die einem offensichtlich in jeder Rasterszene begegnen, ausgebügelt. Sieht also grafisch garnicht so viel anders aus, nur eben fehlerfrei.
4. Nebst performancetechnischen Nachteilen kann RT in Zukunft auch ebenso Vorteile bieten.
Denn RT arbeitet deutlich performance- unabhängiger von den ansteigenden Rechenaufwand in Sachen Szenenkomplexität.
Gerade weil bei mit RT auch eine nochmals deutliche Steigerung in Sachen Parallelisierung einhergeht, kann mittelfristig gesehen, im Gegensatz zum Status Quo, tatsächlich auch eine Beschleunigungte Berechnung von Hybriden Szenen einhergehen.
Das sind mal ein par Punkte in Sachen Auswirkungen, die RT in Zukunft in den Spielen haben kann/wird...
Ist schon irgendwie ne kleine Revolution in Sachen Computergrafik und möglicher gesteigerter Design- und Gameplayfreiheiten...
LG
Zero
Zuletzt bearbeitet:
Zotac2012
Admiral
- Registriert
- Apr. 2012
- Beiträge
- 7.770
1. Wer bitte kauft noch eine Non Super RTX Grafikkarte von Nvidia, der hat glaube ich einiges nicht mitbekommen. Gerade wegen der RX 5700XT von AMD war ja Nvidia gezwungen die Super Grafikkarten nachzuschießen.KlaraElfer schrieb:Naja, die paar Euro darf man dann schon investieren - 5700XT~2070 non Super fürs gleiche Geld.
Einen wirklichen Aufpreis kann ich da nicht sehen, mal abgesehen von der 5700er - die einzige AMD Karte mit besserem Preisleistungsverhältnis, die momentan am Markt ist.
2. Für eine RTX 2070 Super bezahlt man derzeit für die einigermaßen gescheiten Custom Modelle weit über 500,00 Euro, klar für den User wo Geld keine Rolle spiel, ist das kein Betrag. Für alle die, die jetzt in Kurzarbeit sind und alle die Ihren Job demnächst oder auch jetzt schon verloren habe, ist das eine Menge Geld.
3. Hier bei Deiner Antwort kann man schön sehen und lesen, das bei Dir noch nichts angekommen ist und wahrscheinlich glaubst Du, die Maßnahmen wegen der Corona Kriese werden demnächst gelockert und alles wird wieder so wie es vorher war. Aber irgendwo müssen die Tausend Milliarden Euro Rettungspaket ja herkommen und wieder zurückgezahlt werden und jetzt rate mal von wem? Oder glaubst Du irgendwo in Europa sitzt eine kleine Firma die das unbegrenzte Geld drucken und in Umlauf bringen kann?
Ja, da hätte ich mich klarer ausdrücken sollen, aber ändert nichts an der Tatsache, dass Raytracing sehr viel Leistung kostet, deshalb hat Nvidia ja auch zu der Maßnahme mit der zusätzlichen Hardware gegriffen, anders ist es ja kaum zu stemmen, sieht man ja schön, wie die GTX Pascal Grafikkarten ohne diese zusätzliche Hardware in Games mit Raytracing performen.Die Tensor Cores haben mit RT überhaupt nichts zu tun. Die werden für DeepLearning / KI genutzt - also u.a. DLSS. Was du meinst sind die RT Cores - ganz einfach zu merken: Das R steht für Ray und das T für Tracing.
Wer es nicht glaubt soll einfach mal Raytracing ausschalten und schauen wieviel FPS generiert werden, wer da glaubt die Grafikkarte verliert keine Leistung oder es liegt an der CPU, der soll es halt glauben!
Ich denke man kann auch die Konsole nicht ganz mit dem Desktop PC vergleichen, da die Konsole ein geschlossenes System beeinhaltet und man hier viel besser auf die gesamte Hardware optimieren kann. Bin auch mal gespannt, wie die Konsolen da mit Raytracing performen, aber sicherlich deutlich besser, als mit vergleichbarer Hardware auf dem Desktop PC.Spannend wird es bezüglich RT in Exklusiv Titel sein, da die Games eben nur auf der Konsole und nicht am PC laufen müssen. Interessant ist da aber auch, wie der Vergleich XBOX XS und Anzahl der CUs und somit auch den Texture Einheiten ist.
Ich denke, dass dies auch viel mit AMD zu tun hat, da man hier einen anderen Weg gehen will was Raytracing betrifft, als das bei Nvidia mit der zusätzlichen Hardware in Form von RT Kernen der Fall ist. Ob Raytracing die API DX12 deswegen besser macht, wird man sehen, über kurz oder lang wird ja auch Vulkan Raytracing können, dann wird es erst richtig interessant. Bei allem was man bisher so gesehen hat, würde mich nicht wundern, wenn auch hier die Vulkan API besser performt als die DX12 API, aber das ist meine persönliche Meinung.Was ich bei der RT Diskussion aber noch interessant finde. Als man mit Low Level API wie Mantle und Vulkan kam und schließlich DX12, meinte man, dass man ja letzteres nicht benötigt und DX11 ja sowieso gut optimiert ist. Jz ist RT ein Teil von DX12 und Version 1.1 sogar ein Teil von DX 12 Ultimate.
Zuletzt bearbeitet:
.Sentinel.
Admiral
- Registriert
- Okt. 2007
- Beiträge
- 8.643
Geht man nicht- Man verteilt nur die Aufgaben anders und lagert die "RT- Einheiten" in eine andere Region aus, die naturgemäß stark an den Speicher angebunden ist. Es wird mehr in Richtung Softwareebene verschoben, was einem zwar theoretisch mehr Kontrolle über die Vorgänge beim Rendern ermöglicht, anderenteils aber wieder theoretisch mit Performancenachteilen einhergehen wird.Zotac2012 schrieb:Ich denke, dass dies auch viel mit AMD zu tun hat, da man hier einen anderen Weg gehen will was Raytracing betrifft, als das bei Nvidia mit der zusätzlichen Hardware in Form von RT Kernen der Fall ist.
Es wird sich zeigen, was da die Vor- und Nachteile sind, wenn die neuen Karten auf dem Markt sind.
Man kann auch derzeit für 477,-€ (auch noch viel Geld) einkaufen mit Custom Dual Fan.Zotac2012 schrieb:Für eine RTX 2070 Super bezahlt man derzeit für die einigermaßen gescheiten Custom Modelle weit über 500,00 Euro,
Wenn man wenig Geld hat, sollte man es sich meines Erachtens verkneifen, ein 630,-€ Modell haben zu wollen, welches unwesentlich schneller arbeitet.
Aus Entwicklersicht macht es keinen großen Unterschied ob man DX12 oder Vulkan nutzt. Bei entsprechend effektiver Nutzung gibt es auch kaum Performancevorteile/Nachteile für die APIs.Ob Raytracing die API DX12 deswegen besser macht, wird man sehen, über kurz oder lang wird ja auch Vulkan Raytracing können, dann wird es erst richtig interessant.
Siehe oben.Bei allem was man bisher so gesehen hat, würde mich nicht wundern, wenn auch hier die Vulkan API besser performt als die DX12 API, aber das ist meine persönliche Meinung.
Nachteilig an Vulkan ist, dass die immer zu spät aus dem Quark kommen und viele Features erst sehr spät in ihre API aufnehmen.
LG
Zero
Zuletzt bearbeitet:
Aus Spieleentwicklersicht macht's je nach Engine auch überhaupt keinen Unterschied. Wenn z.B. die Unreal Engine 4 benutzt wird, reicht ein Klick auf "RayTracing aktivieren". Die anderen großen Engines werden das sicherlich auch bald anbieten.ZeroZerp schrieb:Aus Entwicklersicht macht es keinen großen Unterschied ob man DX12 oder Vulkan nutzt. Bei entsprechend effektiver Nutzung gibt es auch kaum Performancevorteile/Nachteile für die APIs.
So ist das halt bei Konsortien mit vielen Parteien mit unterschiedlichen Interessen, aber das war in der Khronos Group ja auch schon immer so. OpenGL war nie federführend in Sachen Innovation - außer vielleicht in der Zeit vor Direct3D und DirectX.ZeroZerp schrieb:Nachteilig an Vulkan ist, dass die immer zu spät aus dem Quark kommen und viele Features erst sehr spät in ihre API aufnehmen.
Microsoft hat's da natürlich einfacher. Die müssen sich nur intern einigen. Und dann wird gesagt "so wird's gemacht" und fertig.
Botcruscher
Captain
- Registriert
- Aug. 2005
- Beiträge
- 3.976
Das Gegenteil ist der Fall. Weil bei weitem nicht genug Leistung zur Verfügung steht muss man Klimmzüge machen um mit viel Aufwand was hinzubekommen. Dazu muss jetzt für mehrere Beleuchtungssysteme optimiert werden. Was natürlich ohne Sponsor wie bei GPU-PhysX so gut wie keiner macht. Die Gesamtpalette von RT ist hingen eher relativ simpel.sverebom schrieb:Du hast bisher nur vergleichsweise einfache und oberflächliche Implementierungen von Raytracing gesehen. Wir stehen hier noch am Anfang. Was gerade passiert ist ungefähr mit der Einführung der ersten 3D-Beschleuniger vergleichbar.
Lasyx
Lt. Commander
- Registriert
- Juli 2006
- Beiträge
- 1.086
Hi,
Interessant, dass genau vor diesem Bericht der Rückblick ins jahr 2000 raus kam.
Ungefähr im Jahr 2000 wurde Raytracing mit Quake 3 und auch gleichzeitig als die Zukunft vorgestellt. Etwa 20 Jahre später wird berichtet, dass es langsam integriert wird.
Damals habe ich nicht gedacht, dass es so lange dauern wird. Vor Allem weil es ja immer noch eine Besonderheit ist wenn es im Spiel verwendet wird.
Interessant, dass genau vor diesem Bericht der Rückblick ins jahr 2000 raus kam.
Ungefähr im Jahr 2000 wurde Raytracing mit Quake 3 und auch gleichzeitig als die Zukunft vorgestellt. Etwa 20 Jahre später wird berichtet, dass es langsam integriert wird.
Damals habe ich nicht gedacht, dass es so lange dauern wird. Vor Allem weil es ja immer noch eine Besonderheit ist wenn es im Spiel verwendet wird.
Colindo schrieb:Erzähl mir mehr
Hast du schonmal was von Range-joins gehrt?
https://www.datasciencecentral.com/...d-tree-for-fast-range-search-nearest-neighbor
Was? Sowohl AMD als auch NVidia machen nur BVH-Traversal in Hardware, der Unterschied ist nur die Zuordnung der Einheiten. Abgesehen davon ist alles was derzeit gemacht und angedacht ist ein hybrider Ansatz aus Rasterizing und Raytracing, darauf sollte man vielleicht mehr eingehen.
Ja gut, aber was soll man dazu sagen? Die neuartige Funktion ist ja schließlich das Raytracing und dessen Implementation in die GPU. Dass die GPU auch die alte Rasterisierung, und dadurch auch beides gleichzeitig, kann, ist ja nicht gerade bahnbrechend.Sinnfrei schrieb:Abgesehen davon ist alles was derzeit gemacht und angedacht ist ein hybrider Ansatz aus Rasterizing und Raytracing, darauf sollte man vielleicht mehr eingehen.
Daniel Pohl sagte übrigens zu dem hybriden Ansatz damals:
Aus technischer Sicht macht es keinen Sinn, da die Kosten des Teils, der mit Raytracing berechnet wird, in vielen Fällen sehr schnell den ausschlaggebenden Teil der Berechnung einnehmen.
gartenriese
Lt. Commander Pro
- Registriert
- Feb. 2011
- Beiträge
- 1.170
Das stimmt wohl.Mograine schrieb:Schon möglich, die fallen aber nicht in den Bereich CAD. Denn CAD steht im deutschen fur rechnerunterstütztes Konstruieren.
Ähnliche Themen
- Antworten
- 404
- Aufrufe
- 37.884
- Antworten
- 88
- Aufrufe
- 29.985
- Antworten
- 117
- Aufrufe
- 25.607
- Antworten
- 94
- Aufrufe
- 28.837