• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

News Die Strahlen sind los: Was denkt die Community über Raytracing in Spielen?

16-Bit schrieb:
Wir werden also in Zukunft über Speichermenge und Anbindung des Speichers reden als über Prozessoren.
In der Tat.
Die Zukunft heißt hardware accelerated BVH construction within GPU.

Siehe auch https://blog.imaginationtech.com/in...vels-system-and-what-it-will-mean-for-gaming/

Und aus einem reddit post:

From what I gathered from Microsoft, Khronos Groups, and NVIDIA’s white paper and DXR/Vulkan RT documents, CPU aren’t primary responsible for building BVH structure. Only Vulkan seems to support offloading building of top-level acceleration structure to CPU and this isn’t the default behavior.
BVH structure building need access to geometry data each frame to decide whether 1. the scene had changed too much and need a complete rebuild, or 2. they can reuse and modify existing data to save an order of magnitude of compute resource at the cost of degrading quality.

DXR acceleration structures typically get built at runtime on the GPU and contain two levels: a bottom and a top level.
Bottom-level acceleration structures (BLAS) contain geometric or procedural primitives. Top-level acceleration structures (TLAS) contain one or more bottom-level structures. This allows geometry instancing by inserting the same BLAS into the TLAS multiple times, each with different transformation matrices. Bottom-level structures are slower to build but deliver fast ray intersection. Top-level structures are fast to build, improving flexibility and reusability of geometry, but overuse can reduce performance. For best performance, bottom-level structures should overlap as little as possible.
- Introduction to DirectX Raytracing, NVIDIA
NVIDIA recommend building DXR acceleration structure (which currently base on BVH) with async compute functions of their GPU to hide the cost associated. The acceleration structure was then stored to graphic memory for RT core to use.
Khronos’s blog post about Vulkan Ray Tracing does mentioned the task of generating top level acceleration structure can be done with either GPU or CPU. This is one of the additional features Vulkan have over DXR. Developers can choose to offload this part of the task to CPU if there are idle resources there to spare. If bandwidth/ latency between CPU and GPU ever becomes a concern developers can just choose to not to enable this function.
Anyway, a bit off topic regrading direction of BVH construction for future GPU ray tracing implementation. The roles of which CPU or the interlinking between CPU and GPU had played will become even less significant. Most major GPU makers are moving toward hardware accelerated BVH construction within GPU.

  • Imagination Technology (who most famously licensing GPU patents/ designs to Apple) had demonstrated their Wizard architecture in GDC 2014 (video) with dedicated hardware called “SHG” for BVH construction. They mentioned this again in their recent white paper about six levels of ray tracing. They are planning to release updated ray tracing capable C-Series design later this year. A company called Innosilicon are building desktop GPU with last year’s Imagination’s B-Series design. If this collaboration actually materialize into anything. We might have a new player on the market, or maybe Apple will leverage their renewed licensing agreement last year and finally put ray tracing into Apple Silicon.
  • NVIDIA made a presentation in SIGGRAPH 2019 about future improvements of their ray tracing tech (video, slides). They compared various prototypes of hardware accelerated BVH construction methods from their previous research, and the video memory bandwidth saving advantages of their latest PLOCTree architecture. NVIDIA hired the team that wrote the PLOCTree paper who are also making this presentation.
  • Intel submitted their own patent for hardware accelerated BVH construction array which was approved in Nov 2020. Intel already confirmed their upcoming gaming HPG lineup will have ray tracing hardware which is very aggressive for a newcomer of discrete graphic. There is good possibility that this patent will become part of their future roadmap.
 
  • Gefällt mir
Reaktionen: hurcos, Zer0Strat, Ragnarök88 und eine weitere Person
Für mich ist RT momentan total unbedeutend liegt an mangelnder Hardware und für mich passenden Games.

Wenn mann die GPU Tests liest scheint es so als würde es ohne RT einfach nicht gehen, die Umfrage und Kommentare zeigen das es anscheinend bei vielen doch nicht so wichtig ist.
 
  • Gefällt mir
Reaktionen: aodstorm
Raytracing ist die Zukunft. Aber wir nähern uns dieser Zukunft in Babyschritten.
Es wird erst mit der nächsten Konsolengeneration ca 2028 genug RT Leistung vorhanden sein im größeren Stile (alle Effekte und weiteres gleichzeitig) einzusetzen. Davor wird es ein nettes Gimmik sein.
Erst wenn wir die ersten Spiele sehen, die von Grund auf mit "Raytracing in mind" bei Grafikkestaltung und Stil bedacht sind, wird es keine Zweifel mehr geben, dass es dem aktuellen Rasterizing überlegen sein kann.
Bei "Shadern" war das damals auch so, man hatte anfangs nur ein paar nette, teuere Shadereffekte, aber dann kamen auch mal Spiele, die von Grund auf Shader ordentlich eingesetzt haben (Doom 3 und später Crysis). Performancefresser, aber das kriegt man dann halt ohne nicht mehr hin.
Und weil Rastern nicht linear skaliert, RTRT schon, wird irgendwann der Punkt erreicht sein, wo RTRT (bzw hybrid Rendering) effizienter ist, als es es Rastern ist.

Auch, dass Rasterizing aktuell kaum noch skaliert (siehe 4090: 70% mehr Rechenleistung, aber im Rastern kommen davon nur 30% an, was verschiedenste Gründe haben kann).

Ich klaue hier mal einen Beitrag aus dem PCGH-Forum:

Rollora schrieb:
Einer Frage wird finde ich zu wenig nachgegangen (an) PCGH_Raff & Co.:
Nvidia hat hier 2 Chips. Den der 4080, den der 4090. Ersterer ist 360mm2 groß, der 2. 600mm2, Hat ca 70% mehr theoretische Rechenleistung. Und am Ende kommt nur ein Teil an.
Skalierung war noch nie perfekt, aber hier fragt man sich schon, was Nvidia hier macht und was die Gründe sind:

-skaliert die Architektur schlecht?
-skaliert Rasterizing inzwischen so schlecht und Nvidia pusht deshalb RT
-skaliert Rastern in unteren Auflösungen so schlecht (auch wg CPU Limit) und es braucht zur Entfaltung der ganzen Leistung 5K und mehr?
-fehlt es an Speicherbandbreite?
  • zu wenig Cache?
  • Culling am Limit?

hier wirds also für die nächste Gen interessant, sofern die nochmals deutlich zulegen möchte:
-braucht es eine komplett neue Arch?
-HBM?
-Mehr Chache?
- wird es die erste Gen sein bei der mehr Wert auf RT gelegt wird als auf die Rasterperformance? Oder auf Auflösungen jenseits von 4K?

Sonst rutschen "weiter oben" die GPUs ja immer näher zusammen, der Hardwareaufwand der 4090 lohnt sich kaum

Sollten wir uns also tatsächlich bald im RT Zeitalter befinden (also RT nicht nur als Zusatz, sondern Hauptfeature), wird wohl RDNA4 deutlich anders aufgebaut sein und dann hätte Intel in der Tat einen guten Zeitpunkt für den Markteintritt erwischt. Dann wär auch klar wohin der Fokus der next Gen Konsolen 2028 gehen wird

Nvidia, AMD und Intel werden nach und nach den Fokus auch bei GPU Entwicklung und in der Pipeline auf RT setzen. Auch für weitere Anwendungen (Kollisionsabfrage? Culling?)
Dann, wenn beim Rastern nicht mehr viel mehr Performance rauskommt (siehe 4090 vs 4080) wird man als GPU Hersteller auch Möglichkeiten finden müssen die noch schnelleren (aber in der Praxis eben kaum schnelleren) GPUs zu verkaufen - das geht dann nur über die Einheiten, die gut skalieren - RT

aber dazu brauchen wir noch knapp 10x so viel RT Leistung wie heute
 
Zuletzt bearbeitet:
Peterputer schrieb:
Ich sehe so gut wie keinen Unterschied zwischen Raytracing "On" und Raytracing "Off" in YouTube Vergleichvideos, bin ich alleine? :D
Youtube Videos sind da auch nicht immer sehr gut, da da die Kompression mit reinspielt.

Davon abgesehen, gibt es aber auch ausser Metro und CP2077 nicht viele Spiele, wo man das wirklich sieht, es ändert eher das Gefühl, die Umgebung realistischer Wahrzunehmen.
 
Raytracing ist definitiv die Zukunft. Wahrscheinlich als Hybrid-Lösung um in Spielen die stärken beider Rendering Modelle auszuspielen.

Die Vorteile davon sind natürlich überragend und können für unglaublich viel Athmosphäre sorgen oder eine lebendigere, interaktivere Spielwelt, in der die Beleuchtung sich dynamisch an die Umgebung anpasst..

Allerdings wird das noch zwei GraKa Generationen dauern, bis das wirklich für jeden eine Option ist und damit von den Entwicklern entsprechend implementiert wird. Freue mich aber schon sehr auf diese Zeit.
Bis dahin gibts halt, wie immer bei Neuerungen, einzelne Effekte oder ein wenig mehr für die High-End Hardware.
 
  • Gefällt mir
Reaktionen: Czk666 und Donald Duck
RT interessiert mich persönlich eigentlich gar nicht. 90% der Spiele die ich spiele, benötigen im Grunde noch nicht mal 3D-Beschleunigung, von RT ganz zu schweigen. Mir ist es eher wichtig, dass das Spiel an sich (für mich) gut ist (Gameplay) und nicht, dass es so realistisch und bombastisch wie möglich aussieht. Und da gerade die Triple-A Produktion darauf getrimmt ist, gewinnorientiert, den gleichen Matsch immer hübscher zu verpacken, da die Hauptzielgruppe genau darauf abfährt, verzichte ich da äußerst gerne darauf.
 
  • Gefällt mir
Reaktionen: Creekground
RT GI ist das Kilerfeature schlechthin und beseitigt viele Probleme der Rastergrafik.
Wenn das verfügbar ist, aktiviere ich es fast immer.

Da wir mit Rastergrafik in eine Sackgasse zusteuern in der wir nur noch diminishing returns haben, kann die Zukunft nur RT sein.
Denn warum sollte man auf RT verzichten, wenn Rastergrafik da nie hin kommt und irgendwann genauso teuer wird. Ergibt halt keinen Sinn.

Aktuell ist RT ein nettes Feature, das ich auf Kosten der Performance zumindest in Singleplayer Spielen gerne aktiviere, wenn die Performance auch bei mindestens 45 FPS (wenns sehr gut aussieht) oder 60+ FPS liegt.
Problematisch finde ich aktuell die mit RT teilweise deutlich erhöhte CPU Last. Gerade wenn dann die Frametimes mit aktuellen CPUs unter 60 FPS droppen, dann finde ich das sehr problematisch. In solchen Fällen würde ich es auch deaktivieren. Performance ist das eine, aber wenn die Frametimes nicht sauber sind, kann ich damit nicht mehr leben. Aber zum Glück gibt es da ja auch schon effizientere Lösungsansätze für die Zukunft.


Kaufentscheidend für ein Spiel ist RT nicht. Das ist für mich Grafik allgemein nicht. Ich spiele Games ausschließlich wegen Story und Gameplay. Wenn ein Spiel mich anspricht und gute Wertungen erhält, dann spiel ich es. Gute Grafik leistet seinen Beitrag, aber ich würde niemals auf die Idee kommen, meine Kaufentscheidung von irgendwelchen Grafikfeatures abhängig zu machen. Das wäre ja lächerlich. Ein scheiß spiel zocken, nur weil die Grafik gut ist. Das hab ich mal gemacht, als ich 10 war und meinen ersten PC hatte....


Kaufentscheidend für Grafikkarten ist RT Performance aber dennoch. Da RT in Zukunft vermehrt genutzt wird und es aktuell sehr performanceintensiv ist, ist es nur logisch, eine GPU zu nehmen, die mit dem schwierigsten Workload in Zukunft bestmöglich klar kommt (das will man ja eigentlich immer).

Ich sag mal im Budget bereich macht es aktuell noch Sinn, eine GPU zu wählen, die in Rastergrafik das bestmögliche P/L Verhältnis bietet. Aber sich ne High End Karte zu kaufen, weil man gerne hohe Grafikeinstellungen nutzt und dann eine Karte kaufen, die bei RT vergleichsweise schwach ist, erscheint mir nicht sinnvoll. Ich hab erst letztens hier gezeigt, dass Cyberpunk mit niedrigen RT Settings einen viel größeren grafischen Sprung von Ultra auf RT zulegt, als von Low auf Ultra. Ich finde AMD hätte da bei RDNA3 auch reagieren müssen und die RT Performance massiv aufbohren müssen. Denn das hat sich ja schon 2018 mit Turing angekündigt (branchenintern sicherlich schon viel früher).
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Tritom73, Vitche, Teeschlürfer und eine weitere Person
drago-museweni schrieb:
Für mich ist RT momentan total unbedeutend liegt an mangelnder Hardware und für mich passenden Games.

Wenn mann die GPU Tests liest scheint es so als würde es ohne RT einfach nicht gehen, die Umfrage und Kommentare zeigen das es anscheinend bei vielen doch nicht so wichtig ist.
Du pointierest es. Die Hardware fehlt.

In 95 von 100 Postings wird der Raytracing Verzicht erläutert, weil die fps tanken.
In den wenigsten Fällen, weil man das doof findet. Exemplarisch sind für viele eher die übertriebenen Spiegelungen in Spiderman z.B.

Aber ich habe noch nie erlebt, dass ich Leuten hier Raytracing an meinem System live gezeigt habe und die sagten im 1:1 Vergleich: "Du, mach Raytracing wieder aus! Ist ohne viele hünscher das Spiel" ;-)

Wenn man Metro Exodus in voller Raytracing Pracht genossen hat, ist es ohne Raytracing einfach....fail. Blass.

Es fehlt einfach noch die GPU Power.

Ich bin mir sicher - wenn die fps Verluste keine Auswirkungen hätten, dass 99% immer mit Raytracing angestellt spielen.
Denn wieso will man mutwillig die Grafik schlechter machen und wieder auf künstlich pre baked lights stellen?
Es geht eigentlich immer um die Raytracing fps Performance.


Bin sehr gespannt auf die Raytracing Lösung in Witcher 3. Gerade so ein Spiel kann hier ein ganzes anderes Level an Wirkung entfalten als mit dem verstaubten artificial Licht+Schatten Raster Gedöns.
 
  • Gefällt mir
Reaktionen: ErbarmeHesse und t3chn0
Ich verzichte gerne auf Raytracing, wenn die Spiele endlich wieder mit einer guten Single-Player Story kämen, auf DLCs und Mikrotransaktionen verzichten würden und einen hohen Wiederspielwert hätten. Mein Eindruck ist sowieso, dass die Entwickler nur noch auf Grafik setzen und alles andere dafür zu kurz kommen lassen. Ein Gothic 2 ist zwar 20 Jahre als und pixelig und kantig wie sonst was, bringt die Atmosphäre aber besser rüber als 99% der aktuellen Spiele.
 
  • Gefällt mir
Reaktionen: Illithide, ottocolore, Donald Duck und 3 andere
Raytracing ist kein Effekt oder ein Nebenschauplatz auf dem Weg zur fotorealistischen Grafik. Raytracing ist das Ziel. Rasterizing ist doch nur ein Krücke, eine optische Trickserei, weil für Raytracing bisher schlicht die Leistung fehlte. Deshalb ist es auch unausweichlich das Raytracing immer mehr wird und am Ende das Rasterizing ablöst.
Freut euch lieber auf eine fotorealistische Grafikzukunft, als Raytracing einfach abzutun. Jeder Fortschritt in dieser Richtung ist gut und wichtig.
 
  • Gefällt mir
Reaktionen: Ragnarök88, KlaasKersting, Vitche und 6 andere
RT interessiert mich null, spiele momentan auch keine Spiele, die das bieten. Vlt denn mal witcher3.

Bis RT Standard und brauchbar ist, ist es noch ein weiter Weg.
 
  • Gefällt mir
Reaktionen: Donald Duck und coasterblog
Also allein schon weil mich das tierisch stört, wenn Spiegelungen verschwinden, sobald das zu spiegelnde Objekt aus dem Bildschirm verschwindet, ist RT für mich die erste Wahl.
 
  • Gefällt mir
Reaktionen: Czk666 und Laphonso
Jethro schrieb:
RT ist vielleicht ganz nett aber wenn ich mir Vergleichsbilder ansehe brauch ich teilweise schon einen Hinweis welches Bild RT zeigt und welches nicht.

Bei Half Life 1 - hab da damals Mods für erstellt - kam für die Berechnung der Lightmaps was zur Anwendung? ;-)

Da fehlt dann aber jede Dynamik bei der Beleuchtung… ähnlich ist es bei anderen Effekten wie Spiegelungen, die vorberechnete Inhalte zeigen.

Deswegen sollte man es sich bewegt anschauen.
 
  • Gefällt mir
Reaktionen: Laphonso
Raytracing ist defintiv die Zukunft...

Umso bitterer, dass AMD da nicht endlich mal was vernünftiges liefert. Rasterizer-Brechstange ist nett, wenn ich in zwei Jahren jede Menge Effekte einfach nicht nutzen kann.
Das ist genauso dämlich wie die Speicherkrüppel von nVidia. Aber letztere gehen das zumindest langsam an...
 
Interessant, wie ich bei fast allen Punkten in der größten Gruppe liege. Grob zusammengefasst: LMAA liebe Hersteller, lieber gebt uns überhaupt mal brauchbare Karten für wenige Hundert €, die 100fps bei guter Quali in QHD in aktuellen Spielen bringen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: coasterblog
Wenn ich mir anschaue was die UE 5.1 mit Lumen leistet, dann frage ich mich echt ob diese proprietären HW RT Lösungen überhaupt eine Zukunft haben.
 
  • Gefällt mir
Reaktionen: EcOnOmiC, Illithide und edenjung
Meiner Glaskugel nach werden wir in 3-4 Jahren genügend Grafikkartenleistung für so ziemlich alle Spiele in 4k haben. Den Unterschied für den Verbraucher wird dann nur mehr die RT Leistung ausmachen können.
 
RT is gekommen um zu bleiben, aber es muss eben mehr als "nur anders aussehen" (viel mit unnatürlichen Spiegelungen auf Materialien die im RealLife nicht so spiegeln) um von allen als must-have gesehen zu werden.

Ist wie mit allen neuen Technologien, irgendwann schafft selbst eine Budget HW die Effekte wenn der Fokus auf Realismus ist.
 
RT ist für mich kein Thema. Wenn es mit der nächsten Grafikkarte unterstützt wird ist es schon okay. So weit kann ich aber darauf erstmal verzichten.
 
Bis jetzt finde ich den Effekt von Raytracing eindeutig zu klein als dass es sich lohnen würde, es einzuschalten.

Erinnert mich irgendwie an Nvidia PhysX. Das wollte auch jeder haben und manche hatten sogar extra GPUs dafür im PC, aber am Ende ist es auch wieder verschwunden - zumindest in seiner damaligen Implementierung.

Raytracing ist sicherlich gekommen um zu bleiben, aber es wird irgendwann nur noch ein Grafik-Feature von vielen sein, dass niemanden mehr interessiert.
 
  • Gefällt mir
Reaktionen: Illithide
Zurück
Oben