• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

News Die Strahlen sind los: Was denkt die Community über Raytracing in Spielen?

Falke85 schrieb:
Wir wollen ja auch nicht jedes Atom simulieren :) ich glaube da müssen wir auf Quantencomputer warten
Klar. Die Ansage war ja aber „physikalisch korrekt“ vs. Fakegrafik. Faktisch ist es eine Art von Fakegrafik vs. eine andere Art von Fakegrafik. Oder vs. ein Hybrid verschiedener Fakes, was ich immer noch die wahrscheinlichste Entwicklung finde.
 
ampre schrieb:
Den größten Schub mit der Grafik kam mit den Micro Polygonen in UE5. Wir stecken so viel Energie in Raytracing, dabei sind die alten Methoden noch nicht mal ganz ausgereizt. (Siehe Lumen). Es wäre besser erst mal sich auf den Geometriedurchsatz zu konzentrier, das jeder recht Detailgetreue Modelle erschaffen kann.
Raytracing ist ein pixelbasiertes Verfahren. Es macht genau das, was Du bei Nanite in Sachen möglicher Szenenkomplexität so lobend hervorhebst.
 
Prinzipiell ist RT klar zu bevorzugen. Rasterizer bzw. Shader sind oft nur dafür da, fehlende Möglichkeiten oder schlechte Umsetzung zu kaschieren. Nach dem Motto: Lieber 30 Shader in den Raum werfen und das wird schon irgendwie schön aussehen. Und dann hat man halt Kisten, die auf der einen Seite komplett schwarz sind, die Umgebung aber nicht, Objekte, die keinen Schatten werfen oder Wände, die beleuchtet werden, die Decke darüber bekommt aber kein Licht ab... In vielen Spielen sieht das auf den ersten Blick zwar ganz gut aus, es ist aber einfach falsch. Und vieles an Kritik zu RT ist auch Quatsch, da oft nur bemängelt wird, dass eine Szene mit RT dunkler aussieht und man so ja weniger sieht. Dabei ist es andersrum halt falsch beleuchtet. Rasterizer wird eben noch als "normal" betrachtet, selbst wenns falsch ist.
 
sverebom schrieb:
Raytracing wird Rasterizing-Tricks wie SSAO irgendwann obsolet machen, weil wir sie nicht mehr benötigen werden.
Vorsicht- SSAO bedient sich bereits einer schmalspur- Raytracing- Lösung. Ebenso wie Screenspace- Reflections.
 
.Sentinel. schrieb:
Raytracing ist ein pixelbasiertes Verfahren. Es macht genau das, was Du bei Nanite in Sachen möglicher Szenenkomplexität so lobend hervorhebst.
Nein macht es nicht. Die Geometrie muss trotzdem noch Gerastert werden und Nanite bezieht sich auf das Zerlegen von Polygonen in Pixel. Danach kommen erst die Beleuchtungseffekte.... .
 
evilhunter schrieb:
Dabei ist die Performance heutzutage auch mit DLSS und FSR ordentlich.
Grade DAS ist aber ein Wiederspruch in sich! Du willst die im Detail bessere Raytracing Grafik aber gleichzeitig nutzt du DLSS oder FSR womit du du die Details wieder entfernst bzw. oft sogar neue Fehler wie flackern/flirren der Raytracing oder anderen Bild Elemente provozierst.

Für mich ist das das gleiche wie Leute die Musik hören , sagen ich höre nur unverfälschte unkomprimierte FLAC ect. Musik und nichts komprimiertes wie mp3 oder AAC aber dann sich einen Bluetooth Kopfhörer aufsetzen mit einem angeblichen HD Codec der auch nichts anderes macht wie komprimieren für die kabellose Übertragung.
Egal ob da, durch die Kabellose Übertragung oder DLSS/FRS Nutzung bei Raytracing in meinen Augen bescheißt man sich so selber!

Wenn man so darüber nachdenkt hat Jensen es wie ein Drogendealer gemacht. Zuerst gibt er dir den neusten Shit in Form von Raytracing und weil sich diesen keiner effektiv Leisten kann streckt er dann sein eigenes Zeug mit DLSS soweit "das die Zahlen wieder stimmen" und keiner merkt den Beschiss das er uns ein Problem und die Lösung dazu präsentiert hat nur damit wir seinen Scheiß anstatt den der Konkurrenz kaufen!
 
  • Gefällt mir
Reaktionen: edenjung, mibbio, Illithide und eine weitere Person
nice to have mehr auch nicht für mich
 
Turrican101 schrieb:
Prinzipiell ist RT klar zu bevorzugen. Rasterizer bzw. Shader sind oft nur dafür da, fehlende Möglichkeiten oder schlechte Umsetzung zu kaschieren. Nach dem Motto: Lieber 30 Shader in den Raum werfen und das wird schon irgendwie schön aussehen. Und dann hat man halt Kisten, die auf der einen Seite komplett schwarz sind, die Umgebung aber nicht, Objekte, die keinen Schatten werfen oder Wände, die beleuchtet werden, die Decke darüber bekommt aber kein Licht ab... In vielen Spielen sieht das auf den ersten Blick zwar ganz gut aus, es ist aber einfach falsch. Und vieles an Kritik zu RT ist auch Quatsch, da oft nur bemängelt wird, dass eine Szene mit RT dunkler aussieht und man so ja weniger sieht. Dabei ist es andersrum halt falsch beleuchtet. Rasterizer wird eben noch als "normal" betrachtet, selbst wenns falsch ist.
Quatsch. Es werden im Regelfall eben keine „30 Shader in den Raum geworfen“, sondern es werden Gamedaten an ein auf RaytracingBerechnungen spezialisiertes Unternehmen rausgegeben, das die GI auf Profihardware aufwändig ausrechnet, idealerweise mit einer Genauigkeit, die das heute im lokalen Consumerrechner in Echtzeit mögliche um Längen übertrifft. Falls Deine Decke kein Licht hat, hat halt jemand schlicht seinen Job schlecht gemacht, was bei RT genauso gut oder schlecht geht.

Umgedreht ist es tatsächlich einfach „falsch„, wenn wie im ursprünglichen MetroExodus (ohne EE) pro Lichtquelle lediglich ein (1!) Strahl verwendet wird, der dann auch nur einmal (1!) und wahrscheinlich auch noch unabhängig von den korrekten OberflächenEigenschaften reflektiert wird, um es auf praktisch nach wie vor für Echtzeit-RT um Größenordnungen zu schwacher Hardware lauffähig zu halten. Das ein mit mit derart vielen Kompromissen behaftetes GI-Modell falsche und eben deutlich unrealistisch dunkle Ergenisse liefert, sollte wohl klar sein und hat nun überhaupt nichts mit angeblich falschen Sehgewohnheiten zu tun. Gutes RZ ist und bleibt ganz objektiv oft näher an der Realität als das meiste heutige, imho größtenteils (noch) dürftige RT. Die einzige Frage ist, ob sich das irgendwann mal ändern kann. Und zu welchem Preis.
 
  • Gefällt mir
Reaktionen: edenjung und KitKat::new()
Also ich verstehe die Fragestellung grundsätzlich nicht.

Morrowind konnte man auch mit einer Geforce 2 und selbst noch mit einer Geforce 4 MX ohne Pixel-Shader spielen, aber es sah einfach nur schlecht aus (das Wasser).

Raytracing wird der neue Standard und für mich wird die Raytracing Leistung bei meinem nächsten Computer eines der wichtigsten Kriterien sein. Auch wenn ich aktuell am liebsten Spiele spiele, die 10-30 Jahre alt sind, will ich irgendwann wieder einen echten Wow-Effekt erleben, so wie bei Morrowind, Far Cry, Oblivion, Fallout 3, Crysis und Skyrim.
 
Raytracing hab ich noch nie benutzt.
Wenn spiele vernünftig programmiert wären bräuchte man sowas nicht.
Aber so kann man den Leuten halt noch mehr Geld aus der Tasche ziehen.

Hab von solche Probleme noch nie bei Konsolen Spiele gehört.
 
Nemesis200SX schrieb:
Ich glaube es ist für Entwickler leichter Schatten und Reflexionen per RT zu realisieren als es selbst zu implementieren.
Das Schöne an Path-Tracern ist, dass fast alles, was heute an Effekten kompliziert und aufwendig in eine Engine implementiert werden muss, sich quasi bereits in den meisten Grundalgorithmen findet und einfach läuft.

Nemesis200SX schrieb:
Und da seh ich das Problem. Es wird sich keine/zu wenig Mühe gegeben die Games auch ohne RT gut aussehen zu lassen.
Und wo ist das Problem, wenn mit der Zeit die "RT"-Leistung bei der Hardware weiter zunimmt? Hast du oder ein anderer hier mal weiter gedacht, wie komplex heutige Engine sind und welcher Aufwand teilweise betrieben werden muss, damit ein Spiel so aussieht, wie es heute aussieht?

Du sprichst bereits ein Teil selbst schon an und genau da entstehend die Probleme:
Nemesis200SX schrieb:
Anderer Seits bin ich immer wie begeistert wie gut ältere Games Reflexionen und Beleuchtung auch ohne RT hinbekommen... da geht mir persönlich gar nichts ab bei der Optik.
Früher wurden für Spiele aufwendig - bevor Transform & Lightning sowie die Shader kamen - Shadow- und Lightmaps erstellt. Spiele konnten damit oft nur genau eine Lichtstimmung einfangen. Dynamische Schatten waren nicht gegeben und auch eine dynamische Beleuchtung war nicht möglich.

Die Qualität der Grafik war davon abhängig, wie viel Zeit die Entwickler in die Erstellung der Shadow- und Lightmaps gesteckt haben. Bei Spiegelungen ist es heute teilweise immer noch so, wobei es hier darauf ankommt, ob man nur Screen-Space-Reflections nutzt, was die Reflektionen draßtisch reduziert, oder ob man dann mit Tricks arbeite. Vor gerenderte Texturen aus der Perspektive der Pfütze, des Gewässers, des Spiegels und Co, benötigt entsprechende Rechenleistung, ist wenig dynamisch und fällt heute, wenn Effekte zum Tragen kommen, sofort auf. Auch möglich ist es eine dynamische Textur zu rendern, die selbst ein Rendertaget darstellt, kostet aber je nach Auflösung der Texturen dann sehr schnell sehr viel Leistung, weswegen man quasi alles vereinfacht, was man vereinfachen kann, sieht man auch sofort.

Der entscheidende Punkt ist, gerade bei Reflexionen, dass es einem Path Tracer am Ende "egal" ist, ob ein Gewässer, dazu ein paar Pfützen, Spiegel und Fenster eine Reflexion darstellen, mit Screen-Space-Reflections und dynamischen Texturen ist es aber schnell anders.

Einfaches Rechenbeispiel für ein Szene: 2160p als Displayauflösung und die Texturen sind 4K im Spiel, ein Spiegel, der eine 4K-Spiegeltextur dynamisch direkt rendert, kommt hier auf 3840 * 2160 Pixel für das Bild und im zweiten Rendertarget kommen noch mal 4096 * 4096 Pixel für die Textur dazu und damit müssen bei einer(!) vollständig dynamischen Spiegelung ca. 25.000.000 Pixel berechnet werden. Entsprechend lässt man die Reflexion in so einem Fall dann eher mit 1024 * 1024 rendern - was man dann aber sofort wieder sieht - immer noch 1 MegaPixel zusätzlich. Bei einem PathTracer ist das locker mit drin.

Bei der Beleuchtung ist es der nächste Punkt: Heute ist man bei der dynamischen Beleuchtung weiter, gleichzeitig sind die Anzahl möglicher Lichtquellen begrenzt, die man mit einbeziehen kann, da man für jede zusätzliche Lichtquelle entsprechende Berechnungen durchführt und man findet in vielen Guides zur Performance-Optimierung, dass man sich auf wenige dynamische Lichtquellen begrenzen soll, weil sonst das Beleuchtungs- und Schattensystem zu viele Iterationen läuft. Erneut: Einem modernen Path-Tracer ist es egal, wie viele Lichtquellen ich in das Bild einbinde.

Bei den Schatten geht es weiter: Heute muss man sich entscheiden, will man weiche oder harte Schatten haben, es gibt kaum eine Möglichkeit wirklich beides gleichzeitig umzusetzen, außer man berechnet mehre Shadow-Maps abhängig von der Beleuchtung, muss dann aber direkt vorweg bestimmen, welche Objekte harte und welche weichen Schatten bekommen soll. Auch hier: dem Path-Tracer ist das egal, weil die Schatten in Abhänigkeit der Strahlen berechnen kann.

Von SSAO und Co will ich gar nicht anfangen, die heute als zusätzlicher Effekt ausgeführt werden muss.

All das steigert die Komplexität einer Engine massiv und grafische Verbesserungen kosten heute teilweise auch nach der "klassischen" Methode immer mehr Leistung und Path-Tracer-Ansätze finden sich immer stärker in modernen Effekten, weil die "Tricks" nun oft mehr Leistung kosten und kaum mehr Verbesserungen versprechen.
Nemesis200SX schrieb:
Bei künftigen Spielen könnte man aus Bequemlichkeit der Programmierer quasi zu RT gezwungen werden wenn man ne hübsche Optik will.
Mit Bequemlichkeit hat das überhaupt nichts zu tun, sondern damit, dass mit DirectX9.0c - ShaderModell 3.0 - der letzte wirkliche grafische Sprung bei Spielen vollzogen wurde - Crysis und Unreal Tournament 3 - und alle Effekte, die man heute verwendet, die Bühne betreten haben und seit dem die grafische Entwicklung bei Spielen quasi stagniert.

Seit Crysis kamen quasi keine neuen Effekte hinzu, sondern die Engineentwickler arbeiten daran, dass die Effekte entweder "akkurater" aussehen oder dass man mehr dynamische Lichtquellen in Spielen zu sehen bekommt, die sich gegenseitig beeinflussen. Reduziert man ein The Witcher oder Cyberpunk 2077 und ein Crysis auf die angewendeten Effekten, auf die Grundalgorithmen und Ideen, findet man schnell die selben Namen und nichts Neues.

Um die Grafik weiterzubringen, nähern sich die Engine-Entwickler seit einiger Zeit immer stärker den Ray-Tracer Ansätzen und nutzen Ray-Casting und Path-Tracing als Unterstützung in vielen Effekten, um sie zu verbessern. Man sehe sich mal die Vorträge zu bestimmten Effekten von CryTek, Epic und Co auf den den technischen Messen und Kongressen an und wie sich da seit ca. 8 - 10 Jahren immer mehr Ray-Tracing-Techniken in den Überlegungen wieder finden, die aber stark vereinfacht und zusammen gestrichen werden, damit man weiter kommt bei den Effekten.

NVIDIA, AMD und Microsoft arbeiten nicht ohne Grund an DXR und daran, dass sie Path-Tracer-Techniken in eine API und in ihre Grafikkarten implementieren. Es ist keine Entscheidung, die Micosoft, AMD und NVIDIA getroffen haben für die Spieleentwickler, sondern die Entscheidung haben die Engineentwickler selbst getroffen, in dem sie anfingen, mit Techniken aus diesem Bereich zu experimentieren, um weiterzukommen.

Illithide schrieb:
und genau das ist aber nicht der Fall.
Diese Aussage ist weder richtig noch falsch. Natürlich stimmt es, dass auch ein aktueller Path-Tracer natürlich durch die Hardware limitiert wird und damit auch die Anzahl an möglichen Primär- und Sekundärstrahlen.

Gleichzeitig erfolgt die Berechnung der Effekte aber wesentlich akkurater und nach physikalischen Maßstäben, während es bei einem Rasterizer immer ein grobes Schätzen war, was man an allen Ecken und Enden sieht.

Illithide schrieb:
Anzahl der Strahlen gegen unendlich, Bounces gegen unendlich mit physikalisch korrekter Simulation der Brechung, diffusen Streuung, Reflexion, Absorption, Einfärbung - geht nicht.
Ich markiere dir mal einen sehr wichtigen Punkt in deiner Argumentation, die dir zu denken geben sollte: Absorption. Ansonsten muss ich sagen, dass du deine Gedankengänge da etwas sortieren solltest.

Bei jeder Reflexion - egal ob diffus oder gerichtet - absorbiert die Oberfläche ein Teil der Energie des Lichtstrahles und mindert somit seine Leuchtkraft, man benötigt also weder"gegen" unendlich tendierende Strahlen noch gegen unendlich laufende Bounces, damit die Berechnung so physikalisch korrekt wie möglich ist.

In unserer Welt verliert das Licht bereits an Energie in der Luft, weil die Atome in der Luft die Energie absorbieren, womit der Strahl immer schwächer wird.

Diese Faktoren kann man in einem Path-Tracer heute über Werte bereits abdecken - wie gerichtet die Reflexion einer Oberfläche ist - und wie viel ggf. vom Strahl geschluckt wird, was dann über die weiteren Primär- und Sekundärstrahlen entscheidet.

Illithide schrieb:
Wird also ein Modell mit (extrem starken) Vereinfachungen bleiben. So wie die heutige „Fake“-Grafik. Nur in anders. Und natürlich leider mit vervielfältigten GraKa-Preisen.
Nein, diese Aussage ist so einfach falsch, vor allem, weil du einen Path Tracer mit einem Rasterizer gleich setzen willst, was die Vereinfachungen angeht.

Ein Ray-Tracer bedient der physikalischen Gesetze, was die Lichtstrahlen angeht, um Rechenleistung einzusparen, wird nur zu bestimmten Zeiten entschieden, ob sich eine Strahlenverfolgung noch lohnt oder ob man diese abbricht (eine "Vereinfachung"), das wird aber auch durch die Natur und damit mit der Physik selbst gestützt. Die zweite Vereinfachung ist es, dass man die Anzahl an Strahlen reduziert und für die entstanden Zwischenräume einen Denoiser nimmt.

Die Vereinfachung bei einem Path-Tracer besteht also darin, dass man ab "x"-Sprüngen die Berechnung abbricht oder dass man aus den umliegenden Strahlen ein Wert interpoliert.

Bei einem Rasterizer versieht man Polygone mit Texturen und bestimmt anhand eines Z-Buffers, ob das Polygone als Pixel sichtbar ist. Um überhaupt Schatten und Co zu bekommen, nimmt man dann über Light- und Shadowmaps noch Farbwerte, um die ein Pixel abgedunkelt oder aufgehellt wird. Um dann noch einen Tiefeneffekt zu erzeugen, fährt man heut (SSAO) dann pauschal noch die Polygone-Kanten ab und dunkelt die Pixel entlang der Kanten ab, und zwar pauschal.
 
  • Gefällt mir
Reaktionen: MadCat[me], slamaa, Daddi89 und 5 andere
Ich kann gar nicht mal so wahnsinnig viel zu Raytracing sagen.
Die meisten Implementationen sind ja eher kaum bemerkbar, da gibt es nur eine Handvoll von Spielen, wo man den Unterschied wirklich merkt. Nur interessiere ich mich genau für diese Spiele nicht unbedingt.
Ich spiele viel Forza Horizon 5 und seit dem neusten Patch gibt es etwas mehr Raytracing, DLSS, FSR und DLAA.
Ich habe mit meiner 3080 das Raytracing auf Extrem hochgeregelt (die Option gibt es auch erst seit dem Patch) und merke absolut keinen visuellen Unterschied. DLSS, FSR und DLAA habe ich alle ausprobiert, DLSS und FSR sehen einfach nicht gut aus in dem Spiel und DLAA macht zwar einen guten Eindruck, hat aber ebenfalls paar Probleme das Spiel visuell korrekt darzustellen.
Nach all dem Freuen bin ich also wieder auf meiner nativen Auflösung mit TAA gegangen, was in dem Spiel sehr gut funktioniert. FH5 ist immerhin sehr gut optimiert und benötigt Upscaling nicht um gute Framerates zu erreichen.
Und Raytracing als Kaufgrund halte ich einfach für absurd, es ist ja nicht so als könnten die AMD Karten kein Raytracing, die sind halt nur ein Stück schlechter drin.
Dafür zahle ich nicht den Aufpreis für eine RTX 4080 gegenüber einer 7900XTX.
Klar, kann man argumentieren mit, dass man mit einer RTX Karte besser für die Zukunft ausgestattet ist, aber mal ganz ehrlich. Wer 4 stellige Beträge für Grafikkarten ausgibt, der upgraded vermutlich sowieso jede Generation.
 
  • Gefällt mir
Reaktionen: edenjung und Sittich01
Gamefaq schrieb:
Grade DAS ist aber ein Wiederspruch in sich! Du willst die im Detail bessere Raytracing Grafik aber gleichzeitig nutzt du DLSS oder FSR womit du du die Details wieder entfernst bzw. oft sogar neue Fehler wie flackern/flirren der Raytracing oder anderen Bild Elemente provozierst.
Bei den Bildfehlern gebe ich dir recht. Bei dem Rest vergleichst du meiner Meinung nach Äpfel mit Birnen.

DLSS und Co. lassen die durch Raytracing gewonnenen Details wie realistischere Spiegelungen, Schatten oder Lichtstimmung nicht wieder verschwinden sondern machen sie maximal unschärfer. Am Ende sind diese Verfahren ja nichts weiter als eine bessere Reduzierung der Auflösung.
 
  • Gefällt mir
Reaktionen: Wintermute
.Sentinel. schrieb:
Für ne 250€ Karte bei einem Titel, der alle Register in Sachen RT zieht meines Erachtens kein Problem, oder?.

Ja gut, aber man kauft sich ja i.d.R. nicht eine Grafikkarte fuer nur ein Spiel (Ausnahmen - die bspw. praktisch nur ein ausgewaehltes Spiel wie Fortnite, Battlefield oder League of Legends spielen/versuchen zu perfektionieren, bestaetigen die Regel), auch wenn die Umsetzung bei Metro Exodus mit der Enhanced Edition zugegeben relativ vorbildlich gelungen ist, wobei es unter 50fps natuerlich auch nicht butterweich laeuft (etwa nach der "Ratten"-Szene mit dem Messer ganz leicht ruckelt, aber natuerlich noch halbwegs gut spielbar ist, wenn man nicht zu hohe Ansprueche an so eine RTX 2060 als 250+ Euro Karte stellt, wobei ich die RDNA2 RX 6600 dennoch als das klar bessere Angebot/Paket insgesamt sehe mit ca. gleicher RT-RT Leistung, 16% hoeherer Rasterizer-Leistung und 8GB anstatt 6GB fuer aehnlich viel Geld).

Dass Problem sind aber bei der Vanilla Ausgabe wirklich die zu knappen 6GB, die ja mittlerweile in Rasterizer-Titeln schon oft nicht mehr reichen und das war damals ja leider auch absehbar, zumal RT-RT meist noch mehr moechte in den meisten Titel als die reine Rasterizer-Umsetzung schon an Speicher verlangt (auch wenn der nVidia CEO die Vanilla Ausgabe der RTX 2060 gerade als tollen Deal angepriesen/gefeiert hat per Marketing - wobei viele das aber damals zum Glueck durchschaut haben - um kurz danach die sicherlich deutlich besser gelungene "Super"-Version mit 8GB (wie es von Anfang haette sein koennen oder vielmehr muessen) heraus zu bringen.

Es gibt sicherlich auch schon einige handwerklich durchaus gut umgesetzte RT_RT unterstuetzende Titel (auch gemessen an Aufwand, aktuell verfuegbaren Tools, und anderen Limitierungen), keine Frage, aber eben leider auch das komplette Gegenteil davon (AAA heisst ja nicht automatisch, dass es gelungen umgesetzt wird) und zum RTX Turing Markstart schien es bei nVidia fasst beinahe so, als ob man RTX nur bis zur RTX 2070 hinunter bei den Kartenmodellen anbieten wollte, sich aber doch mit Aussicht auf groesse Profitabilitaet (und evt. weil das Ganze dann thematisiert wurde bos wohin der RT-RT Support gehen wuerde und sinnvoll waere in der RTX-Erstgeneration) fuer die Vanilla und spaeter Super Varianten der RTX 2060 entschieden hat.

Wie sinnvoll eine noch schwaechere RTX 3050 trotz 8GB Speicher dann noch (fuer RT-RT) gewesen ist, kann man natuerlich ebenso debattieren und ich denke diese ist in erster Hinsicht den verrueckten Mining-Preisen geschuldet gewesen, denn fuer RT-RT ist diese einfach zu schwach (wobei DLSS Kompatibilitaet da als Teil von RTX vermutlich eher im Vordergrund stehen duerfte) und haette dem Namen nach wohl auch noch als GTX Karte funktioniert.

Waehrend des Mining-Booms hatte ich uebrigens - vor gar nicht so langer Zeit/letztes Jahr noch - sogar einmal ueberlegt mir die nachtraeglich mit 12GB eingefuehrte RTX 2060 (auch als Schnupper-RT-RT Karte und als Schnupper-Miningkarte) anzuschaffen, weil das eine Zeit lang das beste Angebot zu sein schien bei den damals durch die Bank verrueckten dGPU-Preisen ;).
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: .Sentinel.
Chismon schrieb:
Was ist denn mit den nVidia Turing RTX 2060 Vanilla (mit nur 6GB) und Super (mit kurz darauf 8GB zur grossen Freude der Vanilla Kaeufer) Grafikkarten, die man doch nicht unter den Tisch fallen lassen sollte und die auch dedizierte RT-Raytracing Einheiten abbekommen hatten, auch wenn es eher Bauernfaenger- bis Einsteiger-Karten fuer RT-Raytracing waren ;) @Vitche ?
Die kamen ja erst später; den Anfang der Turing-Generation machten die drei genannten Karten. :)
 
  • Gefällt mir
Reaktionen: Chismon
Ich finde den Metro Exodus Vergleich krass. Da muss man sich ja fast RT Karten für Kaufen damit die Beleuchtung nich so furchtbar finster ist ;)
 
ampre schrieb:
Wir stecken so viel Energie in Raytracing, dabei sind die alten Methoden noch nicht mal ganz ausgereizt. (Siehe Lumen).
Die alten Methoden sind, was Beleuchtung, Schatten und Reflexionen angeht, weitgehend ausgereizt und ich würde dir mal empfehlen, dir den Quellcode zu Lumen anzusehen.

Lumen verwendet Path-Tracing-Techniken zur Berechnung der Beleuchtung und von Schatten, nur dass Lumen, sofern keine RT-Beschleuniger eingesetzt wird - sehr wenige Strahlen absendet und diese Strahlen als Näherungsvektoren für die Beleuchtung verwendet und von diesen dann aus sehr stark interpolieren muss und bestimmte Lichteffekte, sobald man die RT-Beschleunigung deaktiviert, überhaupt nicht mehr berechnen kann, weil auch bei den wenigen Strahlen sehr früh ab abgebrochen wird.

Lese und sehe dir mal die Beispielbilder für die ganzen RT-Effekte in der UE5 und Lumen in der Dokumentation an.

.Sentinel. schrieb:
Vorsicht- SSAO bedient sich bereits einer schmalspur- Raytracing- Lösung. Ebenso wie Screenspace- Reflections.
Nein, SSAO bedient sich nicht wirklich einer RayTracing-Lösung, sondern bedient sich der Werte des Z-Buffers. Die Tiefendposition eines Pixels wird über den Z-Buffer ermittelt und mit den Nachbarn verglichen, wenn ein entsprechender Unterschied vorhanden ist, wird die Pixelreihe abgedunkelt, um das Ambient Occlusion zu simulieren. Spätere besser SSAO-Effekte (z.B. HBAO) bedienen sich dann der Voxel-Technik, die bessere Ergebnisse liefert.

Bei Screenspace-Reflections liegst du auch nicht ganz richtig, wobei man da schon eher von einem Ray-Tracing-Ansatz sprechen kann, wobei es da auch drauf an kommt, welche Lösung man nimmt. RayCasting der Sichtlinie ist eine Möglichkeit, bei bestimmten Screenspace-Reflections wird aber auch einfach eine pauschale Annahme getroffen.
 
  • Gefällt mir
Reaktionen: MadCat[me], .Sentinel. und evilhunter
Zumindest was die ganzen Review Seiten anbelangt, stellt sich die Frage eigentlich garn nicht, wie wichtig
ihre Leser RT einstufen.
Denn falls sie gegen Nvidias eindringliche Empfehlung bzw, stillschweigende Auflagen verstoßen sollten und der Sache zuwenig Bedeutung schenken, werden sie mit drakonischen Mitteln bestraft.
Da getraut sich keiner aufzubegehren, am ehesten noch hardware unboxed, aber alle anderen kann man heutzutage in einer Tüte rauchen, denn sobald einem Nvidia die Liebe entzieht und keine Founders Edition mehr zum Release zugesendet werden, können sie auch gleich den Laden zumachen.
 
  • Gefällt mir
Reaktionen: Dai6oro
Einige sind hier echt optimistisch (nichts Schlechtes, zugegeben), aber das wird noch Jahre dauern.

Bisher existieren Garfikkarten, die primär Rastergrafik erzeugen. Zusätzlich gibt es dedizierte Einheiten, die die Verfolgung der wenigen 'abgeschossenen' Strahlen beschleunigen und weitere, die per KI dafür sorgen, daß die Leistung nicht in unspielbare Bereiche fällt. Die wenigen Strahlen brauchen dann auch noch ein effizientes Denoising, um Unschärfe und ähnliche Effekte zu simulieren. Die Krücke für die Krücke.

Ohne komplett neue Karten und angepaßte Engines wird das nichts :).

Nicht falsch verstehen, die Aussichten sind vielversprechend, aber trotzdem eher Zukunftsmusik.
 
  • Gefällt mir
Reaktionen: Ghostfacekalle
Zurück
Oben