News Auch für Radeon: Crytek zeigt Raytracing-Demo für kommende CryEngine

Schaut schon geil aus, muss man sagen.
Glaube aber die anzahl der Games die das irgendwann nutzen wird sich in grenzen halten.
 
  • Gefällt mir
Reaktionen: Lübke82
@ZeroZerp
Du tust doch die ganze Zeit so das du so wahnsinnig gut informiert bist, woher kommt also auf einmal die Amnesie zum stockenden Bildfluss bei der Demo? Um dir nicht die Freude beim Durchsuchend er alten News aus der Anfangszeit zu nehmen will ich an der Stelle nicht zu viel verraten. ;)

Und nein, nach meiner Logik würde jetzt eine Technik genutzt werden die dem Feature zum Durchbruch verhilft und die Enthusiasten können sich mit der RTX gegenseitig den popo vergolden. Wenn der Ansatz mit den RT Cores irgendwann mal soweit sein sollte auf breiter Front ausreichend performant zu sein dann kann der übernehmen denn der breiten Masse der Kundschaft dürfte es herzlich egal sein wie korrekt die Darstellung ist, hauptsache es bringt ihnen einen realen und nutzbaren Mehrwert.

PS:
Kommt es mir nur so vor oder sind es genau diejenigen die auf gedei und verderb den RTX Ansatz zum heiligen Gral machen und die möglichst korrekte Darstellung überbewerten die auch die Speicher Knauserei schön reden und dadurch geringer auflösende Texturen runterspielen wollen?
Beim einen ist also die möglichst detailierte Darstellung so wahnsinnig wichtig, beim anderen nicht? 🤔
 
  • Gefällt mir
Reaktionen: Thraker
Wer hätte das gedacht, dass es auch ohne spezielle Kerne schon in Echtzeit renderfähig läuft. Ja es gibt noch Probleme und bei Szenenwechel braucht es Zeit, aber das was wir in der Demo zu sehen bekommen haben, stimmt mich doch sehr hoffnungsvoll und ist schon toll anzusehen. Ja den Scheiben fehlt etwas Dreck und hier und da könnte noch dran geschraubt werden, aber hey sieht trotzdem sehr sehr geil aus.

Es freut mich auch, dass proprietäre Lösungen damit weniger eine Chance haben und Nvidia wohl eventuell umdenken muß. Allen hier gebrachten Argumenten zum Trotz, es läuft auf normaler Hardware und ist noch nicht optimiert, also können wir hoffen dass RT sich wohl dadurch viel schneller durchsetzen kann, als nur mit der völlig überteuerten Hardware von Nvidia. Meine Meinung dazu... Und ja ich weiß, dass die Tensorkerne schneller rechnen bei RT als andere Compute Einheiten. Was wichtig ist, es läuft zumindest als Demo bereits ganz gut und das ist das Wesentliche in meinen Augen.
 
  • Gefällt mir
Reaktionen: Transistor 22 und geist4711
Es gibt eine Vulkan Raytracing Initiative (bissl runterscrollen): https://github.com/KhronosGroup/Vulkan-Docs/issues/686

In der Khronos Gruppe arbeiten übrigens alle hier genannten Firmen mit ... politische Diskussionen bei Technikthemen sind so sinnvoll wie Wasserstandsmeldungen über ein ausgetrocknetes Flussbett. :-P
 
  • Gefällt mir
Reaktionen: geist4711 und .Sentinel.
Smartcom5 schrieb:
@KlaraElfer Die vermeintlich fehlende Begründung, weswegen das Argument „Zeit“ so in dem Maße bei nVidia nicht gelten kann, hat @Aldaric87 sehr wohl geliefert. Allein nämlich schon der Fakt, daß die RT- und Tensor-Cores bei der aktuellen Generation schon nicht einmal beim Top-Modell zu einer entsprechend adäquaten Wiedergabe unter Zuhilfenahme entsprechender Effekte genügen, verbietet selbst schon einen bloß hypothetisch späteren Einsatz aufgrund fehlender Leistungsgrößen ek·la·tant.

...

Henne - Ei Problem?
Und welche Dx8/9 Karte hatte gleich die Leistung, alles zu nutzen?
 
  • Gefällt mir
Reaktionen: Lübke82, kisser und .Sentinel.
Wenn Crytek das softwareseitig so hinbekommt, dass es auf allen Grafikkarten läuft ist das doch nur zu begrüßen. Es scheinen ja schon viele Stellen an dem Thema zu arbeiten. Je mehr, desto besser. Wenn die die CPU mit heranziehen, werden meine 8 Kerne ja vielleicht mal so richtig ausgelastet.
Und vielleicht gibt es ja dann mal die Crysis Redux Collection mit Raytracing.
 
  • Gefällt mir
Reaktionen: KlaraElfer und .Sentinel.
Smartcom5 schrieb:
  1. Die entsprechende Techdemo Neon Noir von Crytek läuft laut Aussage selbiger sehr wohl in Echtzeit!
  2. Selbst das, was nVidia derzeit in Spielen zeigt, ist „ganz weit weg von dem“, was RTX in Spielen sein sollte
  3. Und das Ergebnis des fulminanten RTX-Showoffs bringt nicht nur die RTX 2080 Ti ins schwitzen. hust Aktie!
Lektüre:
CryEngine.com • Neon Noir – A Real-Time Ray Tracing Demonstration For CRYENGINE



In diesem Sinne

Smartcom

Man merkt hier ist wieder jemand am Werk, der sich sehr verbunden mit einem Konzern fühlt, der nun an sein Geld will ... Hust Fanboy.
Wie kann man als intelligenter Mitbürger sich so emotional einem Konzern verbunden fühlen? Ich für meinen Teil hatte die letzten 20 Jahre von der Radeon 9700 Pro, über die 6800 Ultra, 3870, 4890 bis zur GTX 1080 Ti durchgehend Grafikkarten von beiden Firmen und habe vor Kurzem auch einen Ryzen in unseren 2. Rechner verbaut - ich kaufe nach Preis-/Leistungsverhältnis bzw. danach was ich persönlich benötige, nicht nach irgendwelchen dämlichen Ideologien die einem im Internet vorgegaukelt werden ...

Dass Raytracing mit darauf abgerichteter Hardware besser läuft sollte wohl selbstverständlich sein, dennoch ist es ein wichtiger Schritt Raytracing möglichst schnell in den Mainstream Bereich zu bringen. Das sieht AMD mit der Ankündigung der Hardware-Unterstützung von DXR wohl auch so:

„Natürlich funktioniert Raytracing auch auf AMD-GPUs, jedoch ohne passende Unterstützung seitens der Hardware und Software ist dies quasi unbrauchbar. Exakt in diesem Punkt will AMD ansetzen. So soll zukünftige Hardware Raytracing unterstützen“

https://www.computerbase.de/2019-01/amd-raytracing-16-kerne-pcie-4.0/


Die Aktien von Nvidia wie auch AMD sind deutlich und nahezu identisch nach Q3/2018 gefallen, dies lag an der veröffentlichten Quartalszahlen, die aufgrund des Endes des Miningbooms deutlich schlechter ausfielen. Darüber wurde ausgiebig hier und so ziemlich auf jeder anderen Plattform berichtet - nicht ausgepasst?

Hier noch einmal für dich:

„Gehandelt wurde die Nvidia-Aktie am 1. Oktober 2018 zum zwischenzeitlichen Hoch von 289,36 US-Dollar. Mittlerweile wechselt das Wertpapier für 143,58 US-Dollar den Besitzer. Das entspricht einem Verlust von knapp über 50 Prozent. Zum Vergleich: Der Preis für eine AMD-Aktie lag am 1. Oktober noch bei 31,42 US-Dollar, befand sich jedoch bereits leicht im Minus, und wird aktuell für 18,83 US-Dollar gehandelt, was einem Verlust von rund 40 Prozent entspricht.“

Quelle: PCGH

Selber Zeitraum:
Nvidia -50%
AMD -40%

AMD hatte jedoch mit Ryzen einen Volltreffer gelandet, deshalb lässt lässt es einen nicht wirklich clever wirken, wenn man den Aktienkurs eines Herstellers von GPUs mit dem eines Herstellers von GPUs und CPUs vergleicht. Warum nicht noch Intel mit in den Vergleich miteinbeziehen? Diese sind doch der führende Hersteller in Sachen CPUs und GPUs :lol:
AMD ist mit GPUs aktuell nicht wirklich erfolgreich - Nvidia aktuell genauso wenig, auch wenn es danach aussieht, dass es sich mit der Ankündigung für den Mainstream Markt wieder bessert (Nvidia Aktie innerhalb einem Monat +10%, AMD +-0% - wie gesagt der Vergleich hinkt allerdings, jedoch ist Ryzen nach wie vor erfolgreich), das wird sich mit Navi hoffentlich wieder ändern. Ryzen war jedoch ein voller Erfolg, wie bspw. hier zu lesen: https://www.computerbase.de/2018-11/cpu-marktanteil-mindfactory-amd-intel-oktober-2018/
Daher konnte AMD den Wegfall des Mining Booms besser verkraften (und bis jetzt hat Intel nicht zurückgerudert, der Ryzen Boom hält an) - zumindest was die Aktie angeht.

Ich warte immer noch auf den Aktien Vergleich mit Intel oder am besten direkt mit Tesla, damit auch jeder direkt versteht wie sinnvoll deine Vergleiche sind :rolleyes:

Nochmal, seid nicht immer so besessen von einem Konzern. Erfolgreich auf dem Markt ist immer der Konzern, der das bessere Preis-/Leistungsverhältnis bietet. Wer die letzten 20 Jahre aufgepasst hat, weiss, dass das mal AMD/ATI war, mal Nvidia bzw. Intel.
 
  • Gefällt mir
Reaktionen: Lübke82, Transistor 22, Grestorn und 3 andere
DrDoom schrieb:
Es freut mich auch, dass proprietäre Lösungen damit weniger eine Chance haben und ....

Von welchen proprietären Lösungen redest du? DXR kann es ja nicht sein.
 
  • Gefällt mir
Reaktionen: Lübke82, Grestorn, KlaraElfer und 3 andere
Wadenbeisser schrieb:
@ZeroZerp
Du tust doch die ganze Zeit so das du so wahnsinnig gut informiert bist, woher kommt also auf einmal die Amnesie zum stockenden Bildfluss bei der Demo?
Das eine hat doch mit dem anderen nix zu tun. Soll ich hellsehen?
Auf welche Demo beziehst Du Dich? Auf die ersten Machbarkeitsstudien von DXR (z.B.SOTTR, Battlefield V), auf die ersten DXR API Demos?

Und nein, nach meiner Logik würde jetzt eine Technik genutzt werden die dem Feature zum Durchbruch verhilft
Welchem Feature denn? Raytracing, das eh schon in allen AAA Titeln zum Einsatz kommt?

und die Enthusiasten können sich mit der RTX gegenseitig den popo vergolden.
RTX ist das Featureset von NVIDIA, welches die hardwarebeschleunigte Schnittstelle zu DXR darstellt.

Wenn der Ansatz mit den RT Cores irgendwann mal soweit sein sollte auf breiter Front ausreichend performant zu sein dann kann der übernehmen denn der breiten Masse der Kundschaft dürfte es herzlich egal sein wie korrekt die Darstellung ist, hauptsache es bringt ihnen einen realen und nutzbaren Mehrwert.
Was denkst Du denn ist der Mehrwert von RT?
Wieso denkst Du, dass die RT Cores nicht performant sind?
20 Rays/Pixel bei 4K und 60FPS sind nicht performant?
https://twitter.com/SebAaltonen/status/1041631227168600064?ref_src=twsrc^tfw|twcamp^tweetembed|twterm^1041631227168600064&ref_url=https://s9e.github.io/iframe/twitter.min.html#1041631227168600064

PS:
Kommt es mir nur so vor oder sind es genau diejenigen die auf gedei und verderb den RTX Ansatz zum heiligen Gral machen und die möglichst korrekte Darstellung überbewerten die auch die Speicher Knauserei schön reden und dadurch geringer auflösende Texturen runterspielen wollen?
Beim einen ist also die möglichst detailierte Darstellung so wahnsinnig wichtig, beim anderen nicht?
Ja- Kommt Dir nur so vor. VRAM ist durch nichts zu ersetzen als durch größeren und schnelleren VRAM.
Was nichts daran ändert, dass die Auflösung nicht das Heilmittel für schlechte und verwaschene Texturen ist.

Grüße
Zero
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Lübke82, Transistor 22, Grestorn und 2 andere
Dai6oro schrieb:
Ich finde das richtig geil! Warum? Weil nur so RT auch für die Massen nutzbar sein wird. Nvidia braucht ja immer ne proprietäre Extrawurst sei es ein Modul für Sync oder extra Cores für RT. Mir ist dieser Ansatz 1000x lieber als RTX!

PS: Packt doch unseren Missionar einfach auf ignore und zitiert ihn bitte nicht. Danke.

Ich hatte es zwar schon erwähnt, aber nicht nur Nvidia setzt auf Hardware für DXR, anderst lässt sich das Problem endgültig nicht lösen. Mit proprietärer Software hat das wenig zu tun. Das haben beide Konzerne die Grafikkarten herstellen verstanden, nur einige Fortschrittsverweigerer noch nicht:

„Natürlich funktioniert Raytracing auch auf AMD-GPUs, jedoch ohne passende Unterstützung seitens der Hardware und Software ist dies quasi unbrauchbar. Exakt in diesem Punkt will AMD ansetzen. So soll zukünftige Hardware Raytracing unterstützen ...“

https://www.computerbase.de/2019-01/amd-raytracing-16-kerne-pcie-4.0/
 
  • Gefällt mir
Reaktionen: Grestorn, KlaraElfer und .Sentinel.
Selanius schrieb:
Wie soll RT auch funktionieren ohne die RT und Tensorkerne der nVidia Karten. Das wäre ja Blasphemie wenn wer was anderes behauptet. ;)

Nein, nur Ihr nVidia-Hater behauptet immer diese Unwahrheit.

Jede GPU kann RT darstellen, aber die Tensorkerne von nVidia können RT bis zu 10x schneller bearbeiten und somit sind höhere FPS mit RT zu erreichen.

Und schon komisch das RT jetzt auf einmal offenbar richtig Geil ist, nur weil Crytek eine Demo raushaut wo auch AMD jetzt RT (aber kein echtes, sondern nur mit viel Software getrickse) effektiver nutzen kann.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: Lübke82, Transistor 22, Grestorn und eine weitere Person
1. Voxel based global illumination gibt es schon lange und wurde bereits 2014 von Nvidia aufgegriffen mit Maxwell nennt sich dort VXGI.

2. Es ist ein Unterschied ob man einen Strahl durch Voxel schießt oder versucht festzustellen welches Polygon von mehreren Millionen getroffen wird.

3. Nvidia hätte auch die CPU Polygon Objecte in Voxel umrechnen lassen können um dann die rt cores zu nutzen um die Strahlen zu berechnen.

4. Haben sie nicht da es ihnen um Raytracing geht und nicht um workarounds die gibt es nämlich schon seit Jahren.

5. Ev mal Artikel lesen oder schlau machen worum es geht dann erspart man sich das ganze Fanboy Gelaber und vergleiche zwischen Äpfel und Birnen.

Edit: Bild von 2013 keine Ahnung ob auf Gpu oder Cpu...
764196
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Oneplusfan, Baal Netbeck, Iscaran und 4 andere
Luzifer71 schrieb:
Und schon komisch das RT jetzt auf einmal offenbar richtig Geil ist, nur weil Crytek eine Demo raushaut wo auch AMD jetzt RT (aber kein echtes, sondern nur mit viel Software getrickse) effektiver nutzen kann.

Bingo!
Und das ist wieder ein weiterer sehr starker Hinweis darauf, dass es vielen hier nur um ihren Markenfetisch geht. Bzw. um die Umstände (z.B. Preis), wie die Technik eingeführt wird.

Zusätzlich die Ausdrucksweise - Da ist von Missionieren und "Glaube" die Rede.
Da kann man als vernunftbegabter Mensch nur den Kopf schütteln, wie man so sehr dem Markenwahn verfallen kann und so weit von der Sachebene abdriftet.

Dass dann noch mit einer erheblichen Prise persönlicher Diskreditierung, unbelegter Meinung und Anfeindung gewürzt und schon wird ein Computerbase Referenzbeitrag daraus.

Traurig....

@Zespire
5. Ev mal Artikel lesen oder schlau machen worum es geht dann erspart man sich das ganze Fanboy Gelaber und vergleiche zwischen Äpfel und Birnen.
So siehts aus...
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Rage, Lübke82, KlaraElfer und eine weitere Person
ich bekomme langsam die erkenntnis, warum NV diese RTX-karten so und jetzt (in meinen augen recht unfertig) auf den markt geschmissen hat.
man hat jahre an der hardware entwickelt gesteckt und langsam zeichnet sich ab, da man ähnliches auch ohne spezielle kerne machen könnte.
da ist es nur gut und richtig für die firma, JETZT noch schnell diese hardware-implementierung auf den markt zu werfen(mit der passenden werbung etc) bevor diese kerne anfangen obsolent zu werden, so bekommt man seine entwicklungskosten wenigstens noch rein.

was die demo angeht:
es ist ein DEMO.
also im prinziep eine machbarkeits-studie bevor das erste produkt in form einer in einem spiel laufenden software auf dem markt ist. und diese demo ist schon ein guter ausblick darauf was noch kommen könnte.
kann mir auch gut vorstellen, das die RT-kerne, wenn man welche auf der grafikkarte hat, da dann zusätzlich unterstützen können.
 
ZeroZerp schrieb:
Ich kenne keine einzige Seite (auch die, die das NDA unterschrieben haben), die behauptet, dass Raytracing- Berechnungen nur auf GPUs mit RT Cores liefen?
SVOGI, SSR, HBAO etc. beweisen ja schon seit Jahren, dass man das auf einer GPU berechnen kann...

Zur Demo selbst...
-Ein Teil der Berechnung wird auf die CPU ausgelagert
-dynamische Objekte werden wieder nicht vollständig in der Beleuchtung berücksichtigt
-indirekte Schatten gibts nur von Statics
-Kamerawechsel mit "sekundenlangen" Verzögerungen, weil erst die Voxelhierachie aufgebaut werden muss (in der Demo wohl precomputed)

Das hat dann doch wieder alles eher mehr mit den herkömmlichen "Tricksereien" einhergehend mit allerlei Einschränkungen zu tun, als mit rein über Strahlen volldynamisch berechnetem Raytracing.

Interessant wäre, wie sehr die Leistung steigt, wenn sie Strahlenbeschuss der Voxel über die RT Cores abwickeln würden.

Grüße
Zero
Ergänzung ()


SVOGI, also die voxel based global illumination ist ja bereits implementiert...
na sei doch froh, dass mehr Rechenarbeit auf CPUs umgelegt wird, jetzt wo es immer mehr Kerne pro CPU gibt und diese dann mal auch in Spielen richtig ausgenutzt werden. Threadripper könnte da einen heiden spaß machen, wenn es dann Spiele gibt, die mit so vielen Kernen vernünftig umzugehen wissen
 
geist4711 schrieb:
ich bekomme langsam die erkenntnis, warum NV diese RTX-karten so und jetzt (in meinen augen recht unfertig) auf den markt geschmissen hat.
man hat jahre an der hardware entwickelt und langsam zeichnet sich ab, da man ähnliches auch ohne spezielle kerne machen könnte.
Ähnliches macht man bereits seit Jahren! Annäherung ist eines der Grundprinzipien eines Scanline- Renderers.

da ist es nur gut und richtig für die firma, JETZT noch schnell diese hardware-implementierung auf den markt zu werfen(mit der passenden werbung etc) bevor diese kerne anfangen obsolent zu werden, so bekommt man seine entwicklungskosten wenigstens noch rein.
Deswegen zieht AMD auch jetzt dann bald nach, weil das alles so überflüssig ist?
Was hätte denn das für einen Sinn?

was die demo angeht:
es ist ein DEMO.
also im prinziep eine machbarkeits-studie bevor das erste produkt in form einer in einem spiel laufenden software auf dem markt ist. und diese demo ist schon ein guter ausblick darauf was noch kommen könnte.
Das sind die RT Implementationen von DXR auch.

kann mir auch gut vorstellen, das die RT-kerne, wenn man welche auf der grafikkarte hat, da dann zusätzlich unterstützen können.
Jein- Die Ansätze sind unterschiedlich. Sicher lassen sich aber Beschleunigungsmöglichkeiten bei einigen Berechnungen finden.
 
Luzifer71 schrieb:
Und schon komisch das RT jetzt auf einmal offenbar richtig Geil ist, nur weil Crytek eine Demo raushaut wo auch AMD jetzt RT (aber kein echtes, sondern nur mit viel Software getrickse) effektiver nutzen kann.

Die Demo zeigt eigentlich nur eins: RT brauch keine RTX Karten um ein ähnliches Ergebnis zu erzielen.

Fakt ist, hier wird Crytek jetzt Software-Trickserei vorgeworfen, andererseits behauptete nVidia das ihre Lösung so einfach zu implementieren sei. Komisch das dies Entwickler-Studios ganz anders sehen als nVidia und sogar von einem haufen Mehrarbeit sprechen. Dazu gab es einen schönen Artikel über Star Citizen, die auf den extremen Entwicklungsaufwand eingehen, der durch RT (by nVidia) nötig wäre.
 
floh667 schrieb:
na sei doch froh, dass mehr Rechenarbeit auf CPUs umgelegt wird, jetzt wo es immer mehr Kerne pro CPU gibt und diese dann mal auch in Spielen richtig ausgenutzt werden. Threadripper könnte da einen heiden spaß machen, wenn es dann Spiele gibt, die mit so vielen Kernen vernünftig umzugehen wissen
Nein da bin ich garnicht froh. Ich will, dass die Kerne lieber für eine ordentliche Physik, KI oder Umweltsimulation, die eine Spielwelt lebendiger gestalten genutzt werden, als dass die Power jetzt wieder fürs Rendern verheizt wird.
 
  • Gefällt mir
Reaktionen: CMDCake, Lübke82 und TheUngrateful
ZeroZerp schrieb:
Deswegen zieht AMD auch jetzt dann bald nach, weil das alles so überflüssig ist?
Was hätte denn das für einen Sinn?

Man sollte da schon unterscheiden. nVidia wirft was auf den Markt und kündigt dutzende Spiele dafür an. Bisher haben wir zwei Titel die das ganze nutzen, 7 !!! Monate nach Marktstart der Karten.

AMD's Aussage dazu war von vorneherein, dass sie erst RT unterstützen werden, wenn es für die Masse machbar ist, und dazu brauch es erstmal den benötigten Software-Support. Dieser ist immer noch nicht vorhanden, also wird man sehen, wann AMD dazu was bringt.

"Bald nachziehen" kann daher auch gut und gerne noch mehrere Generationen dauern.
 
  • Gefällt mir
Reaktionen: Thraker, yummycandy, geist4711 und eine weitere Person
Aldaric87 schrieb:
Die Demo zeigt eigentlich nur eins: RT brauch keine RTX Karten um ein ähnliches Ergebnis zu erzielen.
Ja- Darum geht es bei Raytracing aber auch nicht.
Ich weiss nicht, wie oft man sich da wiederholen muss.
Die standard Renderverfahren haben große Schwierigkeiten mit einer dynamisierten Szene. Da fallen viele Tricksereien, durch die der Hautptteil der Beschleunigung stammen als Option weg.

Bewegliche Objekte, Partikel, flexible Geometrie, Zerstörung etc. Alles mit den bisher angewandten Techniken nur sehr begrenzt bzw. fehlerhaft machbar.

Fakt ist, hier wird Crytek jetzt Software-Trickserei vorgeworfen,
Nein- Es wird den Usern vorgeworfen, dass sie die Technik, die Crytek hier benutzt mit der RTX bzw. DXR Technik gleichsetzen.
Crytek macht alles richtig und sprechen offen über die Nachteile ihrer Technik.

andererseits behauptete nVidia das ihre Lösung so einfach zu implementieren sei.
Wenn DICE und EIDOS das Feature rudimentär in zwei Wochen in AAA Titeln zum Fliegen kriegen, kann es nicht so schwer sein...

Komisch das dies Entwickler-Studios ganz anders sehen als nVidia und sogar von einem haufen Mehrarbeit sprechen. Dazu gab es einen schönen Artikel über Star Citizen, die auf den extremen Entwicklungsaufwand eingehen, der durch RT (by nVidia) nötig wäre.
Da muss man sich die Interviews mit den Leuten dieser Entwicklerstudios aber auch mal ganz durchlesen.

Die haben die Problematik, dass sie das in eine bereits laufende Produktion integrieren sollen und somit zwei Renderpipelines pflegen müssten.

Somit MUSS die Untersützung von DXR bzw. RT derzeit mit erheblichem Mehraufwand einhergehen.

Im zweiten Schritt sehen aber auch alle Entwickler in RT die Zukunft, da wenn auf breiter Basis verfügbar ein nicht zu unterschätzender Teil des Entwicklungsaufwands wegfallen würde.

Grüße
Zero
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Lübke82 und KlaraElfer
Zurück
Oben