Lumen kann am PC auch Hardwarebeschleunigt werden und ist dann effizienter, sieht auch besser aus. In Fortnite kann man die Hardwarebeschleunigung auch ein und ausschalten.
Reines Software Lumen ist halt schon wieder an unzähligen Stellen eingeschränkt, damit es nicht zu leistungsintensiv und ineffizient wird.
Letztendlich ist es wie mit allen Techniken. Man kann über Software auf bestehender Hardware noch was erreichen. Irgendwann ist aber eben ein Punkt erreicht, wo der Rechenaufwand überproportional stark ansteigt und erst mit spezialisierter Hardware weitere Fortschritte sinnvoll zu bewerkstelligen sind.
Heute mag der Unterschied zwischen Hardware und Software Lumen noch nicht so extrem sein. In 10-20 Jahren wäre Software Lumen wahrscheinlich überhaupt keine sinnvolle Alternative mehr, weil man dann mit Hardwarebeschleunigung so viel mehr machen könnte, dass ein SW Fallback keinen Sinn mehr ergibt.
Letztendlich ist das halt immer eine Frage der Chipfläche. Wenn die Performance mit Software Lumen der Flaschenhals ist, dann ist es nunmal sinnvoller, einen kleineren Teil des Chips mit spezialisierter Hardware auszustatten, so dass der Rest des Chips nicht ständig mit Aufgaben betreut wird, für die er gar nicht entwickelt wurde. Und schon hast dein Hardware RT.
Letztendlich hat es dieses Gedankenspiel ja schon immer gegeben, schon lange bevor Nvidia Hardware mit RT auf den Markt gebracht hat.
Zuvor hat man auch mit Software RT experimentiert, weil das logischerweise immer die Grundlage ist.
Man hat gemerkt, dass die Leistung einfach nicht reicht und dass die Hardware das nicht effizient berechnen kann.
Um das Problem zu lösen ist es nunmal sinnvoll spezialisierte Einheiten zu nutzen, die den Teil der RT Berechnungen übernehmen, die bisher nicht effizient ausgeführt werden konnten. Das hat Nvidia eben getan.
Was Epic geschafft hat ist eine etwas effizientere Variante von RT in Software zu bauen, die zumindest in Spielen in Echtzeit nutzbar ist, so dass man einige der Vorteile nutzen kann. Aber auch das führt in eine Sackgasse, weil es mit steigender Qualität und zusätzlichen RT Effekten zunehmend ineffizient wird und in Zukunft schlecht mit der Hardwareleistung skalieren wird.
Die Performanceskalierung wird mit spezialisierter Hardware einfach signifikant besser funktionieren und die reine SW Variante irgendwann weit hinter sich lassen. Bottlenecks können nunmal in Hardware einfacher umgangen werden, als in SW.
Dass dieser Ansatz sinnvoll ist beweisen ja schon die Grafikkarten selbst. Denn das sind ja auch schon spezialisierte Chips. Hardwarebeschleunigung für 3D Grafik. Davor hat man dafür die CPU genutzt und schnell gemerkt, dass das zwar möglich, aber nicht sinnvoll ist. Mit RT ist es genau das gleiche.
RT ohne HW Beschleunigung hat genauso wenig eine Zukunft wie es 3D Grafik ohne Hardwarebeschleunigung hatte...