Zweiter Versuch: Bringt die Unreal Engine 5.1 mit "Lumen" die Bedeutung der Rasterisierungsleistung in Spielen zurück?

Status
Für weitere Antworten geschlossen.

Millennial_24K

Bisher: millennial_24K
Lt. Commander
Registriert
Dez. 2021
Beiträge
1.368
Epic Games neue Engine hat vor kurzem mit Version 5.1 ein großes Update erhalten. Fortnite ist der erste Titel überhaupt, der von den Vorzügen der fortschrittlichen Beleuchtungstechnik Lumen Gebrauch macht. Denn anders als beim rechenintensiven reinen Raytracing, benötigt die Unreal Engine 5.1 für eine vergleichbare realistische Beleuchtung nur fundamentale RT-Berechnungen. Den Rest erledigt die genannte Technik dann "traditionell" ohne die extrem leistungshungrige Strahlenverfolgung. Somit erhält man in Zukunft auch mit leistungsschwächerer RT-Hardware, allen voran den Next-Gen-Konsolen, natürlich ausgeleuchtete Spielewelten in Verbindung mit flüssigen Bildraten.

Kann die Unreal Engine 5 also die bereits abgeschriebene Bedeutung der Rasterisierungsleistung zurückbringen?

Hier ist der Link zu dem Artikel, der mir dieses spannende Thema näher gebracht hat. Er stammt von der GamePro.

https://www.gamepro.de/artikel/fort...-engine-5-pc-ps5-xbox-series-x-s,3387630.html
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: danyundsahne
Zum einen bin ich mit der Bedienung der Threadfunktionen noch nicht so geübt. Das heißt ich habe erst jetzt herausgefunden, wie man den Threadtitel ändert. So idiotisch das auch klingt. Auf der anderen Seite halte ich das Thema für sehr bedeutsam in Hinblick auf die notwendige Raytracingleistung von GPUs in zukünftigen Spielen. Es hat vielleicht einen kompletten Neustart verdient. Ich arbeite in der Zwischenzeit noch an einer etwas sachlicheren Formulierung.

Nachtrag:
Bei dir hat es offensichtlich schon einmal funktioniert.
 
Zuletzt bearbeitet:
Lumen kann am PC auch Hardwarebeschleunigt werden und ist dann effizienter, sieht auch besser aus. In Fortnite kann man die Hardwarebeschleunigung auch ein und ausschalten.

Reines Software Lumen ist halt schon wieder an unzähligen Stellen eingeschränkt, damit es nicht zu leistungsintensiv und ineffizient wird.

Letztendlich ist es wie mit allen Techniken. Man kann über Software auf bestehender Hardware noch was erreichen. Irgendwann ist aber eben ein Punkt erreicht, wo der Rechenaufwand überproportional stark ansteigt und erst mit spezialisierter Hardware weitere Fortschritte sinnvoll zu bewerkstelligen sind.

Heute mag der Unterschied zwischen Hardware und Software Lumen noch nicht so extrem sein. In 10-20 Jahren wäre Software Lumen wahrscheinlich überhaupt keine sinnvolle Alternative mehr, weil man dann mit Hardwarebeschleunigung so viel mehr machen könnte, dass ein SW Fallback keinen Sinn mehr ergibt.

Letztendlich ist das halt immer eine Frage der Chipfläche. Wenn die Performance mit Software Lumen der Flaschenhals ist, dann ist es nunmal sinnvoller, einen kleineren Teil des Chips mit spezialisierter Hardware auszustatten, so dass der Rest des Chips nicht ständig mit Aufgaben betreut wird, für die er gar nicht entwickelt wurde. Und schon hast dein Hardware RT.


Letztendlich hat es dieses Gedankenspiel ja schon immer gegeben, schon lange bevor Nvidia Hardware mit RT auf den Markt gebracht hat.

Zuvor hat man auch mit Software RT experimentiert, weil das logischerweise immer die Grundlage ist.
Man hat gemerkt, dass die Leistung einfach nicht reicht und dass die Hardware das nicht effizient berechnen kann.
Um das Problem zu lösen ist es nunmal sinnvoll spezialisierte Einheiten zu nutzen, die den Teil der RT Berechnungen übernehmen, die bisher nicht effizient ausgeführt werden konnten. Das hat Nvidia eben getan.

Was Epic geschafft hat ist eine etwas effizientere Variante von RT in Software zu bauen, die zumindest in Spielen in Echtzeit nutzbar ist, so dass man einige der Vorteile nutzen kann. Aber auch das führt in eine Sackgasse, weil es mit steigender Qualität und zusätzlichen RT Effekten zunehmend ineffizient wird und in Zukunft schlecht mit der Hardwareleistung skalieren wird.

Die Performanceskalierung wird mit spezialisierter Hardware einfach signifikant besser funktionieren und die reine SW Variante irgendwann weit hinter sich lassen. Bottlenecks können nunmal in Hardware einfacher umgangen werden, als in SW.

Dass dieser Ansatz sinnvoll ist beweisen ja schon die Grafikkarten selbst. Denn das sind ja auch schon spezialisierte Chips. Hardwarebeschleunigung für 3D Grafik. Davor hat man dafür die CPU genutzt und schnell gemerkt, dass das zwar möglich, aber nicht sinnvoll ist. Mit RT ist es genau das gleiche.


RT ohne HW Beschleunigung hat genauso wenig eine Zukunft wie es 3D Grafik ohne Hardwarebeschleunigung hatte...
 
  • Gefällt mir
Reaktionen: Millennial_24K
W0dan schrieb:
RT ohne HW Beschleunigung hat genauso wenig eine Zukunft wie es 3D Grafik ohne Hardwarebeschleunigung hatte...
Da hast Recht mit dieser Ausssage. Doch mir geht es um die nähere Zukunft, sagen wir etwa die nächsten 5 Jahre bzw. die gesamte Laufzeit der aktuellen Konsolengeneration (PS5, Xbox Series X/S).
Ergänzung ()

W0dan schrieb:
Lumen kann am PC auch Hardwarebeschleunigt werden und ist dann effizienter, sieht auch besser aus. In Fortnite kann man die Hardwarebeschleunigung auch ein und ausschalten.
Ja das weiß ich. Lumen kann jederzeit mehr Raytracing-Berechnungen einbinden. Der große Vorteil der UE5 liegt jedoch darin, dass man auch mit einer schwächeren RT-GPU (RTX 2000, RTX 3000, RX 6000) eine ebenfalls realitätsnahe globale Beleuchtung in Spielen erhält, ohne dabei die Bildraten in die Knie zu zwingen. Aus den besagten Artikel der Gamepro geht hervor, dass das optisch maximal aufgewertete Fortnite auf einer Xbox Series X mit konstanten 60 FPS läuft. Und das finde ich bei der gebotenen Grafik schon beachtlich.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Tritom73
kicos018 schrieb:
Ach ich find das kann man schon mal sagen. Er freut sich zu seiner GPU und so eine Karte kostet ja schon eine Stange Geld heutzutage. Falls Stolz darauf, dass die Karte vom roten Team ist: weird.
 
  • Gefällt mir
Reaktionen: LamaMitHut
Poati schrieb:
Ach ich find das kann man schon mal sagen. Er freut sich zu seiner GPU und so eine Karte kostet ja schon eine Stange Geld heutzutage.
Ja, die Karte ist nicht gerade günstig. Dafür gehöre ich auch nicht zu den Enthusiasten, die jede neue Generation aufrüsten. Von daher geht das für mich in Ordnung.

Poati schrieb:
Falls Stolz darauf, dass die Karte vom roten Team ist: weird.
Ich mache kein Geheimnis daraus, dass mein Herz für Team Red schlägt. Wenn ich also stolz auf die erfolgreiche Rückkehr von AMD spätestens im Jahr 2020 bin, dann ist das ganz sicherlich nicht seltsam. Aber bloß weil für mich keine Nvidia-Grafikkarte in Frage kommen würde, gebe ich mir Mühe stets objektiv beim Duell der beiden größten GPU-Hersteller zu bleiben. (Intels integrierte Grafikeinheiten zählen hier nicht.)
 
TigerherzLXXXVI schrieb:
Wenn ich also stolz auf die erfolgreiche Rückkehr von AMD spätestens im Jahr 2020 bin, dann ist das ganz sicherlich nicht seltsam.
Naja was seltsam ist und was nicht, ist ja auch Geschmackssache. Ich hab mich nur dafür ausgesprochen, dass ich finde, dass man grundsätzlich schon auf etwas stolz sein kann, was man sich gegönnt hat. Stolz auf AMD kann ich auch noch ansatzweise nachvollziehen, aber da sprechen wir schon von einem gewinnorientierten Konzern und naja aber jeder wie er/sie mag :)
 
Poati schrieb:
Stolz auf AMD kann ich auch noch ansatzweise nachvollziehen, aber da sprechen wir schon von einem gewinnorientierten Konzern und naja aber jeder wie er/sie mag :)
Naja du musst das einfach aus der Sicht eines echten Fans sehen, der sich über die Rückkehr AMDs zu alter Stärke freut. Sie lagen zuvor jahrelang mit riesigen Abstand hinter Nvidias Highend-GPUs zurück. Dass diese riesige Lücke dann 2020 mit der RX 6900 XT geschlossen wurde ist schon eine unglaubliche Leistung gewesen, schließlich hatte Nvidia in der ganzen Zeit auch nicht geschlafen... Ehre den, dem Ehre gebürt. Mir geht es dabei weniger um das Wirtschaftsunternehmen, als vielmehr um den gewaltigen technischen Fortschritt bei AMD.
 
Zuletzt bearbeitet:
@TigerherzLXXXVI
Ja das stimmt schon. Ich bin auch immer eher Team Rot gewesen. Noch zu ATI Zeiten war das. Rein aus Sicht des technischen Fortschritts allerdings nicht. Den gab es immer mal wieder auf beiden Seiten. Bei AMD gefällt mir beispielsweise der Umgang mit offenen Standards. Freesync oder FSR mal als Beispiele. Auch was Verarsche am Kunden betrifft, da ist mir Nvidia häufiger im Gedächtnis geblieben (Z. B. GTX970 oder "RTX4080 12GB"). Das macht mich aber alles noch nicht stolz eine AMD Karte zu haben, aber naja dir sei es gegönnt :)
 
  • Gefällt mir
Reaktionen: Millennial_24K
Ich sehe keinen Grund im alten Thema nicht weiter zu machen. Jetzt wird an zwei Fronten diskutiert, daher ist auch ein Zusammenführen der Themen nicht mehr möglich. 🔒
 
Zuletzt bearbeitet:
Status
Für weitere Antworten geschlossen.
Zurück
Oben