News EzBench: Unreal Engine 5, 8K-Texturen und Raytracing fordern GPUs

8K im Gaming ist doch für AAA Titel uninteressant weil nicht lauffähig. Welches System kann den bei vollen Details und 60/120 FPS AAA Titel (z.B. Horizon) in nativen 8K laufen lassen? Ich kenne
 
Das sind mir tatsächlich die 20GB nicht wert. Was soll das für einen Mehrwert haben? Völlig unnützer Bench imo, da gibts bessere.
 
SVΞN schrieb:
Rein grafisch muss der EzBench ganz klar gegenüber den bisherigen Techdemos und Spieleankündigungen auf Basis der Unreal Engine 5 zurückstecken.
Nur ist es bei einem tatsächlichen Real- World- Benchmark letztendlich auch unerheblich, wie Asset- Gestaltung und Artstyle aussehen.
Man könnte einen Benchmark auch komplett ohne grafische Ausgabe generieren.

Potenziell lit particles/smoke inkl. physic simulation, RT global illumination, RT emissive lighting, RT caustics/refractions, RT reflections, RT Shadows / RT ambient occlusion, nanite usw.
Alles reingepackt, was wir in Zukunft bei Spielen zu sehen bekommen werden und auch schon in echten Titeln zu sehen bekommen haben.

SVΞN schrieb:
Die Ergebnisse des Benchmarks sind daher zumindest nach aktuellem Stand zwar durchaus als konsistent aber im Hinblick auf zukünftige Spiele auf Basis der Grafik-Engine als nur wenig aussagekräftig anzusehen.
Es zeigt eine Leistungsbewertung der Grafikkarten in Hinblick auf die Richtung in die sich die Grafik entwickelt.

Ich sehe da wenig Unterschied zu den sonst üblichen Benchmarks, zumal dieser auf einem der in Zukunft weit verbreitetsten Spieleengines läuft, die natürlich zweifelsohne noch weiter optimiert und beschleunigt wird.
Deshalb ist der Benchmark eher eine Momentaufnahme, wie sich entsprechende Grafikkarten unter Einsatz entsprechender Berechnungsmethoden auf genau jener UE5 Version verhalten.

Die Shaderlast bzw. Engine- Workload wird sich aber unstrittig in diese Richtung entwickeln. Frage ist nur immer das berühmte "wann?" :)

LG
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Col.Maybourne und SVΞN
Stürzt bei mir nach 2 Sekunden ab. DEVICE_NOT_FOUND oder DEVICE_HUNG.
 
N0Thing schrieb:
Bei Nvidia wird Raytracing bei entsprechenden Karten per Hardware beschleunigt, bei AMD läuft es immer per Software
Da liegt der Entwickler falsch. UE5 Lumen nutzt Hardware RT mit RTX 2000/3000 und RX 6000 Karten.
 
Mal sehen. Wie lange jetzt schon von RT geredet wird, wie wichtig und toll es ist. Und ich sehe immer noch keinen Unterschied wenn ich's doch mal wieder zum testen einschalte.
Bei mir bleibt das aus, solange bis Mal der Tag kommt wo ich sage "WOW sieht das mit RT gut aus"
 
  • Gefällt mir
Reaktionen: Evgasüchtiger und Hatsune_Miku
Powl_0 schrieb:
Da liegt der Entwickler falsch. UE5 Lumen nutzt Hardware RT mit RTX 2000/3000 und RX 6000 Karten.
Sie geben es zumindest so an:

These UE5 features are used: Lumen (Raytraced lighting, hardware if you've got an nVidia GPU, Software if AMD). Nanite. DX12 SM6 (if you've got support for it). And a load of backend things added in UE5.
 
  • Gefällt mir
Reaktionen: Volvo480
ExigeS2 schrieb:
wo ist 8k denn ein Thema?
Dabei gehts um Texturen, nicht Renderauflösung. Hat per se nichts miteinander zu tun, wird nur immer unnötig vermischt.
Ergänzung ()

.Sentinel. schrieb:
Sie geben es zumindest so an:
Und ich beziehe mich auf die offiziellen Angaben von Epic zur UE5.

Hardware RT kann man da nicht für einzelne Generationen an oder abschalten. An ist an und wird dann auf jeder unterstützten Architektur genutzt.

Schaut man sich den Benchmark optisch und bzgl UX an, kann man anzweifeln, ob der Entwickler sich da so super auskennt...
 
  • Gefällt mir
Reaktionen: fullnewb
Maxxx800 schrieb:
Bei mir bleibt das aus, solange bis Mal der Tag kommt wo ich sage "WOW sieht das mit RT gut aus"
RT sieht nicht gut aus. Es sieht genau genommen "garnicht" aus.

RT ist eine Art des Renderns, die viele Fehler des Rasterns technisch ausbügelt und Echtzeitmanipulation der Grafik ermöglicht, ohne dort an Qualität einbüßen zu müssen oder Fehler zu genereieren.

Die meisten Spiele, die Du heutzutage Spielst sind bereits prerendered, also in Vorberechnung geraytraced.
Nur halt eben statisch. Deswegen kannst Du keine Unterschiede erkennen. Auch Echtzeiteffekte wie z.B. Ambient Occlusion, Screenspace- Reflections basieren alle auf den Grundprinzipien der Strahlenverfolgung.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: eightcore, Gesualdo, Chri996 und 3 andere
Onkel Föhn schrieb:
komme auf 13780 Punkte (Standard).
allerdings so wie es ausschaut nur mit der iGPU der 5900HX CPU.
keine Ahnung wie ich dort auf die (dedizierte) 6800M umschalte ?

MfG Föhn.
Mal versucht in den Windows Grafik einstellungen die DGPU zu erzwingen?
 

Anhänge

  • grafik.jpg
    grafik.jpg
    140,2 KB · Aufrufe: 210
  • normal.jpg
    normal.jpg
    1,4 MB · Aufrufe: 213
  • extreme.jpg
    extreme.jpg
    2,6 MB · Aufrufe: 214
  • Gefällt mir
Reaktionen: Onkel Föhn
Das ist das schöne an einer Gigabitleitung - man gibt einfach seiner Neugier nach und lädt es mal schnell runter:
Ryzen 5 3600 Stock
RX 480 8GB Nitro+ Stock / Radeon Software 22.5.1
32GB DDR4 3600 Dual Rank G-Skill Ripjaw V Black CL18 XMP

Normal = 6700 (zwischen 7 und 8 FPS)
 
  • Gefällt mir
Reaktionen: Chri996 und Flare
Beg1 schrieb:
Aktuellstes Beispiel wäre Teardown, welches zwar Voxelgrafik ist, aber ich wünschte man würde sich bei anderen Projekten mal soviel Mühe geben, möglich wäre es heute.
Naja mit RT sieht die Beleuchtung schon ziemlich cool aus muss ich sagen.
Aber ansonsten ist es halt ganz klar Voxel Grafik im klötzchen Style.
Tada100 schrieb:
Space engineers hingegen hat viele Fixxes und Content Updates etc. erhalten, deswegen läuft es auch recht gut Beleuchtung, Physik, Zerstörung alles kein Problem, ein Jedi vs. Sith Battle ist auch kein Problem, das läuft flüssig selbst mit 10 schiffen, das selbe gilt für 7d2d es ist einfach optimiert.
Okay....
Dann haben wir es zu 7 im LAN Modus einfach übertrieben. Wenn die 7 Tage um waren und die Horde kam sind die FPS bei allen einfach auf 25-35 eingebrochen. Als Server war mein 5900X vorhanden auf dem ich auch gezockt hab. CPU Auslastung war nie über 60%

Space Engineers hat's nach dem Spawnen von 2 Riesigen Schlachtkreuzern und bissel rumfliegen/ ballern auch wieder angefangen zu laggen. Wollten wir kurz testen ob sich das in den letzten 2 Jahren verbessern hat...
Haben dann 2 Rennen gefahren auf dem Planeten Scenario und es dann sein gelassen.
 
  • Gefällt mir
Reaktionen: fullnewb und Tada100
Tada100 schrieb:
Nunja es ist v1.0 , viel halte ich für ein Gerücht. Würde sagen etwas Optimierung
Gibt die Dev Updates aus der Entwicklung vor 1.0. Da kann man sehen, wie viel da schon optimiert wurde ;)
 
  • Gefällt mir
Reaktionen: Tada100
Wäre doch ein super Anlass für einen Community-Benchmark. :rolleyes:
 
Die 6k-Karten haben nunmal nicht die RT-Leistung wie die NVs, aber das werden die Entwickler mit UE5 schon berücksichtigen. Bei diesem speziellen Benchmark kommt es mir aber auch so vor, als wenn reines Software-RT zum Einsatz kommt. Wenn der Entwickler das schreibt wird das auch so stimmen. Das Problem wird wie gesagt sein, dass man das auch adaptiv nach Engine nutzen kann, dann aber keine vergleichbare BQ dabei rausbekommen wird und damit ein Benchmark sinnlos wird. Wenn man damit ein Spiel designt, wird der Entwickler schon Sorge dafür tragen müssen, dass eine Radeon entsprechend weniger Strahlen verarbeiten muss, dafür aber auch das hässlichere Bild hinbekommt.

MMn ist das alles bis Ampere aber reine Spielerei. Die nächste Generation wird da sicherlich ganz anders auftrumpfen können.
 
Haldi schrieb:
Dann haben wir es zu 7 im LAN Modus einfach übertrieben.
Ich beziehe mich sowohl bei SE als auch 7D2D auf Singleplayer, das hätte ich vorher schreiben sollen ,
mein Fehler, gerade in SE ein großer unterschied :utxloc:.

Ja mit 7 leuten, mal 7 Schiffe, dazu warscheinlich noch die Mods, station usw. das Heizt gut ein.
Nachdem ich ein 70k (blockcount) Schiff gespawnt habe, braucht mein Pc auch ein paar sek. und klar zu kommen.
Die 60Fps werden nicht immer vollständig gehalten, aber es bleibt flüssig .
Ausgenommen die kurzen Pausen wenn man etwas spawnt.
Powl_0 schrieb:
Gibt die Dev Updates aus der Entwicklung vor 1.0
Die sind mir bekannt, und es es mir nicht entgangen wieviel Arbeit darein gesteckt wurde, aber der Fakt bleibt für mich bestehen das das Spiel noch viel Potenzial zur Optimierung hat bzw. bietet!
 
5900X/3080 UV 10GB = 30K
Im Extreme Mode bricht die 3080 wegen Speichermangel (erwartbar) völlig ein, da im normalen Modus schon fast 10GB belegt werden.

Probiere es später/ die Tage mit der 6900XT LC.
 
1652791725013.png

95% PL / UV


Wer von euch hat ne Flasche Spüli über meinem Monitor ausgeschüttet??? :grr:
 
Screenshot (80).png

Lumen ist in diesem UE5 Projekt aktiv denke ich. Lumen nutzt immer RT, SW-RT ist Standard und wenn Beschleuniger-HW vorhanden ist kann man das automatisch nutzen, falls das im Projekt so angelegt ist.
Achja Lumen mit HW-RT ist nicht bedeutend langsamer als die Lumen-Variante mit SW-RT, hört man aus vielen Richtungen.
 
Zuletzt bearbeitet:
Zurück
Oben