• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

Bericht Black Myth: Wukong Benchmark: Eigene Benchmarks und ein Vergleich mit Pathtracing

ElliotAlderson schrieb:
Selbst in der Ferne sind sämtliche Details noch erkennbar und die Bäume werden nicht zu 2D Sprites.

Sowas gibts bei der UE5, dank Nanite, nicht mehr
Nutzt Ark 2 sicher Nanite für alles? Nanite für animierte Meshes (wie Vegetation) kann UE5 noch nicht so lange, ist also vielleicht noch nicht in diese Version von Ark 2 eingeflossen...

Gerade für Vegetation schlägt Epic in Unreal seit den späteren UE4 Versionen Impostor als Optimierung vor. Und das sind, richtig, 2D Sprites (wenn auch verdammt gute mit Sprite Atlas und Interpolation verschiedener Winkel). In Fortnite als Vorzeigetitel zB sieht man auf Entfernung den Unterschied zwischen 2D Impostor und 3D Mesh nicht, bzw sehen die Impostor mitunter gar besser aus als klassiche niedrige LODs.

Nanite ist kein Allheilmittel, da bricht die Performance trotzdem ein, wenn man es zu extrem ausreizt.
Ergänzung ()

Tevur schrieb:
NEIN. Eben nicht. Bei 100% findet eben kein Upscaling statt.
Ich schrieb es "rennt der Upscaler", also der Algorithmus läuft, also FSR/DLSS/XeSS/TSR. Genau das ist der Fall, auch wenn der Faktor dabei 1 ist. Auch bei 100% werden diese nicht ausgelassen.

Und witzig, Nvidia nennt es auch DLSS, wenn tatsächlich Upscaling stattfindet ;)
 
Zuletzt bearbeitet:
Rainbowprincess schrieb:
Ne sorry, das mache ich persönlich nicht mit und verzichte da lieber.
Die Regler zu bedienen und nicht die maximalen Settings zu nutzen, scheint für einige wirklich ein Ding der Unmöglichkeit zu sein. Da wird lieber direkt eine komplette Engine boykottiert.
 
  • Gefällt mir
Reaktionen: TheManneken und Atnam
ElliotAlderson schrieb:
Die meisten UE5 Spiele nutzen Nanite doch gar nicht vollumfänglich. Manche gar nicht, einige nur für statische Geometrie, nur die wenigsten nutzen es in vollem Ausbau.
 
Powl_0 schrieb:
Jede Unreal Engine bringt ihre eigene Macke, die dann für ca 10 Jahre allgegenwärtig ist ;)
Eigene engine 4 life 💪
Ergänzung ()

Rainbowprincess schrieb:
Wukong isn neuer Tiefpunkt was das angeht. Trotz nur Fake 1440p gerade noch so spielbar mit Ner 6800xt.
Wozu diese upscaler wenn's trotzdem beschissen läuft? Weil's sonst gar nicht laufen würde?
Tja Nvidia 4 Life 😁 sonst Regler bedienen
 
Powl_0 schrieb:
Nutzt Ark 2 sicher Nanite für alles? Nanite für animierte Meshes (wie Vegetation) kann UE5 noch nicht so lange, ist also vielleicht noch nicht in diese Version von Ark 2 eingeflossen...
Ich weiß, dass sie es verwenden, aber in wie weit, werden dir nur die Entwickler selbst beantworten können.
Die Vegetation in Ark 2 finde ich krass beeindruckend. Die Menge und dann in einer solchen Qualität selbst auf die Distanz, das habe ich in noch keinem anderen Spiel auch nur ansatzweise so gesehen.

Powl_0 schrieb:
Gerade für Vegetation schlägt Epic in Unreal seit den späteren UE4 Versionen Impostor als Optimierung vor. Und das sind, richtig, 2D Sprites (wenn auch verdammt gute mit Sprite Atlas und Interpolation verschiedener Winkel). In Fortnite als Vorzeigetitel zB sieht man auf Entfernung den Unterschied zwischen 2D Impostor und 3D Mesh nicht, bzw sehen die Impostor mitunter gar besser aus als klassiche niedrige LODs.
Haste dazu einen Artikel oder sowas?

Powl_0 schrieb:
Die meisten UE5 Spiele nutzen Nanite doch gar nicht vollumfänglich.
Na und? Müssen sie doch auch nicht. Selbst statische Objekte werten die Szene schon auf.
 
Powl_0 schrieb:
Aber wieso sind diese neuen Tricks jetzt zu verschmähen, die letzten 40 Jahre an Render Tricks aber okay?
Echtzeit Grafik ist schon immer ein Konstrukt viele Annäherungen, Kompromisse und Tricksereien.

Wenn das Ergebnis passt, ist mir völlig latte, wie es erzeugt wurde.
Sie werden nicht verschmäht. Die Art und Weise, wie sie eingesetzt werden, wird verschmäht bzw. ist das Problem. Upscaling bei WQHD und/oder 4K, auch um so Dinger wie Pathtracing zu erlauben? Eine gute Möglichkeit. Upscaling bei 1080p? Nein, denn hier passt das Ergebnis eben nicht mehr.
Atnam schrieb:
Weil sie in der Vergangenheit festhängen.
Das wird noch schön weitere 5 Jahre so gehen wo immer nativ gefordert wird selbst wenn das Bild mit Quality Upscaler Einstellung definitiv besser als nativ ist aber hey man kann die Sau ja noch 10 Jahre durch die Arena treiben bis man es dann irgendwann mal versteht.

Man stellt sich immer schön gegen Neues und hält an Alten fest.
Unreflektierter geht es wohl kaum.
Die Realität ist: Die meisten Nutzer spielen weiterhin mit 1080p. Gerade hier ist nativ wichtig, denn das Ergebnis von upscaling unter 1080p ist ziemlich bescheiden. Nun soll man aber auch hier mit upscaling arbeiten, um flüssige FPS zu bekommen, selbst mit teuren und guten Grafikkarten.
Das hat nichts mit "in der Vergangenheit festhängen" zu tun. Über den eigenen "2000€ Gaming bei 4K" Tellerrand schauen kann manchmal gut sein. 😉

Und bevor eine unnötige Grundsatzdiskussion startet:
Einfach akzeptieren, dass man selbst, mit High-End Equipment, nicht unbedingt die größte Spielerschaft abbildet und nicht so hochnäsig andere als vergessene Relikte abstempeln.
 
Zuletzt bearbeitet:
ElliotAlderson schrieb:
Woran machst du das fest? Theoretisch kannst du jedes Spiel in jeder Engine umsetzen und du würdest es als außenstehender nicht mal sehen. Ist halt die Frage, wie viel Aufwand man da reinstecken möchte.
Wer nicht nur stumpf Spiele konsumiert sondern ein Gespür dafür entwickelt hat was dahinter steckt, sieht den Spielen an, welche engine dahinter steckt. Am schwersten ist das nur bei der unity, da die wirklich versatil ist. Aber wenn ein Spiel die UE nutzt, riecht man es teils gegen den Wind.

Atnam schrieb:
Man stellt sich immer schön gegen Neues und hält an Alten fest.
Andere wiederrum glauben prinzipiell immer, dass alles besser ist wo "neu" drauf steht. Ist halt auch nur so ein Irrglaube.
Ergänzung ()

ElliotAlderson schrieb:
Welches Spiel läuft denn mieserabel? Ich habe keine Probleme mit den UE5 Spielen.
Warum die UE5 aber augenscheinlich so schlecht performt und für Laien wie dich optisch angeblich keinen Mehrwert bietet, liegt vermutlich an Nanite und co. Mit Nanite wird das grafische Niveau der gesamten sichtbaren Umgebung angehoben und es sehe nicht nur die 15 m um meinen Charakter herum hübsch aus.

Zeig mir ein Spiel, dass nicht die UE5 nutzt und auch noch 50 m in der Ferne gut aussieht. Mir fällt spontan keins ein. In jedem Spiel wird der Polygoncount optisch drastisch reduziert, auf Sprites gewechselt und/oder Objekte ganz ausgeblendet. Das gibt es mit der UE5 so nicht mehr und das frisst eben auch Leistung.
Woran machst du fest, dass ich ein Laie sei? Weil ich deine Meinung nicht teile?

Andere frage: Welches System besitzt du, dass du scheinbar keinerlei Leistungsprobleme mit den UE5 spielen hast?
Gucke ich mir alle tests von Spielen hier auf CB an, sehe ich durch die bank weg miserable Bildraten wenn man nicht gerade eine 4080 sein Eigen nennt. Wie gesagt, eine 6800xt hält sich geradeso über Wasser auf fake 1440p.

Das gibt es mit der UE5 so nicht mehr und das frisst eben auch Leistung.
Aus dem Grund gabs das in der Vergangenheit eben auch nicht. Da es nunmal unsinnig viel Leistung frisst für nur wenig Mehrwert. Der weiche übergang im LoD ist wesentlich wichtiger als der grundsätzliche Detailgrad in der weiten Entfernung.

Ich kenne nur einen wirklich lohnenden Mehrwert in dieser Form des Distanz-Renderings und das ist bei Spielen wie Arma wo es darauf ankommt, dass man sich auf seine gewählte Deckung in Form von Büschen und Unterholz verlassen kann wenn man 1000m vom gegner entfernt herum liegt und nicht durch das fehlende LoD entdeckt werden will.
 
Zuletzt bearbeitet:
Powl_0 schrieb:
Ich schrieb es "rennt der Upscaler", also der Algorithmus läuft, also FSR/DLSS/XeSS/TSR. Genau das ist der Fall, auch wenn der Faktor dabei 1 ist. Auch bei 100% werden diese nicht ausgelassen.
Der Algorithmus läuft, aber es ist in dem Moment kein Upscaler. DLSS FSR und XeSS generell im Sprachgebrauch als "Upscaler" zu betiteln hat sich leider so eingebürgert.
Powl_0 schrieb:
Und witzig, Nvidia nennt es auch DLSS, wenn tatsächlich Upscaling stattfindet ;)
Weil es ja auch mit niedrigerer Renderauflösung in Summe immer noch ein Supersampling ist.

Sie machen aber, wenn kein Upscaling stattfindet, zumindest die sprachliche Unterscheidung, es DLAA zu nennen, auch wenn es nach wie vor der gleiche Algorithmus ist.
 
Windell schrieb:
Für ein Spiel mit besserer Grafik als BMW und guter Performance.

Rainbowprincess schrieb:
Woran machst du fest, dass ich ein Laie sei? Weil ich deine Meinung nicht teile?
Hat mit deiner Meinung nichts zutun. Deine Posts wirken auf mich einfach nicht so, als wärst du Entwickler o.ä.

Rainbowprincess schrieb:
Andere frage: Welches System besitzt du, dass du scheinbar keinerlei Leistungsprobleme mit den UE5 spielen hast?
Gucke ich mir alle tests von Spielen hier auf CB an, sehe ich durch die bank weg miserable Bildraten wenn man nicht gerade eine 4080 sein Eigen nennt. Wie gesagt, eine 6800xt hält sich geradeso über Wasser auf fake 1440p.
Wer ultra Details mit 1440p+ aufwärts will, brauch entsprechende Hardware. Das ist nichts neues und BMW läuft auch auf schlechterer Hardware, aber eben nicht in 4K Ultra mit PT nativ.

Rainbowprincess schrieb:
Aus dem Grund gabs das in der Vergangenheit eben auch nicht. Da es nunmal unsinnig viel Leistung frisst für nur wenig Mehrwert.
Nein, es war nicht möglich, wenn du mehr als 5 FPS erreichen wolltest.

Rainbowprincess schrieb:
Der weiche übergang im LoD ist wesentlich wichtiger als der grundsätzliche Detailgrad in der weiten Entfernung.
Weicher Übergang? Hahahaha, nein. Da ist gar nichts weich. In FH5 siehst du in 10 m Entfernung nur noch Sprites. Da lobe ich mir Nanite.
Bei GTA 5 war das ganz extrem. Du konntest den Kreis um dich herum förmlich sehen, ab dem die Asset-Qualität abnahm.

Rainbowprincess schrieb:
Ich kenne nur einen wirklich lohnenden Mehrwert in dieser Form des Distanz-Renderings und das ist bei Spielen wie Arma wo es darauf ankommt, dass man sich auf seine gewählte Deckung in Form von Büschen und Unterholz verlassen kann wenn man 1000m vom gegner entfernt herum liegt und nicht durch das fehlende LoD entdeckt werden will.
Ich behaupte mal, dass so ein dicht besiedelter Dschungel wie in Ark 2 ohne Nanite nicht möglich wäre in der Qualität. Ark 1 lief schon wie ein Sack Schrauben auf der aktuellsten Hardware damals. Ark 2 läuft da wesentlich besser und hebt das grafische Niveau ordentlich an.
 
Zuletzt bearbeitet:
ElliotAlderson schrieb:
ehe ich anders. Habe Hunt Showdown gespielt und optisch verliert es gegen jeden aktuellen UE5 Titel.
Und Du bist der Nabel der Welt, verstehe, dann erübrigt sich ja eine sinnvolle Diskussion, da Du zu dieser nicht fähig zu sein scheinst und vornehmlich zum trollen hier angemeldet bist, wie es scheint ;).

Ich habe mich auch auf Soundesign, Animationen und Physikeffekte bezogen, aber "was der Bauer nicht (er)kennt , ne ..." und nicht auf Grafikblenderei der Marke UE5, die sicherlich alleine noch kein gutes Spiel (bzw. Spielspaß) ausmacht/garantiert.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: xXDariusXx
schM0ggi schrieb:
Das hat nichts mit "in der Vergangenheit festhängen" zu tun. Über den eigenen "2000€ Gaming bei 4K" Tellerrand schauen kann manchmal gut sein. 😉
Ich spiele nicht auf 4k aber egal.
Rainbowprincess schrieb:
Andere wiederrum glauben prinzipiell immer, dass alles besser ist wo "neu" drauf steht. Ist halt auch nur so ein Irrglaube.
Das Argument lasse ich vielleicht für DLSS 1 in 2019 gelten. Da haben auch viele zuerst mal gedacht "wow toll" aber im Endeffekt war es qualitativ Mist. Da gibts nichts zu diskutieren.
DLSS, Xess oder FSR sind aber nicht mehr "neu"
Diese Lösungen gibt es jetzt seit über 5 Jahren und sie haben sich enorm entwickelt. Manch einer möchte aber anscheinend weiterhin den Fortschritt nicht sehen sondern hängt halt immernoch auf dem Stand der Anfangszeit fest.
Man kann auch mit 1080p auf DLSS/FSR/Xess Quality spielen und selbst die Performance Modi sehen mitlerweile immer besser aus.
 
  • Gefällt mir
Reaktionen: MoinWoll und ElliotAlderson
Atnam schrieb:
Man kann auch mit 1080p auf DLSS/FSR/Xess Quality spielen und selbst die Performance Modi sehen mitlerweile immer besser aus.
Ja, aber in 1080p ist nativ tatsächlich idR. besser. Besser heißt hier aber nicht, dass 1080p DLSSQ Müll ist.
Aber spätestens in 4K ergibt nativ keinen Sinn mehr.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: MoinWoll
ElliotAlderson schrieb:
Ja, aber in 1080p ist nativ tatsächlich idR. besser.
Ich würde zumindest immer DLAA einschalten solang verfügbar. Dann hat man zwar kein Upscaling aber wesentlich besseres AA.

Wenn ich wirklich umbedingt nen 1080p nativ Benchmark brauche am liebsten mit mittleren Qualitätseinstellungen oder so dann geht man auf Youtube und sucht danach. Gibt doch mehrere Channel die genau das anbieten. Computerbase kann halt auch nicht alle Wünsche der User berücksichtigen.
 
  • Gefällt mir
Reaktionen: MoinWoll
Metascore mom. 82% bei ungefähr 40 Tests.
Sind auch 10/10 (IGN China) und eine 100% Wertung dabei. Muss jeder selbst entscheiden ob er die mit einbeziehen oder vom Score abziehen will.
Realistisch also um die 80 mit Tendez zur hohen 70er.
Zur Info.
 
Ganz ehrlich?!
Ich verstehe die Benchmarks nicht mehr.
Upsampling performance, Balance, bliblablupp. Je nach Auflösung unterschiedlich.

Für mich als Konsumenten totales Wirrwarr mittlerweile.

Ich schalte das Zeug meistens aus, weil immer irgendwas flickert, schmiert oder sonst was.

Vielleicht werde ich auch einfach zu alt für den ganzen neuen Scheiß ^^
 
  • Gefällt mir
Reaktionen: ST18
@ElliotAlderson Hatte ich doch bereits geschrieben, HFW fällt mir auf die Schnelle ein.

Zitat aus dem CB Test:

das Gesamtwerk von Horizon Forbidden West gehört zu den schönsten Spielen, die es je auf dem PC gegeben hat. Damit zeigt das Open-World-Spiel auch, dass man riesige Welten wunderschön darstellen kann – woran die meisten Open-World-Spiele scheitern. Horizon Forbidden West ist ein wahres Grafikfeuerwerk, das auch mit einer beeindruckenden künstlerisch Gestaltung sowie einem unglaublich hohen Detailreichtum überzeugen kann. Das ist absolutes Referenzniveau.
 
  • Gefällt mir
Reaktionen: xXDariusXx
Wolfgang schrieb:
ComputerBase hat sich den Benchmark zu Black Myth: Wukong genauer angesehen und erste eigene Grafikkarten-Benchmarks gemacht, die einen enormen GPU-Hunger zeigen.
... warum wohl !?
Wieso sind neuerdings in den Gamereviews keine Tests zum Presetscaling mehr dabei?
Und wie skaliert die Rasterperformance mit FG?
(wobei Raster in dem Fall schon SoftwareLumenRT ist)

Mit meiner kleinen GPU+CPU machts eeh keinen Sinn maxed zu spielen.
(erstmal Pi mal Daumen ein custom Setting für die GPU, ... vermutlich schon teilweise leicht im CPU-Limit,
könnte sein das ein 2.Run dann schon ein mue smoother ist)
 

Anhänge

  • Black Myth Wukong Benchmark@CPU-Limit.jpg
    Black Myth Wukong Benchmark@CPU-Limit.jpg
    744,1 KB · Aufrufe: 48
  • Black Myth Wukong Benchmark@CPU-Limit customSettingsjpg.jpg
    Black Myth Wukong Benchmark@CPU-Limit customSettingsjpg.jpg
    363,7 KB · Aufrufe: 50
Zuletzt bearbeitet:
ElliotAlderson schrieb:
Haste dazu einen Artikel oder sowas?
Nicht ad hoc, hab mich nur mal beruflich mit der UE5 Dokumentation dazu beschäftigt.
Ergänzung ()

ElliotAlderson schrieb:
...und deshalb sind deine vollmundigen Aussagen zu Detail in der Entfernung in UE5 Spielen mit Vorsicht zu genießen. Wird Nanite nicht oder nur für bestimmte Geometrie genutzt, dann ist der Detailgrad doch von klassischem LOD oder 2D Impostors abhängig.
 
  • Gefällt mir
Reaktionen: ElliotAlderson
Powl_0 schrieb:
...und deshalb sind deine vollmundigen Aussagen zu Detail in der Entfernung in UE5 Spielen mit Vorsicht zu genießen. Wird Nanite nicht oder nur für bestimmte Geometrie genutzt, dann ist der Detailgrad doch von klassischem LOD oder 2D Impostors abhängig.
Haste ne andere Erklärung, warum UE5 mehr Performance frisst als andere Engines? Wird ja wohl kaum an schlechten Engineentwicklern bei EPIC liegen.
Nanite würde es für mich erklären.
 
Zurück
Oben