Test Hitman 3: Gerne mehr Raytracing, aber bitte nicht so

sebish schrieb:
Da vermischt mal wieder jemand Renderauflösung und Texturauflösung. Es gibt keine "4K Texturen" in diesem Sinne. Texturen haben Auflösung, völlig unabhängig der Renderauflösung. Gibt auch Spiele, die mit niedrig aufgelösten Texturen feine Details darstellen können, dank ausgereiftem Können der Entwickler.
Ergänzung ()

clarkathome schrieb:
Raytracing wird halt gehypted, deshalb wird es halt implementiert
Es wird implementiert, weil es eine bessere Lösung ist als klassische Methoden, die immer wieder an ihre Grenzen stoßen und mit anderen Techniken nicht zurecht kommen.
Ergänzung ()

clarkathome schrieb:
dass heute nicht mehr wirklich auf die Performance geachtet wird
Natürlich wird darauf geachtet, genau deswegen doch der aktuelle Push für mehr und bessere RT Beschleunigereinheiten.
Ergänzung ()

feidl74 schrieb:
haben die in den 1960ern etwa falschzeit raytracing programmiert
So gesehen ja. Echtzeit heißt, es läuft vor deinen Augen ad-hoc berechnet ab. Nicht vorberechnet.
Ergänzung ()

feidl74 schrieb:
dann gibts da noch diffuses raytracing, rekursives raytracing oder Path tracing und Light ray tracing
Du kennst Fachbegriffe, sehr gut. Jetzt lern noch, was Echtzeit heißt.
 
  • Gefällt mir
Reaktionen: evilhunter, lordtofu und eightcore
Mit dem Fazit bin ich nicht einverstanden. Hitman lässt sich aufgrund seines langsamen Tempos auch bei 30 fps genießen und das erfüllt es trotz RT. Die bemängelten Grafikfehler sollten natürlich behoben werden. RT ist zwangsweise ein Performancefresser, der visuell nur wenig bewirkt unterm Strich.
 
  • Gefällt mir
Reaktionen: Onkel Föhn und franzerich
System: 12900KS / 32GB 6.666Mhz CL32 / RTX 2080 TI Kingpin

Alles maximalste Einstellungen was geht bei 2880x1620 via DSR auf FullHD 360Hz:

Dubai Bench: 138,59 FPS (Motion Blur "off" / Variable Rate Shading "off")
Dubai Bench mit RT Quality: 90,88 FPS (Motion Blur "off")


Hitman 1 Frankreich Level niedrigste(!) angezeigte FPS Zahl:
(habe hier um den Brunnen herum versucht die niedrigsten FPS - das geht wo zu Anfang die Leute mit einem ins Bild laufen):

ohne RT (wie oben): min. 103 FPS
mit RT (wie oben): min. 51 FPS

Was aber auch extrem auffällig ist wenn man am Brunnen noch oben z.B. auf die rechte ganz obere Seite
des Gebäudes schaut und das Geländer bei Bewegung - extrem - pixelig wirkt !

Test.png
In Bewegung sieht es noch schlimmer aus.

Ohne RT:
Test2.png

Also ist nicht nur der Bench "broken" sondern auch die RT Implementierung Ingame.
Es macht visuell noch Performancetechnisch keinen Sinn RT zu nutzen weil gefühlt Teile ingame in 720p gerendert werden (nicht so schlimm wie im Bench)

Macht auch keinen Unterschied ob ich nativ FullHD laufen lasse.
Schade hatte mich mega auf den Patch gefreut..

Edit:
Im Steam Forum wird auch bestätigt das DLSS 2.4.3.0 das Ghosting eliminiert.

Habe oben für den Test bereits 2.4.3.0 genutzt.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: lordtofu
Powl_0 schrieb:
Du kennst Fachbegriffe, sehr gut. Jetzt lern noch, was Echtzeit heißt.
naja kann man ja nachlesen. physikalisch läuft die Zeit für jeden unterschiedlich ab. somit ist Echtzeit ein Kunstbegriff, da es keine Falschzeit gibt, wie auch Zeit sparen. man kann Zeit nicht sparen nur mehr Aufgaben in der gleichen Zeit erledigen😉
 
Crythunder schrieb:
RT ist zwangsweise ein Performancefresser, der visuell nur wenig bewirkt unterm Strich.
Nö. Gute Implementierungen zeigen uns das Gegenteil.
Ergänzung ()

WebBeat84 schrieb:
Links und Mitte sieht besser aus als rechts, viel zu hell und überstrahlt
Viel zu hell? Das ist gleißende direkte Sonne in der Wüste. Links und Mitte sind unrealistischer berechnet, du hast dich einfach an fehlerhafte Beleuchtung in Spielen gewöhnt.

Links und Mitte ist doch total falsch. Direkte Sonne vor der Tür, aber fast kein indirektes Licht im Innenraum?

Stell dich mal bei Sonnenschein in nen Raum mit offener Tür/Fenster nach außen. Dann siehste schon, was eher stimmt.
 
  • Gefällt mir
Reaktionen: mazO!, evilhunter, Pro_Bro und 2 andere
dampflokfreund schrieb:
In wahren Next Gen Spielen wird man sowieso nichts mehr von RT hören...

... weil es in jedem Spiel fester Bestandteil und nichts mehr besonderes sein wird. Die RT-Verdrossenen werden werden sich noch umgucken, wenn die Gesamtperformance ihrer Karten plötzlich deutlich schlechter als erwartet sein wird oder Grafikeffekte fehlen. 🤭
Wenn wir bei Next Gen von PS5 Gen reden wird das aber RT sein, das auch auf AMD passabel läuft (gibt ja schon Beispiele), da es sonst auf den Konsolen nicht läuft.

Aktuell sind einige Spiele halt wieder mit RT so vollgepumpt, dass die Geforce Karten viel besser dastehen als AMDs lineup. Optimierung oder Optik egal, Marketing first. Dasselbe Spiel hatte man bei PhysX Effekten oder bei Tesselation.

Auch wenn ich selber eine Nvidia Karte habe und RT prinzipiell gut finde, so sind die jetzigen RT Vorzeigesachen für meine Kaufentscheidung irrelevant. Wenns breit verfügbar ist und vernünftig eingesetzt, wirds auch auf AMD laufen und Nvidia wird (wie immer) eine andere Sau durchs Dorf treiben (DLSS wirds auch nimmer sein bis dahin).
 
  • Gefällt mir
Reaktionen: Eller
Powl_0 schrieb:
? All die anderen RT Spiele mit guter Implementierung sind real.
Die haben aber abgesehen vom CPU Bottleneck auch nicht viel mehr FPS, wie zum Beispiel Cyberpunk, Control, Atom Heart, usw.

Cyberpunk 4K maxed out inkl. RT 35FPS
Dying Light 4K maxed out inkl. RT 37FPS
Ghostwire Tokyo 4K min FPS inkl. RT 30FPS
Lego Builders Journey 4K inkl. RT 38FPS
Control 4K inkl. RT maxed out 30 FPS

Wie viel FPS es letztendlich gibt hängt davon ab wie viele Spiegelungen stattfinden und wie viele Rays verschossen werden und nach meinem Eindruck ist das in Hitman richtig viel, das kostet Leistung.
Ich kann auch nicht in Minecraft 800 FPS haben und mich dann aufregen, dass es mit RT nur noch 50, also 1:16 sind. Solche Rechnungen funktionieren nicht. Das muss ein Redakteur wissen.
 
Zuletzt bearbeitet:
DerMond schrieb:
Wenn Raytracing mal die Marke von 5% Verbrauch an Leistung erreicht, wird es für mich interessant. Ich zahle keine 500-1000€ für eine GPU nur um dann deren Leistung zu halbieren oder zu dritteln für paar popelige Lichtstrahlen die meine Spielfreude um 0,57% steigern.

Ja mit der Meinung bin ich sicherlich allein.
Nö biste nicht. Nvidia lässt sich da seine extra Cores für RT teuer bezahlen und im Endeffekt sieht man den Unterschied nur wenn man drauf achtet. Den Vorteil haben irgendwann mal die Gamedesigner wenn sie klassische Beleuchtung rauslassen können aber das dauert. Gerade heute wo man noch für schwächere Plattformen bauen muss wie Telefon, Wii und Co.
Soll heissen wenn jetzt RT in allen Devices ist und die Gamedevs das ausschließlich für Beleuchtung nutzen ist es interessant. Spiegelungen/Beleuchtung über RT an sich sind halt nicht der große Sprung als der sie gerne hingestellt werden weils da klassisch schon gute Umsetzungen für gab, juckt mich gar nicht ob die Spiegelung in der Pfütze in COD physikalisch korrekt ist wenn ich gerade 99% des restlichen Screens auf Sniper absuche, ist halt so.
Dlss(oder wie auch immer sich das dann bei Amd schimpft) ist ne andere Nummer, aber wie Amd zeigt brauchste da ja gar keine teuren Cores für. Also dass Nvidia das macht - ok, clever wäre gewesen dass ich ne 3055 kaufen kann mit 3060er Leistung ohne extra Cores für Raytracing. Gerade Mittelklasse und drunter können mit ihren paar Cores doch eh nix wuppen...
 
  • Gefällt mir
Reaktionen: edenjung
WebBeat84 schrieb:
Links und Mitte sieht besser aus als rechts, viel zu hell und überstrahlt. Und das soll ein Feature sein? Und dann noch 80% weniger fps. Nein danke!
Wie @Powl_0 bereits vorgeschlagen hat, mach mal bei strahlender Sonne in einem Raum ohne Licht die Tür oder ein Fenster auf und schau dir an, wie hell der Raum wird. Und wenn du stark reflektierenden Sand zur Hand hast, kannste den vor die Tür streuen und sehen, wie hell dieser bei Sonnenlicht wird, wenn du deine Augen auf den Raum und nicht nach draußen fokusierst.

Bild 1 und 2 sind schlicht unrealistisch.

Und welche 80% weniger FPS? Metro Exodus Enhanced arbeitet deutlich performanter als das originale Metor Exodus mit aktiviertem RT, eben weil besser implementiert.
 
  • Gefällt mir
Reaktionen: mazO!, evilhunter, dampflokfreund und eine weitere Person
OldboyX schrieb:
Wenn wir bei Next Gen von PS5 Gen reden wird das aber RT sein, das auch auf AMD passabel läuft (gibt ja schon Beispiele), da es sonst auf den Konsolen nicht läuft.

Aktuell sind einige Spiele halt wieder mit RT so vollgepumpt, dass die Geforce Karten viel besser dastehen als AMDs lineup. Optimierung oder Optik egal, Marketing first. Dasselbe Spiel hatte man bei PhysX Effekten oder bei Tesselation.

Hairworks musste haben, da kannste dem Witcher die Friese föhnen... Oder wars Lara? Oder beide? Also so lange ich mich zurückentsinne hat NV immer irgendwelche Bullshitfeatures in Hardware gegossen und es wurde immer gekauft. Und ich bin schon länger auf diesem Planeten. Und ein Jahr später kam dann immer Amd: guck mal, können wir auch mit ohne extra Hardware.
Ich sag mal so: wenn man sich im Spiel dran freuen kann dass die Fahne physikalisch korrekt flattert, das Haar ordentlich im Wind weht, die Spiegelung in der Pfütze passt usw dann kauft man halt NVidia mit ihren "Features". Da ist Raytracing wohl noch eins der besseren. Solange Amd noch da ist wirds immer ne Alternative geben.
 
  • Gefällt mir
Reaktionen: Unnu, OldboyX, edenjung und eine weitere Person
Gefühlt sind wir bzgl. Raytracing in Spielen immer noch in der Experimentierphase:
Es ist technisch gesehen die logische Weiterentwicklung für bestimmte Effekte, ist aber zu teuer zu berechnen, um es immer und überall bedenkenlos einsetzen zu können. Daher sollte RT mit der aktuellen Hardware Generation nur dort eingesetzt werden, wo optisch ein echter Vorteil entsteht ohne dass die Performance komplett im Keller ist.
Doom Eternal sehe ich in dieser Hinsicht als Musterbeispiel; RT kommt genau dort zum Einsatz, wo screen space reflections versagen. Was mittels klassischer Technik hingegen schnell und ordentlich funktioniert, muss nicht auf Teufel komm raus durch RT ersetzt werden. In Hitman ist dieser Balanceakt allem Anschein nach leider nicht so gut gelungen.
 
  • Gefällt mir
Reaktionen: edenjung und daknoll
Laphonso schrieb:
Echt? Welches ist denn das native Bild ? Ich habe 3 mal DLSS Quality und 1 mal nativ hier unten, jeweils UWQHD.

Da bin ich mal gespannt :D

Anhang anzeigen 1222699Anhang anzeigen 1222700Anhang anzeigen 1222702Anhang anzeigen 1222701
Ich behaupte mal das zweite also 5.png ist die native Auflösung obwohl ich auf meinem kleinen Handybildschirm da schon arge Probleme habe Unterschiede zu sehen, ich schau mir das morgen mal auf meinem Heimmonitor an. Wobei screenshots immer so eine Sache sind, in der Bewegung kann es teilweise ganz anders aussehen teilweise mit DLSS sogar "ruhiger" als ohne.
 
Katzerino88 schrieb:
Die haben aber abgesehen vom CPU Bottleneck auch nicht viel mehr FPS
Öh, doch.
Ergänzung ()

Katzerino88 schrieb:
Wie viel FPS es letztendlich gibt hängt davon ab wie viele Spiegelungen stattfinden und wie viele Rays verschossen werden
Da gehört noch einiges mehr dazu. Wie viele Bounces? Was ist alles in den Acceleration Structures enthalten? Wie werden die aktualisiert? Welches LOD? Welche Präzision nutzen die Ray Shader? Wie viele verschiedene Ray Shader werden genutzt/getroffen? Wie werden sie addressiert?
Ergänzung ()

Katzerino88 schrieb:
Cyberpunk 4K maxed out inkl. RT 35FPS
Dying Light 4K maxed out inkl. RT 37FPS
Ghostwire Tokyo 4K min FPS inkl. RT 30FPS
Lego Builders Journey 4K inkl. RT 38FPS
Control 4K inkl. RT maxed out 30 FPS
Jo und hier bei Hitman erreicht man diese Werte bei 1080p Max inkl RT. Bei 4K max mit RT kannste es in Hitman ohne DLSS komplett vergessen, in den genannten Spielen kommt DLSS noch dazu.
Ergänzung ()

Guyinkognito schrieb:
Gerade heute wo man noch für schwächere Plattformen bauen muss wie Telefon, Wii und Co.
Lol what. Wii? Telefon? Welches AAA Konsolen/PC Spiel kommt für irgendeine dieser Plattformen?
Ergänzung ()

Guyinkognito schrieb:
aber wie Amd zeigt brauchste da ja gar keine teuren Cores für
Doch, brauchste schon. FSR 2.0 hat ein paar klare Probleme bei Bewegung und feinen Details. Und genau die schafft DLSS deutlich besser.
Ergänzung ()

Guyinkognito schrieb:
Gerade Mittelklasse und drunter können mit ihren paar Cores doch eh nix wuppen...
Klar können sie. Besonders dank DLSS. Geht dann halt nicht auf WQHD+ und alles maxed out.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: incurable
Taxxor schrieb:
Wie @Powl_0 bereits vorgeschlagen hat, mach mal bei strahlender Sonne in einem Raum ohne Licht die Tür oder ein Fenster auf und schau dir an, wie hell der Raum wird. Und wenn du stark reflektierenden Sand zur Hand hast, kannste den vor die Tür streuen und sehen, wie hell dieser bei Sonnenlicht wird, wenn du deine Augen auf den Raum und nicht nach draußen fokusierst.

Bild 1 und 2 sind schlicht unrealistisch.

Und welche 80% weniger FPS? Metro Exodus Enhanced arbeitet deutlich performanter als das originale Metor Exodus mit aktiviertem RT, eben weil besser implementiert.
Mag sein, besser sieht es trotzdem aus. Im echten Leben würde ich ne Sonnenbrille anziehen im Spiel geht das ja nicht. ^^
 
Powl_0 schrieb:
Doch, brauchste schon. FSR 2.0 hat ein paar klare Probleme bei Bewegung und feinen Details. Und genau die schafft DLSS deutlich besser.
Was aber nicht so direkt an den Cores liegt, sondern erstmal daran, dass man einfach mehr Samples verarbeiten kann, um solche Dinge besser zu machen.
Könnte FSR 2.0 auch tun, nur würde es dadurch auch mehr Performance kosten.

Genau das ist der Vorteil der Tensor Cores, sie können es beschleunigen, sodass man in der gleichen Zeit mehr Samples schafft und somit optisch besser aussieht bei gleichem Performancegewinn.
Man könnte sie auch andersrum nutzen und die gleiche Optik wie FSR 2.0 haben bei deutlich mehr Performancegewinn.
 
  • Gefällt mir
Reaktionen: .Sentinel.
WebBeat84 schrieb:
Im echten Leben würde ich ne Sonnenbrille anziehen im Spiel geht das ja nicht. ^^
Deine Sonnenbrille ändert, wie Sonnenlicht sich verhält? Respekt. Äquivalent wäre wohl eher, im Spiel einfach die Helligkeit etwas zu reduzieren. Die deutlich realistischere Beleuchtung in der Enhanced Edition bleibt.

Dir gefällt nur einfach der falsche Look der klassischen Beleuchtung.
Ergänzung ()

Taxxor schrieb:
Was aber nicht so direkt an den Cores liegt, sondern erstmal daran, dass man einfach mehr Samples verarbeiten kann, um solche Dinge besser zu machen.
Könnte FSR 2.0 auch tun, nur würde es dadurch auch mehr Performance kosten
Mit anderen Worten: Die Tensor Cores sind notwendig für die Qualität von DLSS ;)

Taxxor schrieb:
Man könnte sie auch andersrum nutzen und die gleiche Optik wie FSR 2.0 haben bei deutlich mehr Performancegewinn.
Eeeeh da wäre ich vorsichtig. Die Tensor Cores berechnen am Ende ja nicht genau das gleiche wie FSR 2.0 mit mehr Samples. Sondern das neuronale Netz, was in DLSS steckt, wurde mit mehr/besseren Samples trainiert. Was die Tensor Cores da rechnen, lässt sich nicht beliebig kurz gestalten. Selbst bei niedrigen Auflösungen skaliert DLSS nicht sehr weit nach unten. Mit einer der Gründe, warum es bei hohen Bildraten weniger Performanceschub bringt.
 
  • Gefällt mir
Reaktionen: evilhunter und incurable
Powl_0 schrieb:
Mit anderen Worten: Die Tensor Cores sind notwendig für die Qualität von DLSS ;)
Streng genommen nicht, du musst schon beides zusammen sehen: Sie sind notwendig dafür, dass man diese Qualität in dieser Geschwindigkeit erhält. Man könnte sie auch ohne Tensor Cores haben, würde dann aber eben weniger Performancesteigerung bekommen.

Powl_0 schrieb:
Eeeeh da wäre ich vorsichtig. Die Tensor Cores berechnen am Ende ja nicht genau das gleiche wie FSR 2.0 mit mehr Samples. Sondern das neuronale Netz, was in DLSS steckt, wurde mit mehr/besseren Samples trainiert. Was die Tensor Cores da rechnen, lässt sich nicht beliebig kurz gestalten. Selbst bei niedrigen Auflösungen skaliert DLSS nicht sehr weit nach unten. Mit einer der Gründe, warum es bei hohen Bildraten weniger Performanceschub bringt.
Das, was das dort trainiert wurde, ist am Ende aber auch nur ein Algorithmus, der von den Tensor Cores ausgeführt/beschleunigt wird.
Ja er ist nicht genau gleich mit dem von FSR 2.0, aber das könnten Shader genauso berechnen, nur eben deutlich langsamer, vmtl sogar so langsam dass es sich bei diesem Algorithmus nicht lohnen würde, weil man dann statt 50% nur noch 20% Performance rausbekommt und bei hohen Bildraten, wie du schon erwähnt hast, dann eventuell statt von +50% auf +25% sogar von +20% auf -10% fällt.
Das gleiche Problem mit der sinkenden Mehrperformance bei hohen FPS hat FSR 2.0 übrigens auch.

Aber es wäre prinzipiell möglich, die gleiche Bildqualität auch ohne Tensor Cores zu erreichen. Nur eben langsamer.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: evilhunter, Unnu und .Sentinel.
RogueSix schrieb:
Das Ganze ist leider eine komplette Neiddebatte...
Es geht doch nicht nur um Besitzer von AMD Karten oder hat jeder andere mindestens eine RTX 3080? Wie läuft RT in dem Spiel denn mit einer 3070, die ja wahrlich auch kein Billigheimer ist?

Diese Fanboiwars nerven zunehmend, jede Diskussion wird damit erstickt. Und nein, ich habe weder eine AMD Grafikkarte noch dieses Spiel.
 
Zurück
Oben