• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

Test Metro Exodus im Test: Beeindruckende Grafik inklusive Raytracing und DLSS

ZeroZerp schrieb:
Die Quelle ist z.B. die Elevator- Demo, die ohne RTX auf ca. 1/10tel an FPS der RTX Karte kommt.


Je nach Szenario ist dem nicht so. Du vergisst bei Deiner Betrachtung, dass wir bei Battlefield 5 ja nur zum geringsten Teil die RT Leistung bewerten, sondern dadurch, dass es so ein shaderlastiges Spiel ist, eher wieviel Zeit die Shader haben, um das Ergebnis eines Rays auszuwerten.

Bei Battlefield streiten sich also sowohl RT als auch die Rasterisierung um "Ressourcen". Da gilt es ein gutes Balancing zu finden.

Derzeit haben die RT Cores eine zu hohe Leistung, als dass sie die Shader im Nachgang alles sauber bearbeiten können. Wie gesagt bei einer 2080 TI könntest Du in 4K mit 90Hz pro Pixel und Sekunde 16 Strahlen abfeuern.
Nur hilft das nichts, wenn der Shaderanteil mit deren Auswertung nicht durchkommt, weil dieser von anderen Dingen belegt ist.

Klar, ist richtig. Wobei Du aber außer acht lässt, dass die hohe Shader-Auslastung prinzipiell bei allen Spielen stattfindet, welche sich an der Rasterizing-Grenze befinden. AC: Origins / Odyseee, BFV, Anno, ggf Metro usw usf. Was im Umkehrschluss eigentlich doch wieder bedeutet: Hardware ist doch noch etwas zu schwachbrüstig.

Alle weiteren Spiele, könnten theoretisch erstmal optisch an die Raster-Grenze gebracht werden, bevor man mit RT anfängt. Meine Meinung..



Fraggball schrieb:
@Sun_set_1
ohje...da bin ich aber jemandem auf die füsse getreten!:D
zuerst, du hast recht es sind rund 700 einheiten mehr, so besser?

Du, alles gut.
Mir kann persönlich niemand auf die Füße treten, weil er ein Produkt X oder Y besser findet.

Weiterhin krebse ich noch mit einer Tri-X 290 OC herum, welche aktuell unter FHD mit guten Settings weiterhin 40-50 fps liefert. Für die zwei Stunden die ich nach der Arbeit aus vier Metern Entfernung vor dem TV spiele, reicht das für mich mehr als aus.

Was mich in der Tat ärgert ist, dass der OC-Speicher der Karte langsam den Geist aufgibt. Ich habe damals 300€ investiert. Setze ich das gleiche Geld vier Jahre später ein, erhalte ich +30% Leistung.

Nach vier Jahren.

Möchte ich das Leistungsplus, dass ich früher (was bedeutet: eine Generation vor Mining und 2000er Reihe) nach vier Jahren für das gleiche Geld bekommen hätte, müsste ich theoretisch zur 2080 / 2080ti greifen.

desweiteren, ja es ist schon beeindruckend das 68 rt cores 768 shadereinheiten übertreffen. du hast das so schön gerechnet, ich rechne das dann mal so um es anders darzustellen:

bei 68 RT cores liegt das verhältins bei ca 11 zu 1 gegenüber den zusätzlichen shadern der Titan V.
bedeutet also das 1 RT core 11 shader der titan bei DXR übertrifft.
somit leistet 1 RT core min. 110% dessen was ein shader der titan V bei DXR leisten kann, und das ist relativ ungenau und zugunsten der titan V gerechnet.

Genau das ist ja mein Punkt :)

Niemand weiß genau, was sich hinter Nvidias RTX Core-Begriff verbirgt. Und es steht der Vorwurf im Raum, dass es sich hierbei bloß um erweiterte Compute-Einheiten aus dem Profi-Bereich handelt. Es ist durchaus möglich, dass NVIDIA schlicht einen Cluster aus diesen (Shader/Compute-)Einheiten als RTX Core sieht.

Genauso wie NVIDIA damals definierte, dass ein sogenannter Unified Shader (woah neu! Super!) schlicht aus 5 bestehenden Streamingprozessoren bestand. Diese wurden z.B. auf Geometrie hin optimiert, fünf zusammengefasst und dann Unified Shader (Geometry) genannt.

@ZeroZerp

Korrigiere mich hier, ich google das jetzt nicht nach. Aber war die Definition eines Unified Shader bei Nvidia nicht schlicht, die Zusammenfassung eines Clusters aus (bekannten) Streamingprozessoren die auf eine Aufgabe XY hin optimiert worden sind bzw diese dediziert übernehmen können? Beispiel Geometrie-Berechnungen. Dann wird auf einem dedizierten Streaming Cluster (US) die Geometrie-Berechnung durchgeführt welcher diese schneller erledigen kann. Gleichzeitig wurde die restliche GPU eben um diese Aufgabe entlastet. Die Streaming-Prozessoren selbst waren aber keine Neuheit, sondern eine schlichte Weiterentwicklung. Inklusive Optimierung auf eine bestimmte Aufgabe hin.

Somit gilt dort natürlich auch, ein Unified Shader verfügt über die fünffache Rechenleistung eines Streaming-Prozessors.

Was man nun annimmt ist, dass NVIDIA das Gleiche mit ihren RTX Cores getan hat. Zusammenfassung bestehender Einheiten zu einem Cluster. Dieser Cluster (RTX Core, bestehend aus elf "Spezial-Shadern"?) ist dediziert für die Berechnung der Rays zuständig. So in etwa wurde es ja sogar von Nvidia beschrieben. (Das RTX Cores dedizierte Einheiten sind)

Nur sind die Einheiten dahinter eben doch nicht unbedingt so neu und revolutionär wie es der Begriff "First real hardware based Raytracing Core" suggerieren möchte.

Fraggball schrieb:
kannste selbst suchen.

Wer behauptet sollte beweisen, ansonsten lasse ich das Argument komplett außen vor. Wie ich sagte, wird so ziemlich jedes Spiel auf einer Titan entwickelt und fordernde Effekte auch auf diesen getestet.


abgesehen davon ist die titan V volta architektur, auf der die turing architektur basiert. somit kaum verwunderlich das volta in den grundzügen in der lage ist DXR ansatzweise brauchbar zu liefern.

Da NVIDIA sagte dass für DXR eben die RTX Core notwendig sind und diese eben nicht auf der Titan sind.. egal lassen wir das, wir drehen uns im Kreis.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: CMDCake
Captain Mumpitz schrieb:
Herren. Einfach mal den Artikel lesen und nicht nur Bildchen gucken. Eigentlich reicht die erste Seite aus und eure Posts wären nicht nötig gewesen.
Tsss... Leute zitieren und ihnen vorwerfen den Artikel nicht gelesen zu haben, die zitierten Posts bzw. deren Zitierungen aber selbst nicht lesen. Ich monierte in diesem Fall, das es aus dem eingänglichen Satz nicht hervor geht das sich der Test ausschließlich auf Raytracing optimierte Hardware (was so auch nicht richtig ist, die Vegas sind dafür mWn auch nicht optimiert worden) bezieht sondern viel mehr und umfangreichere Tests als nur die aktuellsten Top-Karten. ;-)

Um mit dem Biervergleich zu halten: Ich beschwere mich ja auch nicht darüber das ein Weißbier zu sehr nach Hefe schmeckt, weil ich ja eigentlich ein Pils trinken wollte. Prost

Aber abseits von dem monierten Anfang des Artikels ein guter, und vor allem ehrlicher Test. Ich freue mich auf die weiteren, im späteren noch erscheinenden Testergebnisse :-)
 
cruscz schrieb:
Ich monierte in diesem Fall, das es aus dem eingänglichen Satz nicht hervor geht das sich der Test ausschließlich auf Raytracing optimierte Hardware bezieht.
Das stimmt, das tut der Satz nicht. Aber der Test. Und das wird bereits auf der ersten Seite klar. Deshalb sag ich ja: den Artikel zu lesen hilft ;)
Und die V64 ist wie erwähnt als Kontext/Vergleich da um zu sehen wie das Spiel grundsätzlich ohne RTX auf anderer Hardware läuft.
 
major_tom111 schrieb:
Eine Umfassende Analyse wäre hier sicher nicht schlecht.
Die Performance ist alles eine Frage der Perspektive, in dieser Szene ist die Karte ohne RT 100% schneller, und das obwohl kaum Lichtquellen vorhanden sind
Anhang anzeigen 752891

die Anzahl der Lichtquellen ist gerade auch bei sowas wie AO ja auch erstmal eher unerheblich. Bei diesen hohen Frameraten (>60FPS) würde es mich auch nicht wundern wenn die RT Engine einfach hart limitiert. Also entweder das Denoise oder RT selbst.

Deswegen ist es ggf essentiell sich die Einbußen auf verschiedenen Frameraten anzusehen. Vielleicht schafft die API generell selten bis nie mehr als 60 FPS ähnlich einer zu langsamen CPU. Vielleicht bricht das Game aber bei ~40 FPS durch zumahne von RT dann aber kaum noch ein.
 
Kacha schrieb:
@Krautmaster Das PR hat nicht von Performanceverlust gesprochen.
Das hat sie indirekt sehr wohl. Es wurde sogar lang und breit ein Fokus darauf gelegt, wie unfassbar Rechenaufwendig der heilige Gral Raytracing sei und dass man es nun durch einen Technologieschub in spielbare FPS Zahlen gehievt hat.

Geruechte und erste Tests haben es.
Der Volksmund und die Gerüchte haben zu Anfangs davon gesprochen, dass wir in 1080P nur 30FPS bekommen würden (Failtracing).
Dann schau Dir mal an, wo wir heute stehen...

Das ist ja das Problem, Nvidia hat Raytracing hervorgehoben und die Leute gingen davon aus, dass das extra ist. Es wurde eine Erwartungshaltung geschuert.
Die Leute haben den Hype selbst verursacht. Genau wie bei der VegaVII, die jetzt aufgrund der überhöhten Erwartungshaltung zu unrecht abgewatscht wird.

Als dann die ersten Geruechte und dann der erste Spieletest kam war es recht ernuechternd.
Ernüchternd war es deshalb, weil die Implementation fehlerhaft war und trotz der offiziellen Hinweise von DICE und NVIDIA dahingehend sich niemand daraum geschert hat, die Performance NICHT als durchoptimiertes Optimum zu sehen.

Schau Dir mal an, wie BV5 nach dem letzten RT Update auch ohne DLSS läuft. Da liegen Welten zur Erstveröffentlichung dazwischen.

Warum hat man extra Tensor Cores draufgepackt, wenn die das nicht mal schaffen?
Die Tensor Cores werden meines Wissens derzeit noch nicht für das RT Denoising genutzt geschweige denn dass sie Raytracen würden.

So in die Richtung geht die Frage. Die ist durchaus berechtigt. Jetzt wissen wir halt, dass Raytracing, je nach Umsetzung, ordentlich Performance kostet. Moeglicherweise kam DLSS nur dazu um den Verlust auszugleichen.
Im Dreierpack sollte ursprünglich ein Schuh draus werden. RT über fixed Function+Denoising/DLSS/DLSSx2 über die tensor Cores.

Derzeit wird gestückelt, weil die Techniken noch nicht fertig sind.

LG
Zero
 
Zuletzt bearbeitet:
Sun_set_1 schrieb:
Genau das ist ja mein Punkt :) Niemand weiß genau, was sich hinter Nvidias RTX Core-Begriff verbirgt. Und es steht der Vorwurf im Raum, dass es sich hierbei bloß um erweiterte Compute-Einheiten aus dem Profi-Bereich handelt. Es ist durchaus möglich, dass NVIDIA schlicht einen Cluster aus diesen (Shader/Compute-)Einheiten als RTX Core sieh
wo genau liegt denn dabei gegebenfalls ein problem? wenn die rt cores eine weiterentwicklung der volta architektur sind und dann diverse cores auf RTX operationen spezialisiert und zusammengefasst worde sind ist das doch nicht schlecht oder falsch.
Sun_set_1 schrieb:
Da NVIDIA sagte dass für DXR eben die RTX Core notwendig sind und diese eben nicht auf der Titan sind.. egal lassen wir das, wir drehen uns im Kreis.
nividia sagt für RTX features sind RTX karten notwendig.
zur nutzung der DXR schnittstelle von microsoft ist RTX nicht notwendig, aber durchaus nütlich beim ansprechen der schnittstelle aufgrund der optimierungen der RT und Tensor cores.
BF5 nutzt die DXR schnittstelle und diese kann von jedem hardwarehersteller der will genutzt werden, das die titan bei BF5 funktioniert hängt eben damit zusammen das die DXR schnittstelle während der entwicklung eben über diese Karte angesprochen wurde (RTX karten standen nicht zur verfügung). diese hat dice nach eigener aussage erst 2 wochen vor der gamescom präsentation bekommen.
 
Shio schrieb:
Das Problem was ich bei Global Illumination sehe ist, dass es aktuell einfach nicht mit unserem Auge funktioniert. Nach gewisser Zeit gewöhnt sich unser Auge an die dunkle Szene und nimmt somit mehr Details wahr.
Der Effekt heisst Eye Adoption und wurde von vielen Spielen so gebasht, dass sich die Entwickler inzwischen die Integration schenken.
 
  • Gefällt mir
Reaktionen: v_ossi
Fraggball schrieb:
wo genau liegt denn dabei gegebenfalls ein problem? wenn die rt cores eine weiterentwicklung der volta architektur sind und dann diverse cores auf RTX operationen spezialisiert und zusammengefasst worde sind ist das doch nicht schlecht oder falsch.


Ich habe kein Problem. Fortschritt ist super. Ich sehe es aber als problematisch an, wenn NVIDIA suggerieren möchte, dass RTX Cores eine vollkommene Revolution wären. Und ich, mir, in meiner persönlichen Vorstellung, von Raytracing Cores eine mindest fünffache Leistung gegenüber bestehenden Compute-Einheiten aus dem Profibereich vorstelle. Oder sogar erwarte.

Villeicht ist es auch einfach eine Frage der persönlichen Erwartungshaltung die geweckt worden ist.
Für dich und @ZeroZerp mag diese ja genau getroffen sein. Meine persönlich geweckte Erwartung nach Präsentation und Preisen, war deutlich höher.
 
  • Gefällt mir
Reaktionen: RB6istGut
Shio schrieb:
Das sehe ich definitv auch so. Zumal das Spiel ohne RTX ausschaut als ob es kein AO hat, was schon recht frech wäre.
Nein- Das ist ja gerade der Witz. Raytraced AO hat eine viel größere Strahlentiefe. Deswegen werden auch Verschattungen von Objekten weiter weg in das AO miteinbezogen.
Dass da die alten Techniken teilweise so aussehen, als seien sie kaum oder schlecht vorhanden liegt in der Natur der Sache.

Vergleich mal SSAO mit HBAO+ oder VXAO da denkst Du jeweils auch, dass der andere Effekt eigentlich fast fehlt:

Hier VXAO gegen HBAO+
http://abload.de/img/vxao_hbao_1vkxff.gif

Hier HBAO+ gegen SSAO
https://international.download.nvid...ve-comparison-1-nvidia-hbao-plus-vs-ssao.html

Und genau daran merkt man, dass wir doch immernoch sprünge in der Grafikqualität machen. Man nimmt diese aber kaum wahr, weil man den Vergleich nicht macht.

Grüße
Zero
 
@ZeroZerp
Der Effekt heisst Eye Adoption und wurde von vielen Spielen so gebasht, dass sich die Entwickler inzwischen die Integration schenken.

Ah interessant! Danke für das Video. Ja genau das meine ich, irgendwie fehlt das doch in den ganzen RT Videos bei Metro oder nicht?

Vergleich mal SSAO mit HBAO+ oder VXAO da denkst Du jeweils auch, dass der andere Effekt eigentlich fast fehlt:
http://abload.de/img/vxao_hbao_1vkxff.gif

Wow! Hab AO gar nicht so schlecht im Gedächtnis :o
 
@Sun_set_1
Nehmen wir den Raytracing Benchmark von 3dMark als Basis, bringen die RTX Cores einiges.
Dort schneidet eine massiv übertaktete Titan V auf dem Niveau einer RTX 2060 ab. Die Titan V hat @Stock bereits mehr als die doppelte SP Leistung und grob die 35(!)-fache DP Leistung sowie mehr als die doppelte Speicherbandbreite.

Gänzlich neu werden die Cores nicht sein, aber das ist jetzt auch Haarspalterei deinerseits. Es bringt offensichtlich etwas für diesen speziellen Bereich. Titan V ist als Vergleich aber auch nicht optimal, da - wie bereits mehrfach gesagt - Turing Features enthalten sind. Nimmst du eine 1080 Ti als Vergleich, dürfte die bei Raytracing dramatisch abfallen.
 
TheUngrateful schrieb:
@ZeroZerp

Hast du, bevor du mich zitiert hast überhaupt die bisherigen Kommentare gelesen und was die Leute hier für überschwängliche Kommentare abgeben oder für zu harte Kritik äußern? Auf diese bezog ich mich.

Der größte Teil der Foren User sieht es anscheinend wie ich. Es ist anders, teilweise hübscher, teilweise nicht. Besser? Keinesfalls, vor allem in anbetracht der erhöten Anforderungen an die GPU.

Sich dann alles zurecht zu biegen, "vielleicht wollen die es nicht realistisch"... Das ist nicht objektiv, sondern ein Wunschdenken.
Nein- Es ist die Realität. Du unterschlägst hier, dass ich nicht derjenige bin, der von "Realismus" der Beleuchtung spricht, sondern immer von der physikalischen Korrektheit.
Und physikalisch korrektes licht ist Abseits das Artdesigns IMMER die bessere Wahl.

Grüße
Zero
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: HardRockDude
ZeroZerp schrieb:
Der Effekt heisst Eye Adoption und wurde von vielen Spielen so gebasht, dass sich die Entwickler inzwischen die Integration schenken.
Nur aus Interesse: Wenn ich mich recht erinnere, dann war dieser Effekt mit das erste Mal so richtig bei einer der Half-Life 2 Episoden zu sehen. Damals noch mit unter HDR vermarktet :)

Hier: https://techgage.com/article/half-life_2_episode_1/3/
Like in Lost Coast, the HDR acts realistically to real eyesight. Once you look directly at a wall that’s lit up by the sun, it will adjust to your virtual eyes. So if it’s bright at first, once your ‘virtual eyes’ gain focus, it will be easier to look at.
 
Shio schrieb:
@ZeroZerp


Ah interessant! Danke für das Video. Ja genau das meine ich, irgendwie fehlt das doch in den ganzen RT Videos bei Metro oder nicht?

Wie gesagt- Die Hersteller wurden so oft für diesen Effekt gescholten, weil er einfach nicht gut ankam, so dass man es inzwischen bei fast keinem Titel mehr sieht.


Wow! Hab AO gar nicht so schlecht im Gedächtnis :o
Genau das meine ich. Es würde einem wahrscheinlich garnicht auffallen, wenn man mit SSAO spielt, dass da was fehlt oder es auch deutlich besser ginge. Auch fällt einem nicht sofort auf, dass die Grafik in manchen Bereichen eben doch erhebliche Sprünge gemacht haben.

RT ist nun einfach der nächste Schritt, der aber jetzt komplett am Anfang steht und trotzdem in dem was er tut besser aussieht.

LG
Zero
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: DocWindows, Shio und HardRockDude
ZeroZerp schrieb:

Naja, das ist ja nicht besonders praxisnah. Man kann auch über 60 Hz noch deutliche Unterschiede in der Bewegungsschärfe feststellen, außerdem wird die Eingabeverzögerung nicht berücksichtigt. Desweiteren denke ich nicht, dass man das Flimmern einer Leuchtstoffröhre überhaupt mit flüssigem Bildeindruck vergleichen kann.

Auf dieser Basis zu behaupten, dass niemand von Monitoren über 110 Hz profitiert halte ich für sehr gewagt.
 
@Sun_set_1
hier ein link zu einer äusserst professionellen analyse der thematik über die wir beide hier diskutieren.
sehr informativ, hab ne weile gebraucht es wiederzufinden.
ist fundiert und geht auf alle unsere diskussionspunkte ein.

https://www.pc-better.com/titan-v-dxr-analysis/

versteh mich bitte nicht falsch, ich mag ne gute forendiskussion und weiss zu schätzen das du sachlich und freundlich bleibst. lies dir das mal durch, klärt vielleicht einige der punkte die bei dir fragen aufwerfen.
 
Sun_set_1 schrieb:
Da NVIDIA sagte dass für DXR eben die RTX Core notwendig sind und diese eben nicht auf der Titan sind.. egal lassen wir das, wir drehen uns im Kreis.
Das hast Du falsch in Erinnerung. Die hätten sich dann ein schönes Ei damit gelegt, mit der Erstdemonstration der Elevator Demo, die auf einem geradezu irrwitzig dimensionierten Rechencluster lief:
https://arstechnica.com/gaming/2018...just-how-great-real-time-raytracing-can-look/

Zudem wurde darauf hingewiesen, dass die TITANV die erste Karte sein würde, die RT Kompatibel sei, also den RT Prozess durch seine Rechenwerke beschleunigen kann.

Drittens hat NVIDIA mit seinem compatibility Fallback Treiber ja kurzzeitig DXR Kompatibilität für GTX GPUs zu testzwecken bereitgestellt, damit man sich einen Eindruck von der Performance (auch für die Entwickler) machen konnte.

->NVIDIA hat niemals die Notwendigkeit der RT Cores herausgestellt- Im Gegenteil.

Klar, ist richtig. Wobei Du aber außer acht lässt, dass die hohe Shader-Auslastung prinzipiell bei allen Spielen stattfindet, welche sich an der Rasterizing-Grenze befinden. AC: Origins / Odyseee, BFV, Anno, ggf Metro usw usf. Was im Umkehrschluss eigentlich doch wieder bedeutet: Hardware ist doch noch etwas zu schwachbrüstig.

Alle weiteren Spiele, könnten theoretisch erstmal optisch an die Raster-Grenze gebracht werden, bevor man mit RT anfängt. Meine Meinung..
RT hält einzug, weil wir an der Grenze des für Rasterisierung sinnvoll machbaren sind. Und irgendwann ist es eben durchaus sinnvoll dann auf eine Technik umzuschwenken, die wieder viel Luft für Verbesserungen nach oben schafft.

Und da die schon vorhandenen RTX Karten diesem Ziel mit jeder Optimierung sprunghaft näher kommt (qualitativ/performancetechnisch), ist es der richtige Weg und die richtige Zeit dafür.

LG
zero
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: HardRockDude und Fraggball
wayne RT, guckt euch das Spiel an ein Traum, sowas muss man day 1 spielen
 
Kacha schrieb:
Nvidia hat Raytracing hervorgehoben und die Leute gingen davon aus, dass das extra ist. Es wurde eine Erwartungshaltung geschuert.

Kacha schrieb:
Moeglicherweise kam DLSS nur dazu um den Verlust auszugleichen.

Also ich habe das schon in der Veranstaltung mit J.Huang so verstanden dass DLSS dazu da ist den zu erwartenden Performanceverlust auszugleichen. War das nicht von anfang an klar?
Ich hatte nie eine andere Erwartung.

DarkerThanBlack schrieb:
Wenn unter den Bilder nicht stehen würde ob RTX on oder off ist, so würde ich es nicht bemerken...

Ich glaube auch nicht dass der Sinn der Implementation ist dir einen Effekt so ins Auge zu drücken dass du gar nicht anders kannst als ihn zu bemerken. Es geht wohl eher um subtilere Dinge.
 
Zuletzt bearbeitet:
Zurück
Oben