• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

Test Metro Exodus im Test: Beeindruckende Grafik inklusive Raytracing und DLSS

Was soll daran jetzt beeindruckend sein? Gleiche oder ähnliche Ergebnisse erzielt man optisch mit Ressourcenschonenden ENB/Reshade Presets in anderen Spielen. Bisher ist RTX ein Marketing Gag.
Interessanter dürfte da in Zukunft DLSS werden.
 
  • Gefällt mir
Reaktionen: Schranz0815
Sun_set_1 schrieb:
Ich habe kein Problem. Fortschritt ist super. Ich sehe es aber als problematisch an, wenn NVIDIA suggerieren möchte, dass RTX Cores eine vollkommene Revolution wären. Und ich, mir, in meiner persönlichen Vorstellung, von Raytracing Cores eine mindest fünffache Leistung gegenüber bestehenden Compute-Einheiten aus dem Profibereich vorstelle. Oder sogar erwarte.

Die RT- Cores leisten schon das 10- Fache nur leider hat man da die Rechnung ohne den Wirt gemacht.
Trifft nämlich ein RT Strahl auf ein Objekt oder auch nicht, muss ja irgendwas passieren.
Und genau das läuft im Hybriden Ansatz wieder über die Shader.
Es gibt einen Hit- Shader, der dann entscheidet, was weiter zu tun ist oder einen Miss- Shader, wo ebenso dann abgearbeitet werden muss, was weiter folgt.

Ist die Engine schon am Grenzbereich der Zeitfenster für Shader- Operationen, dann besteht schlichtweg keine Zeit mehr, die Auswertungen+weiteren Schritte zeitnah abzuarbeiten. Es wird also langsamer.

Dieses Verhältnis könnte man jedoch Ändern, wenn man ein Spiel von Anfang an mit Raytracing im Rücken programmieren würde.

Villeicht ist es auch einfach eine Frage der persönlichen Erwartungshaltung die geweckt worden ist.
Für dich und @ZeroZerp mag diese ja genau getroffen sein. Meine persönlich geweckte Erwartung nach Präsentation und Preisen, war deutlich höher.
Das ist sogar zu 100% so. Da ich mich schon seit Ewigkeiten für RT und die unterschiedlichen Ansätze interessiere, habe ich eigentlich noch ein schlechteres Ergebnis für die erste Generation erwartet, als das was uns hier präsentiert wird.

Die Preisdiskussion steht auf einem andern Blatt und mindert in keiner Weise den technischen Fortschritt, den wir hier geboten bekommen.

LG
Zero
 
Zuletzt bearbeitet:
ZeroZerp schrieb:
Das ist sogar zu 100% so. Da ich mich schon seit Ewigkeiten für RT und die unterschiedlichen Ansätze interessiere, habe ich eigentlich noch ein schlechteres Ergebnis für die erste generation erwartet, als das was uns hier präsentiert wurde.

Die Preisdiskussion steht auf einem andern Blatt und mindert in keiner Weise den technischen Fortschritt, den wir hier geboten bekommen.
ich bin auch extrem positiv überrascht von rtx bisher.
es hat seine schwächen (mangelnde menge an titeln, preis) aber das es bspw. in bf5 in 1440p mit 80-100 fps ohne dlss auf meiner 2080 läuft ist mehr als positiv wenn man bedenkt das zu beginn eine 1080p 60fps performance in den raum gestellt wurde.
genauso bei metro, 1440p playable mit einer 2080 und ich finde es sieht deutlcih besser aus. freue mich aber auch über gut geleuchtete filme und ähnliches. drauf lege ich viel wert! (liegt wohl an meinem vorigen beruf)
mehr habe ich persönlich nicht erwartet und bin damit sehr zufrieden!
 
Replay86 schrieb:
Was soll daran jetzt beeindruckend sein? Gleiche oder ähnliche Ergebnisse erzielt man optisch mit Ressourcenschonenden ENB/Reshade Presets in anderen Spielen. Bisher ist RTX ein Marketing Gag.
Interessanter dürfte da in Zukunft DLSS werden.
ENB arbeitet mit stark vereinfachten Raytracing- Verfahren im Screenspace und den Bildpuffern (DX Hook). Somit lautet Deine Aussage übersetzt: Was soll jetzt so beeindruckend an Raytracing sein? Das schlechtere und Detailärmere und nur auf den Screenspace angewandte Raytracing ist ja viel Ressourcenschonender.

Das ist jetzt keine Neuigkeit, dass wenn man die Qualität eines Effekts stark runterschraubt, dieser dann schneller läuft.....

Grüße
Zero
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Thane, HardRockDude und kisser
DarkerThanBlack schrieb:
Ganz ehrlich? Wenn unter den Bilder nicht stehen würde ob RTX on oder off ist, so würde ich es nicht bemerken...

pscht pscht pscccchhhhhtttt ! Sowas darfst du nicht sagen !
 
  • Gefällt mir
Reaktionen: Inxession, Schranz0815 und knoxxi
Artikel-Update: ComputerBase hat den Artikel um Testergebnisse zahlreicher Grafikkarten in verschiedenen Auflösungen sowie CPU-Benchmarks mit Titan RTX ergänzt. Alle neuen Messungen wurden mit den offiziellen Treibern für das Spiel durchgeführt. Die neuen Abschnitte sind mit dem Zusatz „(Update)“ markiert worden.
 
  • Gefällt mir
Reaktionen: Revan1710, Fraggball und W0lfenstein
Thx @Wolfgang

Yep, bin mit meiner ti gut aufgestellt. Mehr wollt i net wissen :D
 
ich kapier diese DX12 vs DX11 CPU Benches noch nicht ganz. Wo genau is da nun das "vs." ?
 
  • Gefällt mir
Reaktionen: HageBen, r4yn3, Freiheraus und eine weitere Person
@ZeroZerp Jetzt übertreib mal nicht. RTX equals Realität... na mahlzeit.
Es ist bisher die beste Simulation von Licht in Echtzeit, und selbst da kann man diskutieren welche version von raytracing genauer und oder sinnvoller ist, und wie "realistisch" RTX im speziellen ist.
Alleine die Notwendigkeit des Entrauschens ist beweisend dafür dass die Realität anders aussieht.
Man kann ja raytracing gut finden, aber am Teppich sollt man schon noch bleiben.
 
  • Gefällt mir
Reaktionen: Schranz0815
Immer diese verfrühten Preview-Tests...die offizielle Veröffentlichung ist doch erst in einem Jahr.... :D :D
 
  • Gefällt mir
Reaktionen: iceshield
Da zeigt sich wieder, welch ein mieses P/L Verhältnis die teuren Oberklasse CPUs in Spielen haben.

Gerade mal 50% mehr FPS in FullHD packt der 8700K gegenüber einem 1600X aus. Und das bei weit mehr als 100% Aufpreis.
 
RB6istGut schrieb:
@ZeroZerp Jetzt übertreib mal nicht. RTX equals Realität... na mahlzeit.
Nachdem es hier immer wieder wiederholt wird: Das hab ich hier nie geschrieben. Ansonsten bitte zitieren oder so etwas nicht mehr behaupten.

Es ist bisher die beste Simulation von Licht in Echtzeit, und selbst da kann man diskutieren welche version von raytracing genauer und oder sinnvoller ist, und wie "realistisch" RTX im speziellen ist.
Sehe ich auch so- Wobei ab einem gewissen Bereich von Bruteforce kein sichtbarer Qualitätsgewinn mehr vorhanden ist. RTX ist ein Hybrid Ansatz und deswegen noch weit entfernt vom full scene raytracing.

Alleine die Notwendigkeit des Entrauschens ist beweisend dafür dass die Realität anders aussieht.
Man kann ja raytracing gut finden, aber am Teppich sollt man schon noch bleiben.
Bei einem mit ausreichender Abtastung durch RT generierten Bild brauchst Du kein Entrauschen mehr.

LG
Zero
 
@Roche Das entscheidet aber für manche zwischen spielbar und eher weniger spielbar. Sollte irgendwann noch ein 3D Patch (oder eher Mod kommen), hätte ich mit einem 1600x im worst case nur noch 25fps (Da die Framerate hier halbiert wird). Zugegeben betrifft das nicht mal 1% der Spieler, aber Drops auf unter 60fps sind trotzdem nicht so toll.
Und das obwohl ich selber nen Ryzen 1600er im Zweitsystem habe.

Interessant, dass beim neuen Test der aktuelle Treiber genommen wurde, könnte man vllt. DLSS nochmal testen?
Kann hier jemand zu DLSS mit dem neuen Treiber etwas sagen? Hat sich irgendwas verbessert?
 
  • Gefällt mir
Reaktionen: DeadEternity
cypeak schrieb:
geht mir sehr ähnlich.
zum einen ist meine liste an "todo" games erschreckend lang und zum anderen ist das lesen dieses artikels der zeitpunkt an dem man erkennt das 8700k + gtx1070 in wqhd wohl nimmer reicht...:rolleyes:

nur ist die jetztige graka generation nichts was ich noch kaufen würde - ich "rieche" das 2019 ein zähes "wartejahr" wird...

Du glücklicher, ich finde, dass 8700K + GTX 1070 ist eine wirklich gute Kombination ist. Besonders im Vergleich zu meinem 2500k + 290X + 1333mhz DDR3 RAM. Und das auch bei WQHD 1440p 144hz.

Das gute ist, dass wenn man sich gut mit Grafikeinstellungen in Spielen auskennt kann man sehr viel rausholen. Ich habe relativ viele moderne Grafikintensive Spiele auf 60fps gespielt in 1440p wie z.b. Resident Evil 2, Shadow of the Tomb Raider, Witcher 3 und vielen anderen.
Häufig sind die Unterschiede zwischen Medium und Ultra settings quasi kaum verhanden.

Aber auch ich merke, dass ich teilweise gerne höhere Settings hätte besonders wenn es sich um Schatten, AO oder paar andere Dinge geht. Ich bin selber überrascht wie lange meine Hardware gehalten hat wenn man bedenkt, dass ich diesen PC vor genau 7 Jahren gekauft hatte und dann in 2014 eine GTX 680 mit einer gebrauchten R9 290X ausgetauscht habe. Zu der Zeit hatte ich 1080p und dachte ich müsste in 2015/2016 wieder upgraden, aber irgendwie wurden zu genau der Zeit die Preise immer lächerlicher und alles war zu teuer und dann kam die Cryptoscheiße und RAM war teuer und SSDs waren teuer.

Gott sei Dank sieht es jetzt wieder besser aus mit RAM und SSD Preisen und AMD scheint im CPU Segment gut zugelegt zu haben.

Jetzt beginngt quasi die "Heiße-Phase" des Wartens für mich. 7nm GPUs, neuer CPU (vielleicht Zen2) und natürlich Information bezüglich Playstation 5. Je nachdem wie es kommt könnte es sein, dass ich quasi direkt 4x bei AMD zuschlage mit Playstation 5 (hat AMD CPU/GPU) und PC. Falls Nvidia natürlich starke 7nm GPUs zu fairen Preisen raushaut dann hätte ich auch kein Problem damit eine solide Nvidia Grafikkarte zu kaufen.

Falls jemand von Nvidia das hier liest und es direkt von einem potentiellen Customer hören möchte :

450-500€ GPU Q3-Q4 7nm GPU mit guter Performance und keinem unnötigen Schnößel. RTX 2070 ist mir nicht gut genug.
 
  • Gefällt mir
Reaktionen: Schranz0815
Roche schrieb:
Da zeigt sich wieder, welch ein mieses P/L Verhältnis die teuren Oberklasse CPUs in Spielen haben.

Gerade mal 50% mehr FPS in FullHD packt der 8700K gegenüber einem 1600X aus. Und das bei weit mehr als 100% Aufpreis.

Naja, kann man so sehen, kann man aber auch so sehen : Es ist teilweise ein gravierender Unterschied ob ich 60 oder 100FPS bekomme. Wenn sich einer das leisten will, bitte warum nicht. Nicht umsonst werden die Intel CPUs als "beste CPUs für reines Gaming" bezeichnet.

Oder man könnte es auch so sehen, dass die Engine eher für Intel CPUs optimiert wurde.
 
Krautmaster schrieb:
HBAO+ ist gut keine Frage, kostet aber auch Leistung. Und man wird schneller an eine optische "Wall" fahren als mit RT, bei zeitgleich höherem Implementierungsaufwand und vermutlich eingeschränkter Dynamik also wenn sich die Szene ändert. Das sollte bei RT eigentlich recht gut gehen.

sicherlich magst du recht haben dass man mit HBAO schneller an eine optische Wand fährt und RTX die Zukunft ist, ich bin ganz und garnicht gegen technische Fortschritte, nur leider hat man das früher "umsonst" mit dem Einzug fortgeschrittener Grafikkarten erhalten und mit Updates neuer DX Versionen. Das habe ich eigentlich mit meinem Posting gemeint.
Heute muss ich dafür bei Nvidia bezahlen, und die Preise steigen langsam ins unermessliche. Wenn man sich die Preise der Top Grakas anschaut wird einem schier schlecht. Ehrlich gesagt, mir fehlt es mir nicht an Geld, aber die Bereitschaft 1200Euro für eine Grafikkarte auf den Tisch zu legen ist, für das was man heute dafür bekommt, schlicht und einfach nicht mehr da. Ich fand schon zur Einführung der 1080ti 800 mehr als genug. Mitlerweile isses so dass ich mir meine Hardware gebraucht in der Bucht oder in Ricardo schiesse, wobei auch da die Preise mitlerweile dermassen angezogen habe und nichts mehr mit grösseren Verlusten vertickt wird, da die nachfrage ja anscheinend da ist und es haufenweise Leute gibt, die diese Hochpreisstrategie mitfahren.
Schade dass da AMD mitlerweile auch mit aufspringt.
 
  • Gefällt mir
Reaktionen: .Sentinel.
ZeroZerp schrieb:
Nein- Es ist die Realität. Du unterschlägst hier, dass ich nicht derjenige bin, der von "Realismus" der Beleuchtung spricht, sondern immer von der physikalischen Korrektheit.
Und physikalisch korrektes licht ist Abseits das Artdesigns IMMER die bessere Wahl.

Grüße
Zero
Vielleicht hab ich da was falsch verstanden...
 
  • Gefällt mir
Reaktionen: .Sentinel.
werde es mir dann nächstes jahr bei gog holen. mag kein DRM gegängele. Das gleiche mit Anno 1800: Denuvo? Nä.

gog beides nobrainer
 
  • Gefällt mir
Reaktionen: DocWindows
Sun_set_1 schrieb:
Niemand weiß genau, was sich hinter Nvidias RTX Core-Begriff verbirgt. Und es steht der Vorwurf im Raum, dass es sich hierbei bloß um erweiterte Compute-Einheiten aus dem Profi-Bereich handelt. Es ist durchaus möglich, dass NVIDIA schlicht einen Cluster aus diesen (Shader/Compute-)Einheiten als RTX Core sieht.

RTX Cores werden sehr wahrscheinlich nur eine Weiterentwicklung von Tensor Cores sein. So wie ich Raytracing verstehe besteht es aus einer riesen Menge Matrix-Multiplikationen. @ZeroZerp korrigier mich wenn ich falsch liege. Tensor Cores sind genau auf das optimiert, da das so das wichtigste im Thema Machine Learning ist.

ZeroZerp schrieb:
Das hat sie indirekt sehr wohl. Es wurde sogar lang und breit ein Fokus darauf gelegt, wie unfassbar Rechenaufwendig der heilige Gral Raytracing sei und dass man es nun durch einen Technologieschub in spielbare FPS Zahlen gehievt hat.


Der Volksmund und die Gerüchte haben zu Anfangs davon gesprochen, dass wir in 1080P nur 30FPS bekommen würden (Failtracing).
Dann schau Dir mal an, wo wir heute stehen...


Die Leute haben den Hype selbst verursacht. Genau wie bei der VegaVII, die jetzt aufgrund der überhöhten Erwartungshaltung zu unrecht abgewatscht wird.


Ernüchternd war es deshalb, weil die Implementation fehlerhaft war und trotz der offiziellen Hinweise von DICE und NVIDIA dahingehend sich niemand daraum geschert hat, die Performance NICHT als durchoptimiertes Optimum zu sehen.

Schau Dir mal an, wie BV5 nach dem letzten RT Update auch ohne DLSS läuft. Da liegen Welten zur Erstveröffentlichung dazwischen.


Die Tensor Cores werden meines Wissens derzeit noch nicht für das RT Denoising genutzt geschweige denn dass sie Raytracen würden.


Im Dreierpack sollte ursprünglich ein Schuh draus werden. RT über fixed Function+Denoising/DLSS/DLSSx2 über die tensor Cores.

Derzeit wird gestückelt, weil die Techniken noch nicht fertig sind.

LG
Zero

Fuer mich, und wohl auch andere, hat es sich anders angehoert. DLSS wurde separat vorgestellt und der Performancegewinn gepriesen. Raytracing wurde als, wie du sagst, heiliger Grahl dargestellt. Man haette es klarer verkaufen koennen, damit es allen klar ist. Allerdings bezweifle ich dann, dass Investoren so gluecklich gewesen waeren.

Fraggball schrieb:
ich bin auch extrem positiv überrascht von rtx bisher.
es hat seine schwächen (mangelnde menge an titeln, preis) aber das es bspw. in bf5 in 1440p mit 80-100 fps ohne dlss auf meiner 2080 läuft ist mehr als positiv wenn man bedenkt das zu beginn eine 1080p 60fps performance in den raum gestellt wurde.
genauso bei metro, 1440p playable mit einer 2080 und ich finde es sieht deutlcih besser aus. freue mich aber auch über gut geleuchtete filme und ähnliches. drauf lege ich viel wert! (liegt wohl an meinem vorigen beruf)
mehr habe ich persönlich nicht erwartet und bin damit sehr zufrieden!

Im Endeffekt werden die FPS gerade durch Reduzierung von RT erreicht, gerade in Battlefield. Oder eben durch DLSS und dadurch moeglicherweise schlechterer Qualitaet. Ein wirklich komplettes RT Rendering ist derzeit einfach nicht machbar. Da muss noch einiges an Hardwarespezialisierung kommen, damit das klappt. Ich hoffe nur, dass wir einen gemeinsamen Standard bekommen werden und nicht Nvidia RT und AMD RT und vielleicht noch Intel RT, da die Technik an sich zukunftsweisend ist.

DocWindows schrieb:
Also ich habe das schon in der Veranstaltung mit J.Huang so verstanden dass DLSS dazu da ist den zu erwartenden Performanceverlust auszugleichen. War das nicht von anfang an klar?
Ich hatte nie eine andere Erwartung.

Es scheinen genug eine andere Erwartung gehabt zu haben, dass Nvidias geplante Verkaufszahlen nicht erreicht wurden.

@ZeroZerp Wenn es nur das warten auf die Shader-Berechnung waere, dann muessten die kleineren Karten doch weitaus schlechter abschneiden? Und genauso sollte, aehnlich wie dem Benchmark den @Thane genannt hat, mehr RT und weniger Shader-Operationen mehr nuetzen. Ich denke aber eher, dass die Verteilung von verschiedenen Hardware-Komponenten nicht optimal ist, oder nicht optimal genutzt wird.

Hat jemand schonmal die T4 fuer RT genutzt? Die sollte doch einen aehnlichen Hardwarestand haben wie die RTX. Ok, sie hat keinen Videoausgang, das macht es problematisch. Das waere aber die beste Moeglichkeit zu schauen ob RT Cores nur Tensor Cores sind oder etwas anderes.
 
@Kacha Wenn die geplanten Verkaufszahlen nicht erreicht wurden, zeigt es doch eher dass die Leute eben genau nicht erwartet haben, dass es RT und DLSS zum Nulltarif gibt. Sonst hätten sie das doch gekauft. Extra-Leistung und Extra-Optik bei 0 Performanceverlust wäre doch ein Nobrainer beim Kauf gewesen. Selbst bei einem etwas höheren Preis.
Die Leute haben schon sehr genau verstanden dass das mit Performanceverlusten einhergeht die mit DLSS aufgefangen werden müssen. Also erstmal vorsichtig sein beim Geld ausgeben.
 
Zurück
Oben