• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

Test Metro Exodus im Test: Beeindruckende Grafik inklusive Raytracing und DLSS

@ZeroZerp lass gut sein! die wollen das nicht verstehen und es ist viel zu hip hier im forum rtx schlechtzumachen.
mal ist die performance mies, dann der look nicht realistisch dann was weiss ich was.
von licht und schatten als stilmittel haben die leute wohl noch nie was gehört und einfach zuzugeben das die global illumination durch rtx deutlich besser aussieht und überlegen ist wäre niemals eine option!
da redet man sich lieber techniken schön die seit jahren ne sackgasse sind und mit massivem aufwand für entwickler verbuden sind wenn sie einigermaßen ordentlich aussehen sollen.
vielleicht haben die auch einfach zuviele schlecht geleuchtete zdf filme geguckt und denken tatsächlich das es besser aussieht wenn alles hell is!:D
 
  • Gefällt mir
Reaktionen: Papoose, Mumusud und HardRockDude
vorher hat man sehr gute Beleuchtungen und Atmosphere mit HBAO+ hingekriegt was für mich immer mehr als zufriedenstellend ausgesehen hat. Jetzt braucht man dafür superduber Ultra RTX Schlag mich tot Effekte und schweineteure Grafikkarten um in den Genuss zu kommen. Mit dem Gaming von AAA Titeln hats sichs für mich bald langsam ausgespielt..
 
  • Gefällt mir
Reaktionen: Baal Netbeck
werde ich mit einer rtx 2070 4k auf 60 fps schaffen? welches grafikpreset wird reichen? hoffe auf mittel?

raytracing brauch ich nicht.
 
Zuletzt bearbeitet:
@Fraggball

RTX ist super, keine Frage. Wenn man aber davon spricht, eine Hardware integrierte Lösung gefunden zu haben, dann geht man eigentlich nicht von 65% Leistungsverlust zwischen Off und Ultra aus.

1550137763923.png



Das klingt dann mehr nach dem immer lauter werdenden Vorwurf, dass die zusätzlichen RTX Einheiten, nur etwas mehr als leicht spezialisierte Shader sind. Und umso mehr Leistungseinbrüche in den Test zu Tage kommen und umso mehr sich Titan X (ohne RTX Kerne) und RTX Karten (mit RTX-Kernen) unter dem Einsatz von RT bzgl ihres Leistungsverlustes sehr ähnlich verhalten, umso lauter werden die Kritiken.

Das ist auch normal und richtig so. Da eben NVIDIA die RTX Karten, als DIE Lösung für RT beworben hat.

Zu sagen, dass RT schlechter aussieht oder grafisch nicht viel ändern würde, ist natürlich auch Unsinn.
 
  • Gefällt mir
Reaktionen: psychotoxic und Baal Netbeck
Botcruscher schrieb:
Farbe und Geometrie werden für die Intensität schlicht nicht erfasst. In dem Video mit dem Zug ist das noch viel krasser zu sehen. Schnee hat eine ganz andere Intensität als Schnee mit über 50% Vegetation.
Kurz: Indirekte Lichtquellen werden nicht berechnet. sieh dir das Gitter doch an. Das passt überhaupt nicht in die Szene. Entweder ist es deutlich zu hell oder die gesamte Lichtquelle fehlt dann im Raum dahinter und vor allem an der Decke.

Ehm... Doch werden sie. Gibt ein schönes Metro-Vergleichsvideo inkl. Audiokommentar in dem beispielsweise das Licht, das durchs Fenster kommt an die Decke reflektiert und die Szene somit auch diffus erhellt.
 
Sun_set_1 schrieb:
@Fraggball

RTX ist super, keine Frage. Wenn man aber davon spricht, eine Hardware integrierte Lösung gefunden zu haben, dann geht man eigentlich nicht von 65% Leistungsverlust zwischen Off und Ultra aus.

Anhang anzeigen 752834


Das klingt dann mehr nach dem immer lauter werdenden Vorwurf, dass die zusätzlichen RTX Einheiten, nur etwas mehr als leicht spezialisierte Shader sind. Und umso mehr Leistungseinbrüche in den Test zu Tage kommen und umso mehr sich Titan X (ohne RTX Kerne) und RTX Karten (mit RTX-Kernen) gleich unter dem Einsatz von RT bzgl ihres Leistungsverlustes gleich verhalten, umso lauter werden die Kritiken.

Das ist auch normal und richtig so. Da eben NVIDIA RTX Karten, als DIE Lösung für RT beworben hat.

Zu sagen dass RT schlechter aussieht oder grafisch nicht viel ändern würde, ist natürlich auch Unsinn.
klar, leistung kostet es, aber das ist für ein single player spiel im grunde völlig egal und war bei neuen techniken immer so.
desweiteren ist rtx auf ultra in metro ein witz, sieht laut diversen testberichten sowie nvidia selbst kaum anders aus und kostet erheblich mehr leistung als hoch.

und wenn ich mir die bf5 performance inzwischen anschaue bin ich doch recht beeindruckt und ziemlich zufrieden damit.(auch ohne dlss)
 
Wolfgang schrieb:
ComputerBase hat diverse Grafikkarten und Prozessoren im Technik-Test.
Hat noch irgendjemand anderes bei diesem Satz etwas anderes erwartet als RTX2x00 und Vega? Normalerweise gehe ich bei einer derartigen Ankündigung von einem breiter gestreuten Testfeld aus. (Klar, die "Mindestanforderung" GTX670 ist etwas sehr alt, aber GTX10er und 9er-Serie mit wenigstens 1-2 Vertretern und Radeon RX mit 1-2 Vertretern hätte ich bei der Ansage schon erwartet...)
 
  • Gefällt mir
Reaktionen: CHILEChile
ZeroZerp schrieb:
Da widerspricht Dir die Wissenschaft. Du wirst den Blindtest nicht überstehen. Hast Du die Abhandlung über das menschliche Auge/den Sehapparat überhaupt durchgelesen, die ich verlinkt habe? Scheint nicht so.

Somit muss ich Dir leider mitteilen, dass Du einem Placebo- Effekt ausgesetzt bist.

Du wirst keinen Unterschied feststellen, wenn ich zwei Systeme nebeneinanderstelle und bei gesynctem Bild einmal 110FPS und einmal 144FPS laufen lasse und dich dann darauf spielen lasse.

Dein Urteil wird dann der Wahrscheinlichkeit des Ratens gerecht. Also 50/50.

Grüße
Zero

Wo steht das denn? Habe es nicht gefunden. Hast du einen Link zur Studie?
 
  • Gefällt mir
Reaktionen: Baal Netbeck
Sun_set_1 schrieb:
@FraggballRTX ist super, keine Frage. Wenn man aber davon spricht, eine Hardware integrierte Lösung gefunden zu haben, dann geht man eigentlich nicht von 65% Leistungsverlust zwischen Off und Ultra aus.

Ohne die integrierte Lösung hätte man einen Leistungsverlust an die 1000%. Somit sind 65% schon garnicht so schlecht.

Das klingt dann mehr nach dem immer lauter werdenden Vorwurf, dass die zusätzlichen RTX Einheiten, nur etwas mehr als leicht spezialisierte Shader sind.
So kann man das sehen. Nur das "leicht" musst Du streichen. Es sind fixed function Einheiten, die innerhalb der Shaderpipeline eingeschliffen sind.

Und umso mehr Leistungseinbrüche in den Test zu Tage kommen und umso mehr sich Titan X (ohne RTX Kerne) und RTX Karten (mit RTX-Kernen) gleich unter dem Einsatz von RT bzgl ihres Leistungsverlustes gleich verhalten, umso lauter werden die Kritiken.
Es ist ein Technologiewechsel. Beim wechsel von der 2D zur 3D Grafik hat sich niemand beschwert, dass man statt 50 FPS nun mit 0,5 bis 5 FPS leben muss.

Einschränkungen sind bei einer neu eingeführten Technologie eher die Regel als die Ausnahme, gerade wenn die vorhergehende Technologie bis an die Grenzen und über Jahrzehnte währende Optimierungs-/Entwicklungsprozesse hinter sich hat

Beispiel Intels wechsel von einem totoptimierten 14nm Prozess auf 10NM, wo auch erst für die 10nm+ eine (leichte) Leistungssteigerung zu erwarten ist.

Das ist auch normal und richtig so. Da eben NVIDIA RTX Karten, als DIE Lösung für RT beworben hat.
Sie haben die Lösung als den EINSTIEG in die revolutionäre Technik des RT mit HYBRIDEM Ansatz beworben.
Also als ein Schnupperangebot, das die Art des Renderns revolutionieren wird.

Zu sagen dass RT schlechter aussieht oder grafisch nicht viel ändern würde, ist natürlich auch Unsinn.

Wie gesagt- Man stellt hier eine über Jahre bis zum erbrechen optimierte Technik, den ersten Schritten eines Newcomers (mit aber erheblich höherem Potenzial) gegenüber.
Wir haben in noch keinem Spiel das volle Featureset gesehen (also alle Effekte aktiv). So lange das nicht der Fall ist, sind Spekulationen über die Leistungsfähigkeit der neuen Technik sowieso hinfällig.

LG
Zero
 
wal schrieb:
Das Thema RT kriegt mich total.
Ich schaue mir die Bilder an und denke mir.
Was zum Teufel ist das für ein Sch....
Entweder sind meine Augen defekt oder das hat mit der Realität ja mal garnix zu tun.
Ein Raum mit 2 Riesen Fenstern... und alles was nicht direkt angestrahlt wird ist total dunkel.
Ich bin sicher kein Beleuchtungsexperte aber so sieht es in der Realität NIEMALS auch nur annährend aus?
Ich bin total perplex, dass dieses "Feature" die nächste Stufe der 3D Grafik sein soll.
Klar sehen die Bilder stimmungsvoll aus. Aber diese Bilder bekomme ich in der Realität nur, wenn ich mit meiner Handykamera gegen das Licht fotografiere.... scheinbar spielt man in Zukunft nurnoch Charactere die die Welt durchs Handydisplay verfolgen.
Unglaublich
Wenn du ein Foto machst von dem raum, sieht das wahrscheinlich am Ende schon so aus. Wenn du auf die dunklen stellen im Raum belichtest, sind die Fenster überstrahlt und alles blendet. Wenn du auf die Fesnter belichtest, sind die Fenster normal hell und der Rest ist recht dunkel. Aber so funktioniert halt das Auge/Gehirn des Menschen nicht.

Das stört mich auch ziemlich in vielen Spielen/Grafikengines. Ich will das Spiel gut spielen können und nicht im dunkeln rumtappen und mich mit blendender Sonne und Lens Flares (sieht die jemand mit blossem Auge im Real Life?) rumschlagen müssen. Aber jedem das seine...
 
  • Gefällt mir
Reaktionen: Baal Netbeck
NMir schrieb:
Wo steht das denn? Habe es nicht gefunden. Hast du einen Link zur Studie?
Einfach den Thread verfolgen:
https://www.computerbase.de/forum/t...ive-raytracing-und-dlss.1855419/post-22303087

5.4.4 Bewegungsanalyse

In der Netzhaut findet auch eine Analyse von Be-
wegungsprozessen statt. Aus der unterschiedlichen
Ankunftszeit von Signalen benachbarter Neuronen
werden Bewegungsrichtungen extrahiert. Die zeitli-
che Auflösung der Retina beträgt bei guten Beleuch-
tungsverhältnissen etwa 60 Lichtreize pro Sekunde,
bei schwachem Licht etwa 20. In der Peripherie der
Retina gibt es spezielle Bewegungssensoren, welche
auch die 100 Hz einer Leuchtstofflampe noch als
Flimmern erkennen können. Die Verarbeitung dieser
Informationen zu einer Bewegungswahrnehmung er-
folgt jedoch im Gehirn.
Die Analyse von Bewegungsprozessen kann auch
dafür verwendet werden, um Bewegungsunschär-
fe zu vermeiden. Die relevante Integrationszeit der
Photorezeptoren beträgt etwa 1/50 - 1/10 Sekunde.
Separate Bilder werden bei der Wahrnehmung zu
einer einheitlichen Bewegung verschmolzen (Film).
Man bezeichnet dies als raum-zeitliche Interpolati-
on.

LG
Zero
 
Zuletzt bearbeitet:
Von dem so toll beworbenen DLLs ist nur noch 64Fach Kantenflipern und 64 Fach TAA übrig geblieben.
Ich hau mich weg was soll der scheiss.
Mehr Performance ist ja klasse aber nicht bei dem üblen Qualitäts Verlust.
 
Gibt es eigentlich schon Tests mit DLSS und dem neuen Treiber?
 
Riesenlob an @ZeroZerp für seine Ausdauer bei den Versuchen, Klarheit zu schaffen.

Zur Zeit ist RT einfach ein Riesenproblem. Je mehr ich diese Threads lese, desto mehr regt mich auf, dass NVidia das bewerben musste. Denn die im Oktober groß angekündigte Neuerung ist einfach nichts Halbes und nichts Ganzes, insgesamt leider noch ein Murks! Und man merkt es an den - ahnungslosen, aber auch nachvollziehbar kritischen - Reaktionen der Benutzer.

RT ist die physikalisch-reale Simulation von Licht, mit Biegung und Beugung und Reflektionen und Transmissionen. Man braucht sich nur mal eine echte Demo davon angucken, um sich sofort davon überzeugen zu lassen, dass dies der logische und konsequente nächste Schritt in der Computergrafikwelt hin zum Photorealismus ist.

Dennoch kann nachträglich im Post-Processing das ganze Bild in Kontrast, Helligkeit, Farbtiefe etc. so bearbeitet werden, dass es einer (erzwungenen) Stimmung entspricht (denken wir z.B. mal an Looney Tunes und Fallout.). Das scheinen einige noch zusätzlich falsch zu verstehen. Dass hier so schlecht davon geredet wird, hat daher zwei mögliche Gründe:
  1. Die ganzen Gamer haben noch nie spezielle Lichtsituationen im Reallife gesehen und bewerten es daher mit ihrer Lebenserfahrung durch Computerspiele :D
  2. Rehtressing ist zur Zeit nicht mal für das halbe Bild verantwortlich und vermischt sich daher zu krass mit anderen Rendertechniken, wodurch es sprichwörtlich ein schlechtes Bild abwirft. Im Rückblick hat NVidia mMn mit zu wenig Leistung zu schnell damit angeben wollen. Andererseits ist es jetzt nun mal prinzipiell da und daher ist die Hoffnung, dass damit auch ein Bestreben einhergeht, in der kommenden nahen Zeit deutlich mehr Energie und Leistung dort hineinzustecken, um RT-Spiele zu dem zu machen, was sie sein sollen: Der ultimative Grafikkick ;)
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Sun-Berg, .Sentinel. und Fraggball
forbeatn schrieb:
werde ich mit einer rtx 2070 4k auf 60 fps schaffen? welches grafikpreset wird reichen? hoffe auf mittel?

raytracing brauch ich nicht.
*push :)
 
joel schrieb:
Ich finde es skandlös das man den Test nur für Grafikkarten jenseits der 350.-Euro Klasse gemacht hat.
Bedeutet das das der Mainstream dieses Spiel leider nicht spielen kann?
Ich finde es skandalös, dass die Hälfte der Menschheit immer nur Überschriften liest und dann direkt Beiträge verfasst.

Heute hat sich die Redaktion mit den generellen Grafikoptionen, DirectX 12, Raytracing und DLSS in Metro Exodus beschäftigt – das Spiel bietet technisch sehr viel. Es sind deshalb noch einige weitere Testreihen geplant. Mit einem morgigen Update kommen die gewohnten Grafikkarten- und Prozessor-Benchmarks hinzu.
 
  • Gefällt mir
Reaktionen: GHad, v_ossi, DonConto und 2 andere
Moment, war es nicht im Winter bei den Tests so dass eine 2070 auf dem Niveau einer 1080 gearbeitet hat?
Und die Vega 64 langsamer als beide war?
Jetzt also wieder ein Spiel welches nVidia lediglich auf die aktuelle Generation optimiert, und schwupp, ist die AMD-Karte von damals die bessere Wahl.
Ewig grüßt das Murmeltier...

So wenig wie Raytracing bringt, würde ich auf einer Beschleunigerkarte keine solchen Leistungseinbußen erwarten. Man kauft sich eine Raytracing-Karte und am Ende heißt es doch nur "halbiere Deine Leistung", so als ob es emuliert werden müsste und NICHT auf zusätzlichen Raytracing-Spezialshadern läuft.
 
@ZeroZerp

Hast du, bevor du mich zitiert hast überhaupt die bisherigen Kommentare gelesen und was die Leute hier für überschwängliche Kommentare abgeben oder für zu harte Kritik äußern? Auf diese bezog ich mich.

Der größte Teil der Foren User sieht es anscheinend wie ich. Es ist anders, teilweise hübscher, teilweise nicht. Besser? Keinesfalls, vor allem in anbetracht der erhöten Anforderungen an die GPU.

Sich dann alles zurecht zu biegen, "vielleicht wollen die es nicht realistisch"... Das ist nicht objektiv, sondern ein Wunschdenken.
 
  • Gefällt mir
Reaktionen: Baal Netbeck
Fraggball schrieb:
klar, leistung kostet es, aber das ist für ein single player spiel im grunde völlig egal und war bei neuen techniken immer so.

ZeroZerp schrieb:
Ohne die integrierte Lösung hätte man einen Leistungsverlust an die 1000%. Somit sind 65% schon garnicht so schlecht.

Quelle? Die 1000% bezogen sich mal auf 16 fachen Beschuss wenn ich mich nicht irre? Ich gehe davon aus das hier mit 2x oder 4x gerechnet wird?

Weiterhin nehme ich NVIDIA einfach beim Wort,

Titan keine RTX Cores
RTX Karten, mit RTX Kernen.

Somit kann es nicht sein, dass zwischen Titan X und RTX gerade mal ~15% Leistungsunterschied liegen. Die Geforce RTX verliert ~60-65%, dann wird die TitanX an die 75-80% verlieren.

Gemäß der 1000% Theorie müsste die Titan X aber bei 1 fps liegen. Liegt aber gerade mal 10-20% Differenz, je nach Situation, dahinter.

Und wird die Titan nicht in 14nm und die RTX in 12nm gefertigt? Nimmt man mal 5% Vorsprung durch die Fertigung weg, verbleiben gerade mal 10 - 15% Differenz zwischen einer Karte mit guten Compute Einheiten und einer Karte mit (lt NVIDIA) echten RTX Kernen.

Sorry, aber das ist zu wenig. Als CUDA eingeführt wurde lag der Faktor irgendwo zwischen 5 und 8-fachem Vorsprung. Hier liegt er bei 0,15 fach? Das ist nicht, was ich unter einer neuen Hardware-Lösung verstehe.

Eigentlich gibt es nur zwei Begründungen:

1. Die TitanX hat mit ihren sehr guten Compute-Einheiten bereits die proklamierte "hardware-RTX"-Lösung.

2. Die RTX Kerne sind nichts weiter als die nächste Generation der sowieso schon sehr guten Compute-Einheiten seitens NVIDIA. Der Name bzw Slogan "Echte RTX-Kerne" ist somit schlicht der Marketing-Consumer-Begriff für Einheiten, die sich bisher auf professionelle Karten fanden.

So kann man das sehen. Nur das "leicht" musst Du streichen. Es sind fixed function Einheiten, die innerhalb der Shaderpipeline eingeschliffen sind.

Siehe oben..

Es ist ein Technologiewechsel. Beim wechsel von der 2D zur 3D Grafik hat sich niemand beschwert, dass man statt 50 FPS nun mit 0,5 bis 5 FPS leben muss.

Bin ich ganz bei dir. Das hat aber mit dem Mehr an Berechnungen an sich zu tun. Und nichts damit wie leistungsfähig eine sogenannte "hardware-basierte" Lösung sein sollte.

Natürlich ist es ein Leistungsverlust durch RT völlig normal. Es geht aber darum, dass 65% zu viel sind. Gerade wenn man proklamiert eine Hardwarebasierte Lösung gefunden zu haben.

Ob 10%+ im Vergleich zu einer Karte ohne diese RTX-Kerne eine wirkliche Hardware basierte Lösung sind, oder bloß weiterentwickelte Compute-Einheiten, deren Leistungssprung im normalen Turnus liegt, mag jeder für sich selbst beurteilen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: psychotoxic, russianinvasion, Baal Netbeck und eine weitere Person
RYZ3N schrieb:
Bestes Beispiel: Resident Evil 2

Stimming, stimmungsvoll und richtig gut, ohne RT. Mir persönlich hätte RT in RE2 rein gar nichts gebracht.
Mir sind in der Polizei Lobby direkt die Screen Space reflection artefakte aufgefallen wenn Leon mit seinem Arm den Boden verdeckt. Da hätte sich Raytracing gelohnt
 
Zurück
Oben