Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
TestShadow of the Tomb Raider: Raytracing sorgt für etwas Feintuning an den Schatten
tl;dr:Shadow of the Tomb Raider unterstützt mit dem neuesten Patch nun Raytracing und DLSS. ComputerBase hat sich beide Turing-Techniken genauer angesehen. Raytracing kümmert sich im Spiel um die Schatten und kostet je nach Szene wenige bis viele FPS. Allerdings hält sich der optische Nutzen in Grenzen.
Danke Wolfgang.
Nach dem man in BF5 im Blindtest schon kaum etwas sah, muss man hier nun wirklich mit der Lupe dran.
Ich finde Raytracing interessant, es ist aber bei weitem nicht das propagierte Über Feature im Sinne des optischen Mehrgewinnes
Evtl. mag RT in Zukunft der Burner sein, stand heute empfinde ich es als absolut zu heiß gekocht
Da "Hoch" ja schon das empfohlene Minimum ist, denke ich mal ist das gerechtfertigt.
Die Frametimes sehen ja noch schlimmer aus.
Die 2060 erscheint mir immer mehr wie ein ganz großer Witz.
6GB, deshalb nicht mal in der Lage Ultra anständig zu verarbeiten.
Das zeigt ja schon wie sinnlos diese Karte ist.
Das ist irgendwie nicht nachvollziehbar. Die Schatten sind mit RTX Ultra äußerst realistisch weich mit den entsprechenden Halbschattenzonen etc. Das sieht merklich natürlicher aus als bei RTX aus.
Das kostet angesichts des Gewinns viel Leistung, dass ist richtig, aber zu sagen aus sähe am besten aus ohne RTX, ist faktisch betrachtet wenig nachvollziehbar.
Hätte mir jemand vor 6 Jahren gesagt, als ich Tomb Raider 2013 für PC auf meiner 499€ GeForce GTX 680 in 1080p mit 60-80fps gespielt habe, dass man in 2019 eine High End Nvidia Grafikkarte für 1200€ braucht um immernoch 1080p komplett zu maxxen in einem neuen Tomb Raider game dann hätte ich diese Person zwangseingewiesen.
Mich würde interessieren wie die RTX 2060 @ Ultra RayTracing sich in 4K schlägt. Schaffen wir da schon die cineastische Framerate Einstelligkeit?
@Mustis
er sagte doch das ER keinen Unterschied sieht, bzw. kaum.
ICH sehe auch kaum Unterschied und das was ich sehe steht in keinem Verhältnis aus Performance Verlust zu optischen Gewinn. Faktisch hast du recht, nur eben gefühlt nicht
JA RT mag physikalisch alles richtig berechnen, dies ist mir in einem Game aber völlig egal, solange die Immersion so gut ist, das geringfügige Abweichungen im Auge des Betrachters noch als korrekt durch gehen
Das kostet angesichts des Gewinns viel Leistung, dass ist richtig, aber zu sagen aus sähe am besten aus ohne RTX, ist faktisch betrachtet wenig nachvollziehbar.
Mag sein das es "realistischer" Aussieht, aber für meinen Geschmack sieht das Bild mit Raytracing aus einfach stimmiger aus. Das ist immer noch Geschmackssache und muss nicht faktisch betrachtet werden. (Ähnlich wie der Musik Geschmack.
Für ein paar weichere Schatten so ein Leistungsverlust?! niemals - und das ginge 100% auch ohne RT Kerne!
Für Fotomodis kann ich mir das alles sehr gut vorstellen, da braucht man ja auch keine >60FPS. - aber dann mit mehr optischen Auswirkungen/Verbesserungen^^.
Ich kann mich noch vage an die ersten AA Geschichten erinnern.
Ja AA hat massig Leistung gefressen, aber der optische Zugewinn sprang einem auch ins Gesicht.
Deutlich weniger Flackern, deutlich weniger Treppen.
Hier haben wir aber ein Feature was ebenfalls massig Leistung frisst, aber optisch inGame kaum bis gar keinen Mehrwert bietet.
Ich spiele mit einen RTX 2080 in UHD und Dank DLSS konnte ich jetzt einige Dinge weiter hochstellen und komme immer noch auf 60FPS. Wobei RTX aus, DLSS an und dafür andere Dinge hochstellen, den "Schönsten" Kompromiss darstellt.
Naja das ist jetzt eine eher zurückhaltende Umsetzung bei TombRäihdah.
Insofern bitte das nicht als Gesamteindruck für RT generell zu heiß mitkochen.
Und ich hoffe sehr, dass das auch so ist, weil ich nach dem zweiten NV Crash die Tage einiges von dem Zeug in mein Depot geschoben habe bei der Gelegenheit des günstigen Einkaufs...
Das komsche ist ja, warum verliert Turing mir aktiviertem Raytracing denn so viel Leistung, wenn es doch auf den dedizierten RT-Kernen passiert und nicht auf der GPU? Wo entsteht da der Flaschenhals, oder produziert das wiederum zusätzliche GPU-Last? Ich dachte genau das war ein Verkaufsargument, dass man quasi ohne Leistungsverlust und zusätzlicher Last auf der GPU echtes Raytracing berechnen kann.
aha, das sieht ja mal ziemlich schlecht aus. zieht natürlich performance ohne ende und sieht dabei noch nichtmal gut aus. unglaublich was für ein riesen fail nvidia mit der rtx serie rausgehauen hat. den größten seit der berühmt berüchtigten geforce fx serie
solangsam tendiere ich mehr zu amd bei gpus als zu nvidia und ich hätte noch vor einem jahr niemals gedacht das ich jemals wieder eine amd in erwägnung ziehe (meine letzte ati graka die ich hatte, ist schon 12 jahre her, war ein einziger haufen müll, besonders der treiber damals. seitdem hab ich mir geschworen niemals wieder ati (amd) zu kaufen bei gpus).
Das komsche ist ja, warum verliert Turing mir aktiviertem Raytracing denn so viel Leistung, wenn es doch auf den dedizierten RT-Kernen passiert und nicht auf der GPU? Wo entsteht da der Flaschenhals, oder produziert das wiederum zusätzliche GPU-Last?
Die RT Cores übernehmen nicht die ganze Berechnung, sondern beschleunigen nur Teile davon. Die Shader bauchst du trotzdem und am Ende muss der beste Kompromiss gefunden werden aus RT und möglichst viel FPS.
Und bevor das übliche Gejaule gleich kommt, ohne RT Cores bräuchte man hierfür erheblich mehr Shader bzw. Rechenleistung. @ZeroZerp kann dir dazu sicher noch genauer etwas sagen, falls er noch Lust hat, solche Themen zu kommentieren