Test Shadow of the Tomb Raider: Raytracing sorgt für etwas Feintuning an den Schatten

Tom Raider zeigt mal wieder, dass es einfach nichts bringt, alte Technik durch neue zu ersetzen.

Erst wenn durch das Gameplay oder Leveldesign die Raytracing-Features forciert werden, wird man den Mehrwert der Technik ekennen.
 
Revan1710 schrieb:
Das ist so als hätte ich mir einer der ersten und günstigeren 8K-Fernseher gekauft, will dann einen der wenigen 8K-Filme schauen und stelle dann fest, dass der TV den Film garnicht vernünftig abspielen kann, sondern nur die richtig teuren 8K-Fernseher ein flüssiges Bild abliefern.
Stimmt- Aber es erwartet ja auch keiner mit einem "billig 8K" Fernsehen die Bildqualität eines High- End Fernsehers, um beim Beispiel zu bleiben.


Mugi schrieb:
Tom Raider zeigt mal wieder, dass es einfach nichts bringt, alte Technik durch neue zu ersetzen.

Erst wenn durch das Gameplay oder Leveldesign die Raytracing-Features forciert werden, wird man den Mehrwert der Technik ekennen.
Es ist weit davon entfernt "nichts" zu bringen.
Hier sieht man sehr schön, dass auch ein großer Teil der Schatteninhalte dadurch verändert werden (vergleiche da mal die letzten drei Bilderpärchen):
https://www.computerbase.de/forum/t...er-nvidia-turing-ist-da.1862198/post-22445139

Es ist halt ein Einzeleffekt.
Man muss dazu auch fairer Weise sagen, dass dieser je nach Szene aber eben auch nicht annähernd so subtil und von "ich sehe keinen Unterschied" geprägt ist, wie hier oftmals getan wird.

Um das Beispiel eines Vorredners aufzugreifen.
Diejenigen, die mit Zoom und Adlerauge bei Einsatz von DLSS plötzlich feinste Strukturen vermissen und somit ihr gesamtes Spielerlebnis zerstört sehen, nehmen es aber stillschwegend hin, dass deren Schattenberechnung, die um Meilen höhere Auswirkungen auf das Bild haben kann (siehe meine Beispiele), mit deutlich schlechterer Qualität durchgeführt wird.

Das geht sogar so weit, dass einige behaupten keinen Unterschied erkennen zu können.
Und diese Art der Voreingenommenheit (an den Augen kanns ja aufgrund der Sehfähigkeit in Sachen DLSS nicht liegen) hinterlässt halt doch ein gewisses "Geschmäckle", wo man an den Beweggründen der Aussage dann doch zweifeln könnte.

LG
Zero
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: RushSyks, kisser und Fraggball
ZeroZerp schrieb:
Stimmt- Aber es erwartet ja auch keiner mit einem "billig 8K" Fernsehen die Bildqualität eines High- End Fernsehers, um beim Beispiel zu bleiben.
Das ist richtig, aber mir geht es beim dem 8K-Fernseher ja auch in erster Linie darum, auch 8K darzustellen. Wenn ich damit aber nur eine Vorstufe (also irgendwie ~6K) flüssig abspielen kann oder aber die Bildqualität von 4K dafür deutlich reduzieren muss, dann erfüllt das Produkt in meinen Augen einfach die Anforderungen nicht.
Dann kaufe ich mir entweder einen High-End 8K-TV, der das auch wirklich kann oder bleibe bei 4K und warte auf die nächste Generation.
 
  • Gefällt mir
Reaktionen: .Sentinel.
@Revan1710
Exakt- Es ist unbestritten, dass RT derzeit ein teurer Spaß ist. Auch ist unbestritten, dass sich die RT Einsteigerkarten damit schwer tun.
Nur ist das für mich jetzt nicht sonderlich erwähnenswert, weil das wie gesagt für die Einstiegsklassen einer neuen Technik schon seit ich denken kann, immer so war.
Ich habe mich, auch wenn ichs mir nicht leisten konnte immer über das Erscheinen neuer Technik gefreut, weil das ein Vorgeschmack auf das war, was ich mir dann mal in ein par Jährchen zulegen kann.

Alles eine Frage des eigenen Anspruchs. Wie gesagt- Ich würde mich sogar mit 24 FPS zufriedengeben, hätte ich Spiele in der Grafikqualität der von mir weiter vorne verlinkten Unreal Engine 4 RT Demos.

Andere würden lieber ihren Computer anzünden als ein Spiel mit unter 100FPS spielen zu müssen.

Beides ist extrem aber legitim ;)

LG
Zero
Ergänzung ()

MK one schrieb:
weil sich die Gameschmieden dann nicht zwischen RT Schatten , RT Reflektionen und noch ein drittes entscheiden müssen , sondern gleichzeitig nutzen können

Das werden wir durch Control von Remedy, dem MMO Justice und Dragon Hound schon zu sehen bekommen.
Auch habe ich es läuten hören, dass man Battlefield 5 unter Umständen noch raytraced AO spendiert.

LG
Zero
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: kisser, Revan1710 und Esenel
Ati True Form , der Urahn der Tessalation gab es bereits ab 2001 in ATI Karten
https://en.wikipedia.org/wiki/ATI_TruForm
https://www.anandtech.com/show/773

wirklich durchgesetzt hat es sich erst als DX11 und OpenGL4 anfingen Tessalation zu unterstützen , ganze 8 Jahre später ....( 2009 )

Diese Hürde hat RT bereits genommen , mit DXR besteht eine DX Schnittstelle , jedoch bis es wirklich gut nutzbar ist , ist minimum eine weitere GraKa Gen nötig .
 
  • Gefällt mir
Reaktionen: .Sentinel.
Naja um mal meinen Senf dazuzugeben beim Thema RayTracing.... bevor ich selbst eine RTX Karte hatte, nun seit 4? Wochen sah ich auch keinen Unterschied, bzw. nur einen sehr sehr kleinen in diversen Bildern und Videos. Sieht man es dann aber mal live in bewegten Bildern und unkomprimiert in Echtzeit (YouTube schluckt da auch einiges) behaupte ich mal, dass wirklich jeder den Unterschied sieht! Und das nicht nur in Tomb Raider sondern auch in Metro und Battlefield. Und wer dann sagt dass dies schlecht aussieht, bzw. schlechter als ohne RTX hat der "Schuss nicht gehört". Denn es ist ein krasser Unterschied finde ich! Ob man nun z.b. Schatten vorberechnet vor sich hat, auch öfter mit irgendeinen künstlichen Lichtquellen die es im Spiel so gar nicht zu sehen gibt (wie als wenn man einen unsichtbaren Scheinwerfer in irgendeine Ecke stellt) oder es tatsächlich auf realen Lichtquellen basiert ist schon ein sehr großer Unterschied was wirklich jeder sehen wird. Und das nimmt man auch wahr. Ebend weil es zum Gesamtbild ebend dazugehört. Da schaut ja nicht jeder nur auf Texturen z.b., sondern viel mehr ist immer das Gesamtbild entscheidend mit allen was dazugehört, und somit nimmt das auch jeder wahr.
Wie aber gesagt, in Videos und erstrecht Bildern kann man das aber nicht wirklich beurteilen. Weil es eben nur eine Momentaufnahme oder komprimiert, RayTracing aber sehr fein dargestellt wird und auch gerade in Bewegung erst wirklich wirkt.
Also, erstmal live sehen bevor man urteilt.
 
  • Gefällt mir
Reaktionen: Esenel
Es geistert ja ein Gerücht im Internet rum, dass der neue Creators Treiber von nVidia besser für Tomb Raider geeignet wäre.

Stimmt nicht.
419.35 / 103 FPS im Schnitt (RT Ultra und sonst auch alles maximal/DLSS aus):
766209


419.67 / 97 FPS im Schnitt (RT Ultra und sonst auch alles maximal/DLSS aus):
766210


Also->Könnt Ihr Euch sparen...

LG
Zero
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Infi88 und Esenel
Steht ja auch " Creator " dabei ... , interessanter wäre ob es tatsächlich einen Unterschied bei den APPS gibt oder ob es nur ein PR Treiber ist weil AMD bei der Radeon VII angekündigt hatte den Pro Treiber bei der Radeon VII zumindest für die Basisfunktionen freizuschalten .
 
MK one schrieb:
Steht ja auch " Creator " dabei ... , interessanter wäre ob es tatsächlich einen Unterschied bei den APPS gibt oder ob es nur ein PR Treiber ist weil AMD bei der Radeon VII angekündigt hatte den Pro Treiber bei der Radeon VII zumindest für die Basisfunktionen freizuschalten .
Der scheint nur ein par Applikationen ein wenig "besser" zu beschleunigen:

GeForce RTX 2080
  • Up to 13% in Blender Cycles
  • Up to 9% in Adobe Photoshop CC
  • Up to 9% in Adobe Premiere Pro CC
  • Up to 8% in CINEMA 4D
War ja nur ein Test :)
 
abzjji schrieb:
Du zahlst ganz bestimmt keine 1250€ für eine 4080TI wenn NV bis dahin konkurrenzlos ist.

Das sind sie doch leider schon, wenn man in 4K spielen möchte.
 
Die Inflation halt, kann man nix machen. :)
 
Mugi schrieb:
Erst wenn durch das Gameplay oder Leveldesign die Raytracing-Features forciert werden, wird man den Mehrwert der Technik ekennen.

Oder in ein paar Jahren, wenn es einfacher ist, 5 Lichtquellen in nen Raum zu packen und mit einer Technik alles zu berechnen und dann ist man fertig, statt 500 Shader zu entwickeln, die das nur irgendwie nachahmen. Die aktuelle Technik wird sicherlich nicht ewig weiter so funktionieren.
 
  • Gefällt mir
Reaktionen: .Sentinel.
abzjji schrieb:
Der Nachteil ist, du hättest die gleiche Leistung zum gleichen Preis schon vor fast 3 Jahren haben können.

Es ist also ein Nachteil wenn ich die Leistung jetzt brauche und nicht vor 3 Jahren?? +RTX obendrauf?
Ich könnte die 970 auch gegen eine 2060 tauschen, beide gleich teuer. Die Leistung der 970 hat vor Jahren auch gereicht, genau wie 2060 heute für FullHD auch wieder reicht. Weil ich aber plane einen WQHD Monitor anzuschaffen, wirds eben eine 2070, da hätte ich vor Jahren eben eine 980 gebraucht. Also Nachteil ist für mich wenn ich heute für 380 € keine Karte bekommen würde die für FullHD reicht, und das geht sogar noch billiger.

Und ich habe es schonmal gesagt, das es wenig Sinn macht jetzt von einer 1080 umzusteigen.
Ihr seit doch nur beleidigt, das Nvidia Euch keinen passenden Ersatz für die 10xx Generation geliefert hat, und stattdessen einen technisch sinvoll neuen Weg eingeschlagen hat.

Alle anderen bekommen für gleiches Geld Ersatz für Maxwell + RTX.

Die Technik wird bestimmt auch künftig weiter eingesetzt und hoffentlich auch weiter vorangetrieben, wird langsam mal Zeit sich damit abzufinden, auch wenns einigen scheinbar sehr schwer fällt.
 
Zuletzt bearbeitet:
Aldaric87 schrieb:
Finde den Fehler. Was ist das für ein Fortschritt, wenn die Leistung und Preis gleichbleiben und ein Feature im Alpha-Stadium kaum Mehrwert bietet?

chris333 schrieb:
Der fortschritt besteht in RTX, wenn auch am Anfang.
Welcher schaden entsteht dir, wenn Du jetzt eine zum spielen Karte brauchst?
Geht das jetzt etwa nicht mehr?

Nvidia ist ein Unternehemen und kann selbst entscheiden welchen technischen Weg sie künftig einschalgen wollen. Die Karten haben für aktuelle Titel genug Leistung in allen Preiskategorien.

Natürlich macht es wenig Sinn von einer 1080 umzusteigen.
Aber Spieler die JETZT eine Karte benötigen, bekommen nach wie vor die gleiche Leistung zum gleichen Preis+ RTX.

Ich finde hier keinen Fehler.
Du musst bedenken er hat seine rot-schwarze Rechenformel angewendet, lmao.

Der jenige der jetzt kaufen muss ist mit 2070 nicht wirklich schlechter dran als vorher, schneller als 1080, die zu Release teils deutlich teurer war, effizienter, leiser + Features etc.

Abgeflachter Miningboom, starke Vorgänger-Generation, Konkurrenzlosigkeit im High-End und die edle Lederjacke vom Jenson führen halt zu solchen Preisen, dennoch kann man sich für nicht allzu viel Kohle ein bisschen Ray-Tracing geben, gibt schlimmeres.

Ein Crysis mit absurdem RT welches über viele Generationen hinaus noch jegliche RTX Karte grillt fände ich allerdings auch ok, bei Tomb Raider wirkt das noch etwas fad, Metro wirkt auch bei DLSS deutlich besser.
 
  • Gefällt mir
Reaktionen: chris333
Bei den Kosten für den gebotenen RT Grafikmehrwert in Form von benötigter Hardware mit genug Leistung fehlt mir aktuell einfach mal etwas Verständniss. Habe es gerade auf der PS4 pro durchgespielt und für den Preis der Konsole sieht es auch ohne RT und 60 FPS@4K verboten gut aus im Verhältniss von Kosten zu Ertrag.
Edit:
Hab es auf einem 4K 55" Oberklasse TV gespielt.
 
Zuletzt bearbeitet von einem Moderator:
Dark-Silent schrieb:
Bei den Kosten für den gebotenen RT Grafikmehrwert in Form von benötigter Hardware mit genug Leistung fehlt mir aktuell einfach mal etwas Verständniss.
Das geht Dir aber dann schon länger so- Denn eine Grafikschallmauer auf herkömmlicher Basis haben wir ja seit Crysis erreicht.
Seitdem wurde die Hardware im Schnitt nur teurer und schneller, wobei der Effekt des schneller werdens immer mal wieder durch Auflösungssprünge egalisiert wurde.

RT bietet seit langer Zeit tatsächlich mal wieder sichtbare Verbesserungen. So bleibt genau das übrig, was Du als erstes anmerkst->Die Kosten dafür sind angestiegen.
Hätte man die 2080 TI für etwas mehr als den Launchpreis der 1080TI angesetzt, wären alle Happy gewesen und der Start ins RT Zeitalter bei weitem nicht auf so viel Abneigung gestoßen.

LG
Zero
 
@ZeroZerp
Das ist so aus meiner Sicht nicht ganz richtig. Bei RT fängt die dazu halbwegs auch wirklich brauchbare Leistungsklasse meiner Meinung nach bei einer RTX 2080 an. Die 2060 hat schlicht zu wenig Ram dafür, die 2070 ist ein P/L Kompromiss und ab der RTX 2080 ist auch die Leistung mit RT halbwegs durchgehend brauchbar. Hier sind wir aktuell dann aber schon in Preisregionen angelangt die ich einfach unverhältnismässig finde. Meine Persönliche Schmerzgrenze lag immer so um 400-450€. Dafür gab es bis dato aber auch wirklich reichlich Leistung knapp unter dem Topmodell teilweise sogar das. Das hat sich seit Pascal/Vega 56,64 schon etwas mehr verlagert und wurde jetzt einfach auf die Spitze getrieben.

Das ist auch mit ein Grund warum ich statt meinen PC wieder auf aktuellen Stand aufzurüsten mir nach einer PS1 mal wieder eine Konsole (PS4pro) geholt habe. Habe noch einen Xeon 1230.v2 und eine Fury im PC. Da wäre ich mit unter 500€ nicht weggekommen. Und die 4GB Ram der Fury neigen sich leider auch bei aktuellen AAA Titeln defenitiv ihrem EOL zu. Board,CPU,Ram,brauchbare neue Graka um meinen UHD Monitor adäquat zu befeuern oder PS4 pro. Da habe ich mich diesmal für letzteres entschieden. Spiele mittlerweile auch lieber Games wie Uncharted oder Tombraider statt Battlefield und Co. wo mir die Leistung der PS4 völlig ausreicht. Nur an die Controllersteuerung mußte ich mich leider schmerzhaft wieder umgewöhnen. Tastatur und Maus sind hier für mich auch trotzdem noch das Maß aller Dinge.
 
Zuletzt bearbeitet von einem Moderator:
Kann ich nicht verstehen, warum die RTX Serie auf so viel Ablehnung stößt. Wer in 1440p spielt, hat die Auswahl zwischen einer Vega 64, der Radeon VII (natürlich noch etwas warten auf ein leises Custom Modell) und diversen Nvidia Modellen wie 2070, 2080, 1080 und sogar 1070 Ti. Nur wer AA-Titel flüssig in 4K spielen will muss die überteuerte 2080 Ti kaufen. Also gibt es keinen Grund über mangelnde Auswahl in der oberen Mittelklasse zu klagen, RTX- und DLSS-Nutzen hin oder her.
 
Zurück
Oben