Test Shadow of the Tomb Raider: Raytracing sorgt für etwas Feintuning an den Schatten

chris333 schrieb:
Jemand der jetzt dringend eine neue Karte braucht bekommt die RTX 2070 für den gleichen Preis was vor kurzem noch die 1080 gekostet hat, bei gleicher Leistung + RTX.
Nur dürftest du nach dem Test eine 2080Ti benötigen um bei gleicher Framerate wirklich was von RTX zu haben.
 
Wadenbeisser schrieb:
Nur dürftest du nach dem Test eine 2080Ti benötigen um bei gleicher Framerate wirklich was von RTX zu haben.

Da hast Du recht. RTX ist jetzt noch ein Gimmick.
Und ich persönlich würde das für den Preis einer 2080ti auch nicht machen.
Ich sehe aber keinen Grund warum ich nicht bald auf eine RTX 2070 umsteigen sollte.
Vor allem wenn man bedenkt das ich mir Ende letzten Jahres noch eine 1080 kaufen wollte.

Ich bekomme doch nach wie vor für mein Geld die Leistung einer 1080, die keine RT Cores hat.
Auch wenn es jetzt noch nicht viel bringt, ist es aber auch kein Nachteil.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Infi88 und Fraggball
Ein Fehler wäre z.B. dass man in der gleichen Leistungsklasse weniger VRAM verbaut wie z.B. RTX2080 vs GTX1080Ti.
 
Das einzige Vergleichsbild, bei dem das RT mMn richtig gut aussieht, ist in der schwach ausgeleuchteten Höhle:

Off
RT OffRT Ultra
766017
766018

Das macht mehr Stimmung und wirkt für mich deutlich realistischer, dass die Steine frontal nicht beleuchtet sind.

Die meisten Bilder wirken für mich aber so, als hätten die Schatten einfach weniger Konturen und wirken für mich dadurch auch oft zu schwammig:

Rt OffRT Ultra
766019
766020

Und auch die Leistung in SotTR ist für mich ein weiterer Beleg dafür, dass die 2060 einfach eine nicht funktionierende Kombination einer Mittelklassekarte mit einem Enthusiasten-Feature ist.
 
  • Gefällt mir
Reaktionen: Chismon und Baal Netbeck
Dai6oro schrieb:
Ein Fehler wäre z.B. dass man in der gleichen Leistungsklasse weniger VRAM verbaut wie z.B. RTX2080 vs GTX1080Ti.

Ändert nichts an der Tatsache das die Leistung stimmt.
Und kommt jetzt nicht mit Zukunftssicherheit bei Grafikkarten.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Infi88
Botcruscher schrieb:
Falsch. Es ist die Sparversion von Jahrzehnte erprobter, bekannter und weit verbreiteter Technik. [...] Von einem offline Renderer ist es Lichtjahre entfernt.

ich habe es auf das wesentliche gekürzt - den argumentationsfehler darfst du selbst herausfinden.

ich gebe einen tipp: echtzeit.
 
  • Gefällt mir
Reaktionen: chris333
W0lfenstein schrieb:
Auch wenn gewisse Leute scho mit Steinen warten , kann ich nur wieder sagen ich seh fast keinen Unterschied.
Eigentlich keinen ,aber fast muss man ja sagen, denn es soll ja einen geben :D

Wenn dann sieht man es wieder deutlich an Screenshots. Aber so im Spiel, würde ich wohl nix merken.

Ist doch fast immer so. Von Ultra runter auf very high und high merkst beim genauen Betrachten etwas. Ingame naja.

Was wichtig ist, aufpoppende Gegebnstände zu reduzieren, Weitsicht hochschrauben, nicht matschige Auflösung/Texturen von wichtigen Details (sich selbst, Autos im Rennspiel usw).

All das bekommt man in der Regel mit hoch hin. Sehr hoch und Ultra ist natürlich schöner auf den Screenshots aber ingame hat man dann zB 30% weniger FPS. Die Smothness von 80+ Fps bei 144hz ersetzt mir kein Quali-Setting :-)
 
Turrican101 schrieb:
Und ich dachte dass Tomb Raider von ner anderen Firma gemacht worden ist. Was kann nVidia dafür, wie eine Funktion in nem Spiel umgesetzt wird?

meine aussage war natürlich allgemein ausgelegt und nicht nur auf die shadow of the tomb raider implementierung. die rtx 2000er serie ist in jeder hinsicht ein fail.

maßlos überteuert (eigentlich war das die letzten 15 jahre ja so das man bei einem generationswechsel f+r etwa den gleichen preis (+- paar euro) deutlich mehr leistung bekommen hat. nvidia hat dies wohl vergessen denn bei der rtx 2000er serie steigt der preis parallel zur leistung, auch und ganz besonders im vergleich zur vorgängergeneration.),

grottig produziert (schon was von den ganzen ausfällen gehört und gelesen ? die grakas gehen am laufen den band kaputt und viele bekommen direkt defekte und müssen sie 1-2 mal tauschen. und das zu solchen preisen. die rtx serie hat weitaus höhere ausfälle als alle anderen grafikkartengenerationen der letzten jahre.

wertloses raytracing feature (wieso wertlos ? weil es lachhaft viel leistung kostet und dafür nichtmal so revolutionär aussieht. die leistung halbiert sich größtenteils bei nutzung von raytracing. wer will schon ein battlefield 5 mit 40fps zocken nur um schöne reflektionen zu haben ?!? oder ein shadow of the tomb raider mit kaum schöneren, teil sogar deutlich hässlicheren schatten, dafür aber mit wunderschönen 40-50fps anstatt 80-100. ja ist natürlich nen episches feature. die hätten an erster stelle damit werben sollen das man mit einem klick die framerate halbieren kann. das wäre mehr feature als raytracing LOOOL..

wenn ich nun überlege das ich vor 2.5 jahren meine gtx 980ti für grade mal 400€ gekauft hab, diese bis heute ziemlich gut und stark ist, bei fast jedem spiel maximiert in 1080p 60 fps liefern kann (vergessen wir mal kingdom come deliverance, aber hey, da reicht ja nichtmal eine gtx 1080ti um in 1080p mit 60fps ohne drops zocken zu können) und auch keine defekte besitzt, ja da sträuben sich mir die nackenhaare :D das waren noch zeiten :D
 
Aldaric87 schrieb:
Finde den Fehler. Was ist das für ein Fortschritt, wenn die Leistung und Preis gleichbleiben und ein Feature im Alpha-Stadium kaum Mehrwert bietet?

Und: GTX 1080 ist eigentlich eine Klasse höher ;-)

Obwohl, die kostete ja zu Release auch ~700.
Die 1070 ca. 450-500.

Hat sich eigentlich nicht viel geändert mit der Abzocke 😀
 
chris333 schrieb:
Und kommt jetzt nicht mit Zukunftssicherheit bei Grafikkarten.

Aber bedenke doch die Zukunftssicherheit der Gk bei nur 8GB !!!!!!
 
In der Demo sah es noch so unglaublich gut aus..

 
Raytracing hin oder her - warum kommt mir die Grafik von diesem Spiel nur so grausig vor? Ich hatte sogar das Gefühl der letzte Tomb Raider Teil sah besser aus. Oder Crysis. Kann's mir auch nicht richtig erklären...
 
Nachdem ja bisher alle Spiele scheinbar nen selbst zusammengebastelten Denoiser verwenden, wäre doch auch mal interessant zu sehen, ob man mit den Tensor Cores mehr Leistung rausholen kann.

Zudem war eig. seit der Demo klar, dass Schatten am wenigsten bringen. Das Ergebnis also hier nicht überraschend.

Man hat scheinbar die Performance gut steigern können, war man damals bei der Vorstellung bei 30fps in FHD, hat man nun immerhin 30 fps in 4k.

Raytraced GI hätte aber vermutlich einen größeren Effekt.
 
Skatch schrieb:
In der Demo sah es noch so unglaublich gut aus..
Du hast recht!
Neben der Bühne gab es in der Demo diese zwei bunten Lichtquellen, die jetzt fehlen.

Und viel wichtiger.....die beeindruckenden Schattenspiele von den Kindern mit den "Kerzen" sind nicht annährend so ausgeprägt(oder nicht da?)....das Video:
ist von der Qualität leider schlecht, zeigt davon aber so gut wie nichts.

Laut der Techdemo müsste das besonders auffallen.....kann das jemand bestätigen?

Kann doch nicht sein, dass der beste Part der Techdemo nicht in der finalen Umsetzung enthalten ist.
Ergänzung ()

Oneplusfan schrieb:
Man hat scheinbar die Performance gut steigern können, war man damals bei der Vorstellung bei 30fps in FHD, hat man nun immerhin 30 fps in 4k.
Wenn man einfach Effekte streicht, ist es einfach die Leistung zu verbessern.....Ich suche mal nach anderen Testberichten....das muss doch schon jemandem aufgefallen sein.
 
Skatch schrieb:
In der Demo sah es noch so unglaublich gut aus..

Ist doch wie bei fast allen Trailern

franzerich schrieb:
Ich hatte sogar das Gefühl der letzte Tomb Raider Teil sah besser aus.

Haben auch scho andere gesagt. Kann ich nicht beurteilen da ich mir den dritten teil noch nicht zugelegt habe da er doch auch deutlich schlechter sein soll.
 
Da "Schattenqualität" der erste Regler ist, den ich zurückstelle ist es für mich eine sehr ernüchternde Nachricht, dass RayTracing viel Leistung braucht, nur um die Schatten zu verbessern.
 
  • Gefällt mir
Reaktionen: Baal Netbeck
fox40phil schrieb:
Für ein paar weichere Schatten so ein Leistungsverlust?! niemals - und das ginge 100% auch ohne RT Kerne!

Für Fotomodis kann ich mir das alles sehr gut vorstellen, da braucht man ja auch keine >60FPS. - aber dann mit mehr optischen Auswirkungen/Verbesserungen^^.
Also Schatten sind schon immer fps Fresser gewesen, das ist nicht erst seit RT so.

https://windowsreport.com/low-shadows-in-games-improve-fps/

Auch auf reinen AMD Systemen, z.B. damals schon bei Fallout wo Shadow Distance - Ultra

766066


Das hier jetzt alle so tun, dass RT ein Witz ist, die Schatten lächerlich sind und der Performance
Hit viel zu krass, ist meiner Ansicht nach Heuchelei. Wenn man das mal objektiv über die Jahre
betrachtet, wie viele Effekte wie viel Performance gekostet haben und was sie optisch bringen
(wie Ultra Texturen bei Mordor, die 50% mehr RAM fressen und 5% besser aussehen) - ist RT
da wirklich so krass schlecht im Vergleich? RTX kostet bei SotTR 1/3 Performance (außer RTX2060).
Aber damals konnte es auch mal die Hälfte sein. Ist nicht in jedem Spiel so krass, aber man kann
sicher bei vielen Games viele Effekte nenen, die viel kosten und nicht extrem viel bringen, oder?

In dem Kontext sollte man es meiner Ansicht nach betrachten und nicht völlig isoliert.
 
  • Gefällt mir
Reaktionen: .Sentinel.
chris333 schrieb:
... kommt jetzt nicht mit Zukunftssicherheit bei Grafikkarten.

Es ist aber leider so, dass Stand jetzt schon 12 GB angeraten sind (zur Not tun es wohl auch noch die aktuell gängigen 11GB nVidias, wegen des vermutlich immer noch effizienteren Speichermanagements (Komprimierung?) bei nVidia als bei AMD/RTG).

Auch wenn die Liste aus einem AMD-Blog stammt, ist sie wohl als glaubwürdig und nicht an den Haaren herbeigezogen einzuschätzen.

Wie lange haben wir schon 8GB in der GPU-Mittelklasse (und Du erwägst jetzt noch eine Oberklasse-GPU mit 8GB anzuschaffen, höchstwahrscheinlich die letzte Oberklasse-Generation mit nur 8GB)?

Hoffentlich erwartest Du nicht, dass der Speicher auch in neuen/kommenden fordernden Spieletiteln mit einer RTX2070/2080 bei Maximaldetails in mehr als 2 Jahren ausreicht.

Gut möglich, dass die Anforderungen bei möglichen Navi Mittelklasse-GPUs und Navi-basierenden Konsolen mit 12 GB Video-Speicher rapide steigen werden und bei der Nachfolge-GPU-Generation nVidias in der 7nm Oberklasse sowieso (wann diese kommt und wie dann der Turing Support massiv herunter gefahren wird, kannst Du Dir ja vorstellen) ;).

Also für mich - als mittel- bis langfristig orientierten Nutzer - wären RTX 2070 und RTX 2080 ein Fehlkauf mangels zu knappem Speicherausbau/unzureichender Langlebigkeit, aber wenn Du dann eh zur Nachfolgegeneration schon wieder teuer aufrüsten möchtest, wären die Turing Oberklasse-GPUs vielleicht doch eine Überlegung wert für Dich bzw. noch ausreichend bestückt.
 
Zuletzt bearbeitet:
Zurück
Oben