Test Rise of the Tomb Raider Benchmarks: Beeindruckende Grafik mit hohen Anforderungen

Hoffe es kommt noch ein Treiber oder ein Patch raus, der die ganze Sli Sache noch etwas glättet.
ROTTR_2016_01_30_16_47_43_767.jpgROTTR_2016_01_30_16_51_40_176.jpgROTTR_2016_01_31_16_46_32_125.jpgROTTR_2016_01_31_18_11_54_606.jpg
Ich wollte mehr Screenshots machen aber dann hat mich das Spiel so gefesselt, so dass ich es einfach vergessen habe.
Performance technisch wurde schon alles erwähnt. Mal schauen was sie daraus noch machen.
Habe mir damals den Seasson Pass gleich mit bestellt. Hoffe das noch paar DLC´s kommen.
 
hardwaredeluxx bescheinigt dem neuen Treiber ein Performance-Plus von bis zu 25%, komisch dass davon bei euch mal wieder garnichts von zu sehen ist. Auch ich bemerke objektiv und subjektiv eine deutliche Besserung. Vor allem kostet die Tesselation nun kaum mehr Leistung. Vermutlich wurde wie in the Witcher 3 von Nvidia unnötige x64 Tesselation vorgegeben für die Grafikkarten wodurch AMD dann natürlich besonders leidet.

btw, viele erzählen hier von wahnsinnig grossen VRAM verbrauchen vor allem in höheren Auflösungen. Ich spiele mit zwei 290xen in 4K eigentlich ganz flüssig bei 35-60Frames inkl Tesselation jedoch mit Standard SSAO und ohne Anti-Aliasing und Vsync tripple buffered ansonsten alles auf höchster Einstellung. Der VRAM der beiden Radeons ist voll, jedoch habe ich nur wenige schwere Nachladeruckler. Die Nachladeruckler kommen alle dann alle 5-10Min und zwischendurch läufts sehr flüssig auch bei mal nur 35Frames. Passt eigentlich für mich so.

Was mich mal wieder besonders stört sind die Machenschaften von nvidia. Da wird der komplett auf AMD optimierte DX12 Renderpfad entfernt inkl Asyncronous Shader da man gemerkt hat dass die AMD Karten dann plötzlich den Nvidias trotz Gamesworks davon rennen. Ich bin mitlerweile so angepisst von diesem Nvidia Scheiss-Verein dass ich mir nie wieder im Leben was von den Grünen kaufen werde. Die Grünen blockieren die gesamte Entwicklung wo es nur geht nur um besser dazustehen wie die anderen. Läuft ja mitlerweile auf ähnlichem Niveau wie damals Intels die Abnehmer alle geschmiert hat. Und was ich hier so lese lässt mich echt zweifeln "Meine 970 hat mitlerweile extreme Nachladeruckler durch den Krüppel-RAM, wird wohl demnächst ne 980ti" Meine Fresse was ist los mit euch, werdet nach Strich und Faden verarscht und kauft euch dann gleich die nächste Nvidia Karte? :freak:
Achja sorry fürs ausufern, musste einfach mal wieder gesagt werden, und nein Fanboy in diesem sinne bin ich nicht da ich mindestens so viele Nvidia Karten hatte wie AMD aber mittlerweile kaufe ich aus Prinzip absolut garnichts mehr von den Grünen obwohl es im Grunde sehr gute Grakas sind!
cheers
 
Zuletzt bearbeitet:
Ich muss zugeben, dass ich mittlerweile auch ein komisches Gefühl bei der Sache bekomme. Welchen Grund gibt es denn für die Entwickler den Renderpfad zu entfernen? Ich meine, das ist doch zusätzlicher Aufwand. Den mache ich mir doch nicht ohne Grund.
 
@Intenso84
Unterschiedliche Settings, unterschiedliche Szene? Das kann bzw. soll es geben & 25% klingt mir doch arg nach "Cherry-Picking" & ja, auch das soll es geben.^^

@/root
Ich nutze dafür den Afterburner in der Version 4.2.0 Final ...:-)


edit:
Achja sorry fürs ausufern, musste einfach mal wieder gesagt werden
Gib ALLES & wo Dampf unter dem Kessel herrscht, muss man auch mal Luft ablassen können & dürfen ...^^
 
Zuletzt bearbeitet:
Lol ja selber schuld wer eh ne GTX 970 oder ähnliches hat und noch immer mit 8gb Arbeitsspeicher verbaut hat. Kauf mir ja auch keine GTX 970 und hab einen Intel Q6600 am laufen.

Bei dem spiel kommt locker an einigen stellen beim Arbeitsspeicher auf 10-11 GB. Und da rede ich von einem frisch gestarteten system ohne unnötige zwischenprogramme.

40€ tun ja auch weh bei 8GB aufrüstung. Geiz ist eben geil meine Freunde, also net meckern. Gerade der Arbeitsspeicher ist eher einer der günstigsten Upgrade Sachen.
 
Puh, das einzige was mich an dem Game stört ist, dass höhere Auflösungen irgendwie sehr viel Performance fressen.

Am TV mit 1920x1080 kann ich alles auf Anschlag knallen und hab quasi immer 60 FPS, obwohl der VRAM vermeintlich überläuft.

In 21:9 also 2560x1080 muss ich auf das "Sehr Hoch" Preset gehen und sowohl Texturen auf Hoch runterstellen, als auch HBAO+ ausmachen, um im Schnitt die 60 FPS zu erreichen (50-55 FPS bei Soviet Installation). Und selbst da hab ich deutlich mehr Drops unter 60 FPS, als in 1920x1080.
Das macht hier wirklich nen großen Unterschied aus.

Mal sehen, ob ich noch etwas Takt aus der Karte rauskriege. Hab gestern mal von 1392 MHz auf 1450 MHz Boost getaktet und noch +500 MHz auf den VRAM gegeben und schon waren es 5 FPS mehr. Wenn ich jetzt noch die Spannung ein paar mV hoch bekomme, sollten die 1500 MHz kein Problem sein. Leider hat das bei meinen ersten Versuchen damals nicht geklappt, die EVGA GTX980 SC ACX 2.0 scheint irgendwie ne glockte Spannung zu haben. Ein paar mV würden mir schon reichen, im Netz liest man aber nichts über einen Lock... na ja, mal austesten heute abend, vielleicht funktionierts mittlerweile....
 
Intenso84 schrieb:
Bei Hluxx legt die Fury X um bis zu 25% zu und hier nicht? o_O

Jo, da müsste man mal genau die Einstellungen und alles vergleichen. Aber wenn lt. CB zumindest die Stotterer großteils weg sind ist das ja schonmal was. Ansonsten geb ich eh nicht mehr viel auf die Benchmarks, siehe die Releasebenchmarks von PCGH. Da kommen einfach zuviele Faktoren zusammen.

Ich spiele zB mit einem FX-8350 und R9 290 in 3200x1800 mit Downsampling auf 2560x1440, lasse dafür aber jedwede Form von AA weg und immer mit Vsync. Solche Benchmarks findet man eh nirgendwo, daher taugen die mir eh nur immer als genereller Anhaltspunkt.
 
Die "Wahrheit" wird wohl eher dazwischen liegen
PCGH aktualisiert in diesem Moment ebenfalls die Benchmarkergebnisse und so wie es momentan aussieht deckt sich die mit der von CB

Ich finde es traurig das man ein Spiel auf dem Markt bringt das nicht für beide Grafikkartenhersteller gleichermaßen Optimiert wurde.
Wenn die Entwickler selbst bestätigen das man erst jetzt an eine AMD Optimierung arbeitet, dann ist das mehr als traurig und das Game hätte verschoben werden müssen.
So Freut sich natürlich Nvidia, denn die ersten Benchmarkergebnisse sind am wichtigsten.
 
@CyberdyneSytem

Diese Optimierungen wären ja dagewesen! Das Spiel wurde für die Konsolen entwickelt, und was steckt in diesen Konsolen? Ne mickrige AMD APU welche im Stande ist ne grossartige Grafik auf den Bildschirm zu zaubern! Ist ja mitlerweile Fakt dass dieser optimierte Renderpfad entfernt wurde! Natürlich kann man diesen sicher nicht 1zu1 auf dem PC nutzen, jedoch gibt es sicher viele Ansätze die den Radeons zu mehr Leistung verholfen hätte, hätte sie man etwas angepasst. Jedoch wurde dieser auf Wunsch von Nvidia entfernt mit dem Ziel den besseren Ersteindruck für sich zu gewinnen. Was labbert nun der Nerd der später nie aktualiserte Benches anschaut? Nvidia ist besser bei ROTTR und AMD stinkt ab, Ziel erreicht oder?
 
Im CB-Test steht ja, dass HT Leistung kostet. Macht ihr das im Bios aus, oder lasst ihr es an?

Im CB-Test steht, dass in UHD nur 3.9GB Vram belegt werden, wie kann das sein, wenn ich in 1680x1050 schon 4GB belegt habe,?

Frage zu Vsync: Was bedeutet doppelt gepuffert bzw. dreifach gepuffert?
 
@schidddy

Denkst du nicht auch, dass Nvdia durch einen DX12 Pfad genauso Performance hinzugewinnen würde wie AMD? Sind schließlich auch DX12 Karten, die alle Features unterstützen, die auf der Xbox verwendet wurden.

Also würde sich das Verhältnis wohl nicht großartig ändern.


Schade finde ich es aber auch. Da will der PC immer als Technologieführer dastehen, dabei Spielt die Musik aber auf den Konsoelen. Dass hier DX12 noch vor dem PC in Triple-A Games genutzt wird ist schon bemerkenswert und sagt viel über den Markt aus.


@meckswell
Zum Vsync. Ganz kurz. Double Buffering: Framerate kann entweder 60, 30 oder 20 FPS betragen (auf einem 60 Hz Monitor). heißt die Framerate fällt auf 30, sobald du unter 60 FPS kommst.
Bei Triple Buffering fällt diese beschränkung komplett weg, bis auf die tatsache, dass eben 60 FPS das maximum sind, wenn du einen 60 Hz Monitor nutzt, was ja auch Sinn der Sache ist...

Nutze also TripleBuffering.
 
Zuletzt bearbeitet von einem Moderator:
Vitec schrieb:
:freak:
pessimist...
hab schon seit 2 monaten keinen treiber mehr geupdated und du kommst mit "ich warte blabla" - megalol
und fallout 4 ist im oktober 1 jahr - also noch weit weit weg ... packe mal deinen taschenrechner aus

not sure if troll or serious...
 
@Laggy.net

Die Nvidias unterstützen eben nicht komplett alle DX12 Befehlssätze insbesondere können diese nur mangelhaft Asynchronous Compute Befehle ausführen! Google mal nach Asynchronous Compute in bezug auf Nvidia. Die Konsolen nutzen dieses Feature mitlerweile stärker um Rechenleistung zu sparen. Man sieht auch dass AMD Karten deutliche Performance Sprünge hinlegen sobald ein DX12 Renderpfad genutzt wird. bei Nvidia tut sich dagegen nicht viel, da diese halt die besserenDX11 Treiber haben und dieser Umstand von Nvidia momentan voll ausgenutzt wird um AMD schlechter aussehen zu lassen. Bei Ashes wollten die werten Herrschaften bei Nvidia auch dass das Feature AC entfernt wird da die AMD Karten davon zu sehr profitieren ;)
Schaust dir auch ma den gerade veröffentlichten Artikel von CB an bzgl. Ashes of Singularity
 
Zuletzt bearbeitet:
hrafnagaldr schrieb:
Ich spiele zB mit einem FX-8350 und R9 290 in 3200x1800 mit Downsampling auf 2560x1440, lasse dafür aber jedwede Form von AA weg und immer mit Vsync. Solche Benchmarks findet man eh nirgendwo, daher taugen die mir eh nur immer als genereller Anhaltspunkt.
wieviel fps hast du da - ohne vsync?
wieso aktivierst du überhaupt vsync ?
restlichen details alle an ?

AA lässt man ab WQHD immer weg ... sieht man auch auf dem monitor nicht
 
Laggy.NET schrieb:
@schidddy

Denkst du nicht auch, dass Nvdia durch einen DX12 Pfad genauso Performance hinzugewinnen würde wie AMD? Sind schließlich auch DX12 Karten, die alle Features unterstützen, die auf der Xbox verwendet wurden.

Angeblich ist ja genau das nicht der Fall. Manche Features werden wohl im Treiber emuliert, da in Hardware nicht vorhanden. Klar, auf der packung steht dann, dass es unterstützt wird. Halt mit Leistungseinbußen mangels Hardwaresupport.

cruse schrieb:
wieviel fps hast du da - ohne vsync?
wieso aktivierst du überhaupt vsync ?
restlichen details alle an ?

Wo ist da? Tomb Raider hab ich nicht, da ich mir keine Titel mehr zum Release Kaufe. Und mit Denuvo sowieso nicht.
Ich nutze Vsync generell, unabhängig vom Titel. Ansonsten immer die High-Vorgabe des jeweiligen Spiels. Ok, wenns nun was von Blizzard ist, dann auch immer Ultra, die sind ja nicht anspruchsvoll.

Warum ich das anhab? Kein Tearing, gernigere Abwärme / Verbrauch / Lautstärke der Karte (ok, nun gibts ja die Frame Rate Target Control im Treiber). Höherer Inputlag ist mir wumpe, ich spiele kein CS mehr.
 
Zuletzt bearbeitet:
Laggy.NET schrieb:
@schidddy

Denkst du nicht auch, dass Nvdia durch einen DX12 Pfad genauso Performance hinzugewinnen würde wie AMD? Sind schließlich auch DX12 Karten, die alle Features unterstützen, die auf der Xbox verwendet wurden.

Also würde sich das Verhältnis wohl nicht großartig ändern.

Da nVidia-Karten bisher noch keinen Vorteil aus Async-Shadern (wie auf der XBOne genutzt) ziehen konnten, bzw. sogar extra Fallbacks ohne Async-Shader nur für diese entwickelt wurden bezweifle ich, dass die nVidia-Karten genau so an Leistung dazu gewonnen hätten, wenn man auf dem XBOne-Pfad weiter aufgebaut hätte. Nur einen geringeren CPU-Overhead hätte es gegeben.

Ich sehe die Chose bisher folgendermassen:

Der XBOne-Renderpfad setzt stark auf Async-Shader, ein Feature, dass bisher nVidia Probleme bereitet hat, während es für eine deutlich bessere GPU-Auslastung der Radeons sorgt.
Anstatt einen Fallback für nVidia/nicht GCN-Karten zu entwickeln und auf dem vorhandenen XBOne-Renderpfad für GCN aufzubauen verwirft man Async-Shader komplett und bastelt den Renderpfad vollständig neu. In wie weit die Verträge mit nVidia dafür sorgen, dass diese Entscheidung getroffen wurde sei einmal dahingestellt.

Dementsprechend zeigen im Benchmark die nVidia-Karten ihre gute Seite, während für die Radeons laut Entwickler kaum eine Optimierung vorgenommen wurde, die wohl gar nicht so notwendig gewesen wäre, hätte man nicht den XBOne-Renderer verworfen. Der etwas höhere Treiber-Overhead der Radeons spielt auch noch etwas mit hinein und schon haben wir das Bild der Pre-Release-Benchmarks. Die Fanboys schimpfen, die schlechte Optimierung wird schnell auf den Treiber abgewälzt und schon ist das Weltbild wieder in Ordnung. Dennoch ist das Spiel allgemein noch kaputt, viele Nutzer beider Parteien haben zum Teil noch enorme Probleme mit der Performance. Den Schaden hat im Endeffekt wie immer der Kunde davongetragen.
 
max_1234 schrieb:
ComputerBias eben, ist die letzten 1 1/2 Jahre doch schon so...
Ich würde dazu eher mal sagen, deine Denk-u.Sichtweise ist seit dieser Zeitspanne "einfach so Bias" & welche Gründe gibt es dafür?:evillol:
-->https://www.computerbase.de/2016-02...ehebt-fehlerhafte-egpu-anzeige-normaler-gpus/

@meckswell
Laggy hat schon alles gesagt (=Triple Buffer, variable Frames) & ich selber hab mein SMT/HT nicht deaktiviert. Kann man auch ganz gut an meiner CPU-Last sehen & ohne SMT/HT wäre die auch höher.
Zum VRAM ...Eine gute Frage & wie man ja gesehen hat, werden TI's auch voll ausgelastet & Titans z.T. ~über 8GB ...:-)
 
@laggy
Wie sieht das ganze mit einem 75Hz Monitor aus? Ich gebe zu das ich moch noch nie richtig mit Vsync beschäftigt habe. Zumindest nicht mit Double/Triple Buffering. Wird bei double Buffering dann auf 35FPS halbiert sobald die frames auf unter 75FPS fallen?
 
Zuletzt bearbeitet:
Zurück
Oben