Leserartikel VRAM-Usage aktueller Titel

Es geht nix über r_postMSAA = 0.Schön gestochen Scharfe Bäume und Objekte.Funzen die custom cfgs noch unter 1.9 ??? Laut cryadam funzen die autoexec sowie die system.cfg commands im hauptordner nicht mehr sondern müssen in die

C:\Users\MrV\Saved Games\Crysis2\game.cfg eingetragen werden.

Hier 2 versionen der ultra high crysis 2 autoexec_v 003 (KillerSneark)

die cfg.txt benutz ich grade (etwas abgeändert).Kopier die commands mal in deine game.cfg
und vielleicht lässt sich da noch was rausholen an bildqualität.Weiß nicht welche commands unter 1.9 noch funzen.
 

Anhänge

wow unter Full HD auch 1.5 GB :/ Obwohl meine gtx 570 da über 200-250 mb zu wenig hat, hält sich der FPS einbruch mit 30-35 doch erstaunlich gut in grenzen^^
 
Darkseth88 schrieb:
wow unter Full HD auch 1.5 GB :/ Obwohl meine gtx 570 da über 200-250 mb zu wenig hat, hält sich der FPS einbruch mit 30-35 doch erstaunlich gut in grenzen^^

Sind sicherlich mehr als 1,5GB, im Hardwareluxx meinte wer er hätte im ersten Level 1,9GB mit einer gtx580 3GB..:D
 
Ihr könntet im Hintergrund den RAM-Bedarf mitloggen. Dann wäre vielleicht sichtbar, ob und wenn ja, wie stark in den RAM ausgelagert wird.
 
Benni16it schrieb:
Sind sicherlich mehr als 1,5GB, im Hardwareluxx meinte wer er hätte im ersten Level 1,9GB mit einer gtx580 3GB..:D

Naja, andererseits, Wo viel vram ist, wird auch viel Vram belegt, egal obs wirklich benötigt wird oder nicht. Sprich gecached. Daher kanns sein, dass eine Karte mit 1.5 GB genauso viele FPS hat wie die mit 3GB, obwohl dort mehr belegt wird
 
Interessant dazu auch der Artikel von PCGH:

"Crysis 2 1.9 im Benchmark-Test: Die Speicherfrage
Die Benchmarks verraten noch etwas: Das High-Res-Texturpaket erfordert nicht zwingend eine Grafikkarte mit 2 oder gar 3 GiByte VRAM. Unsere kurze Szene profitiert nur minimal von mehr als 1,5 GiByte. Das Delikate daran: Im Test mit der Geforce GTX 580/3G gab diese schon in Full-HD 1.680 MiByte belegten Speichers zu Protokoll, während in 2.560 x 1.600 gar 1.970 MiByte veranschlagt wurden. Auf die Zahl reduziert, müsste die Geforce GTX 580/1,5G zumindest in der hohen Auflösung eine Dia-Show ausgeben - tut sie aber nicht.

Eine generelle Entwarnung möchten wir nach der kurzen Zeit nicht aussprechen, es zeichnet sich jedoch ab, dass zumindest bis 1.920 x 1.080 eine Grafikkarte mit 1 GiByte Speicher ausreicht, solange der Grafikchip genug Kraft hat. Besitzer einer Radeon HD 5870 oder Geforce GTX 560 Ti sind auf der sicheren Seite, während Nutzer einer Geforce GTX 570 (1,25 GiB), Radeon HD 6950 (2 GiB) und darüber im grünen Bereich spielen können. Kurz: Der DX11-Modus stellt zwar hohe, aber keine übertriebenen Anforderungen; das Verhältnis aus dem optischen Gewinn zum Fps-Verlust ist vertretbar.
"

Quelle: http://www.pcgameshardware.de/aid,8...t-fuenf-neuen-Grafikkarten/Action-Spiel/Test/
 
Das wundert eigentlich nicht, dass die Karte nicht abschmiert, weil durch das DMA eh egal ist, ob der VRAM volläuft oder nicht.
 
Aber, ...., aber das widerspricht doch den in Stein gemeißelten Lehren eines gewissen VRAM-Fanatikers. :eek:
 
also eine GTX 570 bricht bei Crysis 2 @ Full HD, Ultra, DX11 und HighRes gerne ab und zu ein.
Zwar sind es meistens zwischen 40 und 50 FPS, Framedrops auf 20 oder weniger FPS hat man trotzdem.
Wird schon seinen Sinn haben, warum 1,9GB belegt werden. Solche Probleme hat man mit ner 2 oder 3GB vermutlich nicht.
 
Das bestreitet ja auch niemand. Aber die GTX570 ist aufgrund ihrer VRAM-Größe noch lange nicht völlig unbrauchbar. Diesen Eindruck könnte man beim Lesen so mancher Postings ja durchaus gewinnen.
 
Aber die GTX570 ist aufgrund ihrer VRAM-Größe noch lange nicht völlig unbrauchbar.

würde ich auch nie behaupten. Im Gegenteil sogar, bspw. bei Crysis Warhead habe ich mir die schlechten Minimum- FPS auch immer über den VRAM erklärt, da dieser auch immer sehr schnell voll ist.
Erst als mit einer stärkeren CPU die Framerate erstaunlich stabil war, habe ich erkannt, dass wesentlich seltener der VRAM der limitierende Faktor ist als die (vllt auch in Graka- lastigen Games gerne mal zu oft unterschätzte) CPU.
Wenn man von sporadisch auftretenden Framedrops in Crysis 1 und 2 absieht, ist Metro 2033 das einzige Game, dass bei mir aufgrund des VRAM teilweise bis zur Unspielbarkeit einbricht bei maximalen Settings @ DX11
 
Eben. Im Übrigen war mein obiger Post nicht dahingehend auf dich bezogen, dass du derlei behaupten würdest. ;)
 
Crossfire Sebi schrieb:

Wollt ich auch gerad posten ;)

Episch das selbst ein 6970 Gespann bei bei Fear3 @ 2560x1600@4xAA abkackt und der 2GB Vram nicht reicht.

1309163052zcb17fawtk_9_4-gif.239042


1309163052zcb17fawtk_10_4-gif.239043


1309163052zcB17FAWTk_9_4.gif

1309163052zcB17FAWTk_10_4.gif

Das nicht nur zwei GTX 580@1,5GB bei Crysiswarhead @ triple Head abschmieren sondern auch ein HD 6970 Gespann ist ein Skandal.

Wenn man es mal genau nimmt dann waren bis vor kurzem eigentlich nur 2xGTX460/560@2GB uneingeschränkt Surround fähig. Die großen Karten sind bis vor wenigen Wochen garnicht voll NV Surround fähig gewesen und das in aktuellen Spielen bzw. Spielen von Gestern sogar.

Eigentlich müsste das doch ein Reklamationsgrund sein, wenn man im Nachhinein feststellt das das versprochene nicht voll eingehalten wird.
 
Zuletzt bearbeitet:
Ihr vergesst aber, dass die Rohleistung hier ebenfalls nicht ausreicht. Selbst die 37fps der GTX580 Lightning SLI sind wohl recht mikrorucklig. Außerdem brint 8xMSAA in keinem Spiel, vor allem nicht in Crysis, wirklichen optischen nutzen.

Dass man aber mit sinnlosen Einstellungen alles knacken kann, war und ist mir klar. Starcraft II kann man auf 3GB VRAM verbrauch treiben. Spielbar? Nicht im geringsten.
 
Felixxz21 schrieb:
Ihr vergesst aber, dass die Rohleistung hier ebenfalls nicht ausreicht. Selbst die 37fps der GTX580 Lightning SLI sind wohl recht mikrorucklig. Außerdem brint 8xMSAA in keinem Spiel, vor allem nicht in Crysis, wirklichen optischen nutzen.

Das die da bei Hard OCP völlig unspielbare Settings getestet haben kann ich mir ehrlich gesagt nicht vorstellen. Das da nicht immer alles 100% glatt läuft mag sein, nur die gebenchten Scenen sind ja auch sicherlich Worstcases. Ein SLI Nutzer stört sich nicht an dem ein oder anderen Ruckler, ein SLI Nutzer will Max BQ !!!

Außerdem laufen die Karten in dem Test @ Stock, rechne da mal 15-20% OC drauf, die jeder SLI User mit vernünftiger Kühlung auch abrufen kann.

Und das man den Unterschied zwischen 2-4x MSAA gegenüber 8xAA vernachlässigen kann, kann ich definitiv nicht bestätigen. Im Gegenteil, unter anderem für die Fähigkeit mit Sicherheit 8xAA auf 2560er Auflösung zu nutzen hab ich grad 500€ extra abgedrückt und das nicht zum Spass. Gerade in CW macht sich das Mehr an AA bemerkbar.
 
Zuletzt bearbeitet:
Nein unspielbar ist es nicht, es mikroruckelt nur. Dass das SLI-Nutzer sehr stört kannst du in tausenden Posts hier nachlesen, wo teilweise noch MR bei 60fps bemerkt werden.

Die GTX590 Lightning ist schon übertaktet und um nochmal 15-20% im SLI rauszuholen braucht man ne wschl. ne Wasserkühlung oder man verträgt sehr viel Lärm.

8xMSAA bringt definitiv nichts, vor allem nicht 2560x1440. Nur 8xSSAA hat durchaus Sinn, weil das Bild dann eine enorme Ruhe gewinnt, gerade bei flimmrigen Texturen. Aber bei Polygonkanten ist das nicht mehr wahrnembar und steht in keiner Relation zur benötigten Leistung.
Das wirkliche mehr an AA wie du sagst, bringt nur Super Sampling.
 
Felixxz21 schrieb:
Nein unspielbar ist es nicht, es mikroruckelt nur. Dass das SLI-Nutzer sehr stört kannst du in tausenden Posts hier nachlesen, wo teilweise noch MR bei 60fps bemerkt werden.

8xMSAA bringt definitiv nichts, vor allem nicht 2560x1440. Nur 8xSSAA hat durchaus Sinn, weil das Bild dann eine enorme Ruhe gewinnt, gerade bei flimmrigen Texturen. Aber bei Polygonkanten ist das nicht mehr wahrnembar und steht in keiner Relation zur benötigten Leistung.
Das wirkliche mehr an AA wie du sagst, bringt nur Super Sampling.

Zu A) Über die Hälfte der tausenden Posts in Bezug auf MR Ärgernis sind wohl von Leuten die jemand kennen der ein SLI Sys mal gesehen hat :freak:

Wenn man sich SLI anschafft weiß man vorher das es wohl nicht immer alles 100% Ruckelfrei läuft. Wer das nicht schnallt ist ignorant oder hat einen Fehlkauf getätigt. Das es Leute gibt denen es nicht gefallen hat kann sonst wo dran liegen, unter anderem auch daran das man sich Vram Krüppel gekauft hat und es mehr Ruckelt als es müsste.

Und man muß doch mal klar sagen, das wenn man sich heute ein GTX 580 Gespann kauft, welches heute schon teilweise Vram limitiert ist, dann kauft man sich heute so ein Gespann nicht mehr, damit man auch Morgen noch Freude haben kann.

Wenn ich z.Bsp im 3DC lese, das sich ein über lange Jahre erfahrener User allen ernstes 3GTX 570@1,25GB Vram gekauft hat, weiß ich nicht ob ich lachen oder weinen soll.

Die Gefahr mit zwei GTX 570 @1,25 @ FullHD@allhigh in z.Bsp Crysis 2 am Vram limit hängen zu bleiben ist doch schon sehr groß. Wenn eine Dritte Karte für zusätzliches Eyecandy dazu kommt muß das doch spätestens in die Hose gehen.

Ps.: Das man ne Lightning@Air nicht noch 20% Ocen kann ist sicherlich richtig, zumindest kann man es wohl nicht ohne Hörschäden überstehen. Es muß eben bis zu 20% heißen, danke für den Hinweis :)

Zu B) Dann haben wir unterschiedliche Sichtweisen, ich bin mir ziemlich sicher das es noch genug andere gibt die auch bei einem ppi von 109 noch einen deutlichen Unterschied zwischen 2-4xMSSAA zu 8xMSSAA sehen können. Das es auch besser geht ist eine andere Geschichte, Tatsache ist das es nicht immer und überall besser gehen wird (SGSSAA/TSSAA).
 
Seit dem ersten Voodoo2 SLI Gespann bin Ich so ziemlich alle SLI Möglichkeiten mitgegangen und muss sagen, genau mein Thema^^.

MultiGPU ist sicher nich immer 100%ig ruckelfrei zu bekommen aber im Gegensatz zu früher weis man doch mitlerweile was sagen wir mal zu 98% dagegen hilft.

1. Aktuelle SLI Profile und Treiber
2. Immer VSync ON + Dreifachpuffer
3. Framelimiter benutzen falls wo die DPS unter 60 liegt

Beachtet man dies ist fasst alles sehr angenehm fürs Auge mitlerweile insbesonders bei Nvidia denn so muss man leider sagen in Bezug auf Mikroruckeln arbeiten die Treiber gegenüber AMD´s Crossfire doch immernoch ne Ecke besser.

Was den Videoram betrifft sollte wie schon erwähnt wurde nicht an der falschen Stelle gegeizt werden. 3x gtx 570 etc. mit 1.25 VRam sind wirklich sehr lustige Kombinationen.
Müsste doch klar sein mitlerweile das die sich nur die einfache Ram Größe teilen und absolut unterdimensioniert sind, außer man zockt ohne AA oder SSAA und nur in kleinen Auflösungen aber wofür dann überhaupt SLI.^^ Also Ich bereue den wechsel der GTX 480 1,5GB auf GTX 580 3GB nicht und das nicht nur wegen der Mehrleistung der GPU sondern ausschließlich der doppelten Ramgröße wegen.

Wer sich 2 oder mehr GPU´s leisten kann kann sicher auch die 30 Euro für den doppelten Speicherausbau drauflegen.

Bildqualität sind doch sicherlich DASS ausschlaggebende argument für SLI und nicht die FPS oder wer braucht schon 150 fps^^

Wenn schon SLI dann doch wegen der damit zu erzielenden Bildqualität und loggt man entsprechende Ramauslastung mit sieht man warum es Nachladeruckler gibt. Es Ist halt nicht alles Mikroruckeln was so bezeichnet wird ;)

Und macht bezüglich 2-4MSAA gegen 8xMSAA doch einen Direktvergleich (wärend dem Game umswitchen über zweitmonitor oder ähnlich)

Auch bei meinem 30"er merke Ich deutliche Unterschiede, aber OK im Gegensatz zur SSAA Zuschaltung natürlich nicht so Große.
 
Zurück
Oben