Leserartikel VRAM-Usage aktueller Titel

@ Farmer Sry vielleicht wars nicht von dir, auf jedenfall stehts auf dem Screen weiter oben.
 
mal zu der geschichte, dass bei nvidia karten unter win7 und vista wieder der vram ausgelesen werden kann:

Unwinder schrieb:
Yes, nvidia finally added API for monitoring VRAM usage and GPU usage. And yes, it will be added in future releases. But I'd like to clearly menion that nothing changed and there are still NO ways for user mode applications to know how much VRAM is in use via unified approaches. So it will start working on NVIDIA side "again" only because NVIDIA decided to contribute in this area and provided an API for accessing internal NV driver's videomemory manager statistics. So it will be available only on NVIDIA cards and only with 19x.xx series drivers, where this new API is available. ATI users may forget about getting it working "again", until ATI decide to do the same and provide access to their videomemory manager.
http://forums.guru3d.com/showthread.php?t=309806
 
Wie schaffst du es bloß HisN bei CoD6 auf 1 GB zu kommen? Ich fahre 4x AA und komme im Singleplayer nie über 850 MB. Dachte die Auflösung wirkt sich nicht so gravierend auf den VRAM Verbrauch aus :freaky:
 
Ich finde jetzt 10% nicht wirklich viel wenn Du das meinst :-)
Mit welchem Tool liest Du aus?
 
@Timesless:

Wenn du ne GTX 280/285 hättest, würden wahrscheinlich auch mehr als 850MB VRAM genutzt ;)
 
Liegts also an der Karte? Wär mir neu aber man lernt nie aus ;)

e: Everest Ultimate, was bei mir aufm G15 LCD arbeitet benutze ich zum auslesen.
 
^^ Ist halt im Moment die Frage wie z.b. das GPU-z ausliest. Ich habe die blöde Vermutung dass es nur den lokal benutzen Speicher anzeigt, nicht aber das was der Treiber ins Systemram auslagert.
 
Um die Frage nochmals in den Raum zu werfen (evtl. hat sich ja etwas getan), wie siehts aus mit dem auslesen der Speicherauslastung der 5xxx Karten unter W7? Gibt es da jetzt eine Möglichkeit?
 
da werf ich mal ein post von unwinder, dem entwickler von rivatuner, ein:

Unwinder schrieb:
Yes, nvidia finally added API for monitoring VRAM usage and GPU usage. And yes, it will be added in future releases. But I'd like to clearly menion that nothing changed and there are still NO ways for user mode applications to know how much VRAM is in use via unified approaches. So it will start working on NVIDIA side "again" only because NVIDIA decided to contribute in this area and provided an API for accessing internal NV driver's videomemory manager statistics. So it will be available only on NVIDIA cards and only with 19x.xx series drivers, where this new API is available. ATI users may forget about getting it working "again", until ATI decide to do the same and provide access to their videomemory manager.
-> http://forums.guru3d.com/showpost.php?p=3362280&postcount=2
 
also diese ganzen V-Ram Auslastungen betreffen immer den gesamt genutzten Videospeicher, also GPU_Memory und System_Ram. (Bei mir mit ner 512MB HD4850 z.B. 2303 MB maximal)

Diese Werte sagen nichts über die tatsächliche Auslastung des dedizierten GPU_Memory aus. Generell muss beinahe jede aktuelle Engine ein Streaming System benutzen und hier liegt auch das meiste Optimierungspotential. Wenn das Streamingsystem schlecht arbeitet kommt es auch zu Framedrops wenn der Speicher gar nicht voll ist.

Jedenfalls sagen die aufgezeichneten Werte so nichts darüber aus, wieviel dedizierten Speicher ein Spiel benötigt.
(Bei Race Driver Grid hatte ich mit meiner damaligen extrem übertakteten 8800GT1024 derben Inputlag, und Slow-mo bei höchster Qualitätsstufe (trotz angezeigten 45+ FPS), bei meiner HD4850 512 gab es anfänglich, bei Rennen welche länger als 2 Runden gingen Framedrops ,welche aber durch einen späteren Treiber völlig verschwanden.

Ein Rennspiel kann man sehr gut optimieren, weil das Streamingsystem weiß was als nächstes geladen werden muss. Bei nem Open World Spiel und großer Geschwindigkeit helfen auch 2-4 GB V-Ram rein gar nichts, da die Daten nicht schnell genug bereit gestellt werden.

Generell befindet sich ja immer nur ein Bruchteil der gesamten Grafikdaten eines Spiels im dedizierten Speicher (egal ob nun 512 MB oder 1GB groß) da entpackte Texturen unglaublich Speicher fressen.

Wirklich zuwenig V-Ram hat eine Karte dann, wenn der gerade darzustellende Bildschirminhalt mehr Speicher frisst als die Karte besitzt. Umso mehr V-Ram umso besser, ist aber auch nicht wirklich richtig, da alles was über über diese "minimale" Notwenigkeit hinausgeht den Spielfluss meist nicht zu steigern vermag, da das Streaming-System nicht nachkommt.

Umso höher man nun die Qualität und Auflösung schraubt umso mehr Minimum Speicher benötigt man, was aber nicht heißt noch mehr bringe weitere Zugewinne.

Wenn man nun zum Beispiel in einem Spiel erst nach einiger Zeit Framedrops bekommt (wie ober bei Grid), hat das Spiel ein schlechtes Streaming, nicht die Karte zwangsläufig zu wenig Ram. Da aber immer größere Speichergrößen verbaut und gekauft werden, sparen siche Entwickler halt gern die Optimierungen und überlassen dies den Treiber Abteilungen der GPU Hersteller.
 
Zuletzt bearbeitet:
Wiesi21 schrieb:
Bei Race Driver Grid hatte ich mit meiner damaligen extrem übertakteten 8800GT1024 derben Inputlag, und Slow-mo bei höchster Qualitätsstufe (trotz angezeigten 45+ FPS)....

Ich habe Race Driver Grid mit einer 8800 GTS 512 MB komplett durchgespielt in 1280*1024@4AA. Das Spiel lief durchgehend absolut flüssig und die Bildrate war immer deutlich über 40fps. Der von dir beschriebene Input-Lag trat bei einigen Treiberversionen auf (ich glaube vor ein paar Monaten), wurde später aber behoben.
 
Mich interessiert wie du bei MW2 auf einen so hohen V-Ram verbrauch kommst. Ich spiele unter Vista64 (Spielt ja glaub wegen DX9 eh keine Rolle) auf einem 22'' Monitor und kenne sowas wie Fps-Einbrüche zumindest bei MW2 nicht. Graka kannste ja der Signatur entnehmen.
 
<-- ist so lange durch das Armenviertel gerannt bis ich jede Ecke mal gesehen habe und damit jede Textur mal geladen werden musste^^
 
hehe du gibst dir echt mühe :D

aber nimm doch mal lieber einen 22'' oder 24'' zum vergleich. 30'' ist ja utopisch und für 98% aller user irrelevant.

und das ein 19'' oder 22'' fast gleich viel v-ram frisst wie dein 30'' glaub ich einfach nicht. außerdem limitiert ja auch noch oft genug ein anderer faktor als der v-ram. wie gesagt hatte bei mw2 mit höchst möglichen einstellungen nie ruckler oder sonstiges. und ich habe ja nur 896mb vram :)
 
Zuletzt bearbeitet:
ThomasSilent schrieb:
und das ein 19'' oder 22'' fast gleich viel v-ram frisst wie dein 30'' glaub ich einfach nicht.
Ohne AA schon.

Und zum Thema MW2: Habe ich an einem 30er in 2.560 mit 2x SSAA auf einer HD5870 durchgezockt. Was hat gebremst? Die GPU. Nicht der VRAM.
 
Ich habe gesehen das Left 4 Dead 1 dabei ist. Mich würde 2 ja mal intressieren, da dieses eine deutlich bessere Grafik hat (meiner Meinung).

Könnte jemand der einen 30" Monitor hat es mal testen?

mfg
 
Das hat keine größeren Texturen, nur ein paar mehr und ein leicht besseres Streaming. Zieht ergo kaum mehr VRAM. Stichwort Cross-Plattform.
 
Ok danke für die Info.

Ist schon erstaunlich wie lange es die Source Engine schon gibt und für mich immernoch eine top Spielegrafik.
 
Ohne AA schon.

Und zum Thema MW2: Habe ich an einem 30er in 2.560 mit 2x SSAA auf einer HD5870 durchgezockt. Was hat gebremst? Die GPU. Nicht der VRAM.

schön und gut, ich drehe aa aber immer voll auf wenn es möglich ist :)
zudem merkt man den unterschied mit und ohne aa sehr deutlich.

mit dem 2ten satz willst du mir sagen das eine 5870 nicht ausreicht für die auflösung oder wie? verstehe nicht ganz was ich damit jetzt anfangen soll
 
Zurück
Oben