Leserartikel VRAM-Usage aktueller Titel

Mir ist gerade etwas komisches aufgefallen
Ich nehme gerade ein paar Messungen meiner GTX 460 vor, dazu takte ich sie vom Referenztakt bis 900 Mhz Core hoch
Unter dem Heaven Benchmark fällt mir nun bei einem Takt von 900 Mhz Core eine ca. 25MB höhere Vram-Belastung als mit 675 Mhz auf.
Ist das normal?
 
Die GPU ist durch die 900Mhz takt schneller und braucht daher mehr Daten im lokalen VRAM, um nicht asgebremst zu werden. Das dürfte es sein.
 
Aber der Verbrauch wird doch durch das Programm bestimmt, das gerade Verwendung findet. Also wenn die Sache immer gleich nach einem Neustart gemacht wurde (um so auszuschließen, dass andere Anwendungen da ihre Spuren hinterlassen und das Ergebnis verfälschen), müsste der Verbrauch eigentlich gleich sein.

Ich könnte mir aber vorstellen, dass für den Fall, dass dieses Mehr an Verbrauch nicht sofort sondern erst nach einiger Zeit anliegt, die Karte aufgrund des höheren Taktes neue Daten anfordert, während der Speicherentleerungsvorgang die nicht mehr benötigten Daten noch nicht entsorgt hat. Vielleicht weil dieser Vorgang nicht an den Takt gekoppelt ist. Ist aber wie gesagt eine Mutmaßung.
 
Alter irgendjemand hatte da aber mal zu viel zeit.
Ist aber klasse, dass du allen zeigst, we viel man wirklich braucht.
 
Borderlands geht in 1920er Auflösung mit 16xAA und 8xSGSSTAA (ich weiß das Mischwort dafür nicht^^) mit über 1.5GB VRAM-Verbrauch völlig in die Knie (2 FPS) während man mit 4xSGSSTAA mit 1.45GB flüssig läuft. Da ist das VRAM das Ende.

Gestern beim Testen von der GTX580 meines Nachbars nebenbei rausgekommen^^
 
Zuletzt bearbeitet:
Wenn die Daten nicht mehr ausreichend schnell geliefert werden können, weil der VRAM voll ist und die Swap-Daten aus dem RAM zu lange brauchen, dann brechen die fps so böse ein. Insofern ist das strikt, ja.^^
 
Ich dachte dank der DMA-Engine kann man auch mehr als die verbaute Speichermenge belasten ohne dass die fps so übel einbrechen?
 
Sollte es eigentlich auch. Aber laut HisNs Schilderung scheint es nicht an der Rohleistung gelegen zu haben, dass die fps so einbrachen.

2fps vs. "flüssig" (also mindestens 25fps oder mehr) spricht zumindest auf den ersten Blick dafür, dass es da nicht an der Rohleistung (allein?) gemangelt hat.
 
leider zeigt ja das interface nicht mehr wie viel man drüber ist. 1512 scheint der höchste wert bei einer gtx580 mit 1,5gb zu sein.
 
das was du benutzt um das vram auszulesen. gibt da ja mehrere Möglichkeiten^^
 
Steh ich grad auf dem Schlauch? Es wurden doch schon weit höhere VRAM-Verbräuche als 1512MB ausgelesen.
 
Er meint wahrscheinlich, dass das Programm nur die 1512 MB maximal angibt was die Graka zur Verfügung hat. Benutzt du eine GTX 580 mit 3 GB werden wahrscheinlich 3072 MB maximal angezeigt. Wie viel der Wert darüber liegt aber leider nicht.
 
genau so ist es gemeint.
 
Auch mit Rivatuner? Damit hast du doch schon VRAM-Belegungen ausgelesen, die über dem vorhandenen Grafikspeicher lagen, oder?
 
Jupp, aber nur solange XP32/64 lief. Da ging das noch weil VRAM nicht virtualisiert war und nicht nur über eine Schnittstelle im Nvidia-Graka-Treiber ausgelesen werden konnte, sondern der Wert vom OS zur Verfügung gestellt wurde.
 
Borderlands geht in 1920er Auflösung mit 16xAA und 8xSGSSTAA (ich weiß das Mischwort dafür nicht^^) mit über 1.5GB VRAM-Verbrauch völlig in die Knie (2 FPS) während man mit 4xSGSSTAA mit 1.45GB flüssig läuft. Da ist das VRAM das Ende.
Genau auf solchen Beobachtungen hab ich mich verlassen. Und 450€ für ein Vram Limit zu zahlen und das schon in den ersten Monaten nach Kauf wollte ich auf keinen Fall. Meine Karte soll min. 3 Jahre im Einsatz sein und dann immer noch kein Vram Limit kennen. Genau darum wurde es eine GTX 580 3GB. Das die GTX 580 1,5GB aber per se kein Vram Krüppel ist, ist klar. Eine GTX 560 1GB und eine GTX 590 2x1,5GB aber schon. Nur um das mal klar zustellen, weil in letzter Zeit wieder die großen Fragen nach dem warum und wieso auftauchen...

Genauso wie eine HD 6970 1GB ein Vram Krüppel ist.
 
Zurück
Oben