Leserartikel VRAM-Usage aktueller Titel

Ich hab gerad mal ne Stunde Boarderlands mit Downsampling gezockt, das Spiel war eigentlich schon von meiner Platte runter.

Bei 3840x2160p mit 16xAF und vollen Details außer Bloom und Tiefenunschärfe hat das Spiel zwischen 1320MB und 1510MB Vram gesaugt/belegt und lief meistens bei 50-60fps butterweich. Gab laut Afterburner auch minimale kurze Drops auf 22fps runter, hab ich aber nichts von gemerkt.

Ich denke diese Einstellung sollte reichen für ein Spiel das von Haus aus doch recht billig aussieht, um das gröbste gerade zu rücken.

Ps: Das Game ist ne Vram Schleuder. Der Verbrauch/die Belegung steht in keinem Verhältnis zur BQ-Leistung
Ergänzung ()

Hab nun ebenfalls noch ne Stunde Dirt2 gezockt und was soll man sagen, dieses Game kann mit Vram umgehen !

Das Spiel belegt in 3840x2160p + 4xMSAA @ alles high lediglich 1380-1499 MB Vram. Es lässt sich in 2160p mit 8xAA dann aber kaum mehr starten. Man kann sich vorstellen das eine solche "Downsämplung" @ 2560x1440 nativ p und einem ppi von 109 dann endbrutal geil aussieht bei diesem Spiel :)

Der Knüller ist, das mit meinen 480ern das ganze auch noch fast ausschließlich bei 60 fps im Vsync läuft, ganz seltene Drops auf gut 40 fps sind, für mich zumindest, nicht warnehmbar.

Das ganze findet bei einer stätigen Auslastung von 75-100% Auslastung der Karten statt (@900Mhz).

Es lebe 1,5 GB Vram, es lebe SLI :lol:

Gestern hab ich den Titel COD 4 MWF @ 2160p und 4x MSAA gezockt und lediglich eine Vram Belastung von ca. 1100MB gehabt. Weitere AA zuschaltungen über den Treiber hab ich mir erspart, denn es gibt an glattheit nichts mehr auszusetzen bei diesen Settings ;)

Der eher durchschnittlich Vram anspruchsvolle Unigine Heaven Bench liegt bei 2160p und 2x MSAA bei max 1440 MB Vram und läuft, zwar etwas ruckelig bei durchschnittlich 25 fps, aber es gibt keine Vram Probleme. Und da kommt ein Boarderlands mit nicht einmal der Möglichkeit 2xAA zu zuschalten :freak:

Boarderlands ist leider realität in der Spielelandschaft, sollte aber mMn nicht überbewertet werden da die "Performance" wohl nur eine unterirdische Ausnahme darstellt.

Was natürlich nichts daran ändert das man nie zu viel Vram haben kann. In 28nm shrink Time werde ich das natürlich beachten :daumen:
 
Zuletzt bearbeitet:
Zuletzt bearbeitet:
Crossfire Sebi schrieb:
Haha den gleichen Bildschirm habe ich auch^^

Glückwunsch, ist zur Zeit warscheinlich der beste Monitor zum Downsamplen.

Bis 4800x3000p hat der Gouvernator @ 3DC damit hingekriegt. 5120x2880 kann man auch im Treiber @ 30Hz einstellen, wird aber von kaum einem Game akzeptiert und würde auch nur mit einem triple GTX 580 @ 3GB zu stemmen sein. -> Das ideale Gespann für Kasmo, vielleicht kriegt er damit ja sogar noch nen Texturmod zum laufen :cool_alt:

Wenn man bedenkt was Downsampling an Leistung frisst, dann braucht ein single GPU User sich jedenfalls kein 1440p Gerät zu kaufen. Die Roh Versorgung der DS Auflösung läge in der Regel weit außerhalb seiner Power Reichweite.

Des weiteren brauchst du für den Monitor nicht einmal einen modifizierten Treiber, das lüppt alles so out of the Box, ideal für mich halt :volllol:

Diese extrem Vram raubenden Settings können nur noch von triple Head Setups getoppt werden.

3x 1920x1200 geht bis 6400x3600p und 3x 2560x1440 wird in der Praxis wohl für mindestens 7680x2880p gut sein.
 
Zuletzt bearbeitet:
Es sind 5760x1200, du darfst die vertikale Auflösung nicht mal 3 nehmen, weil die Bildschirme ja nicht höher werden ;)

AMD soll auch mal DS anbieten, in 3840x2160 wird ne GTX580 von der 6950 abgehängt, weil dann die 4D Shader richtig ausgelastet werden und die Radeon die besseren Rasterizer ausspielen kann. Somit wär DS von der Leistung eig ne Radeon Paradedisziplin!
Also AMD macht mal was!
 
Konkret.
Mechwarrior Living Legends (Mod für Crysis) auf der Cysis-Wars-Engine.

2560x1600 mit 2xSSAA (Downsampling) also 5120x3200 ohne AA/AF

Geht meine GTX480OC völlig in die Knie und 1.4GB VRAM sind voll.
 
Zuletzt bearbeitet:
Felixxz21 schrieb:
Es sind 5760x1200, du darfst die vertikale Auflösung nicht mal 3 nehmen, weil die Bildschirme ja nicht höher werden ;)

AMD soll auch mal DS anbieten, in 3840x2160 wird ne GTX580 von der 6950 abgehängt, weil dann die 4D Shader richtig ausgelastet werden und die Radeon die besseren Rasterizer ausspielen kann. Somit wär DS von der Leistung eig ne Radeon Paradedisziplin!
Also AMD macht mal was!

Zu Absatz a :

Hab's gerad nochmal nach gelesen, die erwänte Auflösung stimmt (6400x3600), ist aber eine single Monitor Auflösung gewesen @ 10Hz. Wenn man es genau nimmt dann wäre @ triple Head also theoretisch 3x6400x3600 möglich, natürlich nur @ 10 Hz, womit wir dann wieder bei einer Auflösung in Summe von 1x6400x3600p bei 30 Hz wären. Die Auflösungszahl würde mit 3 Monitoren anders aussehen, die Summe würde @ 30Hz die gleiche wie aus 6400x3600 sein ;)

Und viele Spiele sind bei 30 Hz im Vsync spielbar, auch mit SLI, gewiss nicht alle.

Die absoluten Angaben zur Pixelmenge sind ja auch nur Anhaltspunkte wo die Reise wohl hingeht. Wie gut sich dann 20 Megapixel und mehr live berechnen lassen wird man sehen. Ob das Windows und der NV Treiber überhaupt mit macht ist ja leider noch nicht ganz geklärt. Welches Setup das schaffen soll ist dann nur eine untergeordnete Frage.

http://www.forum-3dcenter.org/vbulletin/showthread.php?t=454698

Zu Absatz b :

NV hat doch gerade den mörder Multi Monitor Treiber in der Mache. Da war doch die Rede von Verbesserungen @ bis zu 400%. Da kann man mal ernsthaft gespannt sein ob sich das nicht tatsächlich in Performance beim DS ummünzt.

Da kriegen wir dann möglicherweise ein Top Vram Management nachgereicht :D

Mit AMD ist schon schade, aber DS ist auch nicht unersetzlich, eigentlich nur Sinnvoll in alten Games einzusetzen. Nüchtern betrachtet zumindest. Das bißchen Mehrtextur ist zwischen 1080p und 1440p auch nicht die Welt. Noch weniger Unterschied ist es dann zwischen 1440p und 2160p, zumindest bei einem Panel mit 109 ppi.

Es macht eigentlich mehr Sinn zwei weitere Full HD Monitore zu kaufen, als eine weitere Graka für DS, wenn man schon einen FullHD Monitor hat.

Ein 1440p User @ 27" braucht nie traurig sein, er hat in 99% der Fälle das bessere Bild :)
 
Zuletzt bearbeitet:
Mit nem Apple Cinema Display hat man sowieso das beste Bild :D
Zumindest im Consumerbereich^^
 
Ist die Interpolation bei den 27 Zöllern so gut oder kriegt man dann eher Gematsche, wenn man auf eine Auflösung unterhalb der nativen downsampled?
 
Als ob mein Apple Screen nicht stilvoll wäre :D

@boxleitnerb

Mein Display kann leider nicht interpolieren sondern nur 16:9 Aufkösungen darstellen. 720p geht natürlich perfekt, weils genau ein Viertel von 2560x1440 ist, die Auflösung ist aber so gering dass es trotzdem Matschepampe wird (Schrift ist gut, Spiele schlecht).
1080p ist in Schrift schlecht, aber in Spielen besser.

Allgemein ist Interpolieren aber sinnlos, da die 6970 für alles in 2560x1440 schnell genug ist, im Zweifellsfall wird AA abgeschaltet, die Auflösung ist eh AA genug :D
 
Interpolation ist generell Vernichtung von Bildqualität. Daher spiele ich mit Rändern, da habe ich immer volle Bildqualität.
 
Wer kommt denn da aus der Versenkung? :D

Geht leider mitm Apple nicht, gibt ja kein Menü. Man kann nur per Software Helligkeit regulieren und den Lichtsensor an/aus machen.
 
Du kannst im Graka-Treiber sagen "nicht skalieren" und immer 2560x1440 darstellen. Ist auch meine Bevorzugte Einstellung. Lieber Ränder als Interpolation.



@y33H@
Endlich. :-)
 
Ich glaube es war in diesem Thread, dass jemand mal gefragt hat (Fettsack?), warum MSAA+Deferred Shading so schlecht performt und MSAA nur bedingt greift.

Hier mal ein Teil aus dem SRAA Paper der TU München/Nvidia

Multisample antialiasing (MSAA) was designed for forward rendering
and encounters severe drawbacks when used in conjunction
with deferred shading algorithms [Koonce 2007; Shishkovtsov
2005]. During forward rendering, MSAA shades once per fragment,
the portion of a primitive intersecting the boundary of a pixel.
MSAA then writes the computed color to all samples in the pixel
covered by that fragment. Since fragments are planar and often
small in world space, the shading across a fragment can be approximated
as constant in many cases and thus MSAA gives quality comparable
to supersampling at a fraction of the cost. REYES [Cook
et al. 1987] uses a similar strategy, but with micropolygons even
smaller than the typical GPU fragment.
Deferred shading performs shading on the final samples in the
framebuffer, when fragments are no longer available. In particular,
there is no longer any information about which samples originate
from the same surface, requiring the algorithm to shade at every
sample. In this case, MSAA degenerates into brute-force supersampling
and its benefits are lost. One can imagine various ad hoc
strategies for guessing which samples come from the same surface
during deferred shading. Such strategies will incur the overhead
of that guess, the warp incoherence of branching independently at
each pixel, and the quality cost of sometimes guessing wrong.
Like MLAA [Reshetov 2009; Jimenez et al. 2011], our algorithm
requires only one shading sample per pixel and uses shading from
adjacent pixels to increase apparent resolution. But MLAA relies
only on final colors, so it applies heuristic rules that can fail to identify
some edges requiring antialiasing. Because SRAA is guided by
geometric samples, it is independent of edge orientation and avoids
certain kinds of overblurring. Since geometric samples are inexpensive
to compute compared to the full shading, its performance is
comparable to MLAA and 1 shading with no antialiasing. Even
though MLAA works only on the final image, the runtime is not
constant but varies with the number of edges. This makes MLAA
difficult to use in games which require fixed time budgets for postprocessing
effects.
SRAA is also similar to Coverage Sampled Antialiasing
(CSAA) [Young 2006], which takes advantage of additional visibility
samples to improve edges. However, CSAA only works with
forward rendering because the fragments corresponding to the coverage
masks are no longer available when a deferred shading pass
occurs.
 
Danke Airbag. Das ist in der Tat interessant für mich.

Somit erklären sich die starken AA Einbußen in Spielen die viel Deferred Shading nutzen - oder warum es gleich ganz abgeschaltet ist. Denn es ist effektiv ein SSAA algorithmus in der Kombination (ohne jedoch von einer "Pseudo-höheren" Auflösung auszugehen bzw. runterzurechnen).

Bleibt nur noch die Frage warum der nVidia algorithmus in Deferred Shading Spielen wie Battleforge und vor allem SC2 dann um sovieles besser Super-sampled als der von AMD - aber das ist ja dann definitiv eine "treiber" Sache, oder ?
 
Ich glaub, an der Diskussion hab ich mich auch einmal beteiligt, kann gut sein. Ebenfalls danke sehr, ist eine recht interessante Lektüre. ;)
 
Zurück
Oben