Leserartikel VRAM-Usage aktueller Titel

So, ein Nebenprodukt aus einem Stabilitätstest:

BF1942

ingame alles auf Maximum, Auflösung 1280x960, HQ, keine Optimierungen, 32x S und 8x SG-TSSAA per nVidia-Inspector

VRAM-Bedarf: 880 MB

bf1942-vram-usage-880mb-jpg.225449
 

Anhänge

  • BF1942 VRAM Usage 880MB.jpg
    BF1942 VRAM Usage 880MB.jpg
    292 KB · Aufrufe: 986
Zuletzt bearbeitet:
So, hat leider etwas länger gedauert die Analyse.

Kommen wir zur Analyse.

Ich habe die Daten nochmals ein wenig aufbereitet (siehe Anhang). Die Tabelle besteht nunmehr nur noch aus 3 Datenblättern. Eines enthält die Rohdaten + einige Berechnungsvorgänge für die Analysen.
Die Werte sind immer bezogen als Prozentwerte zur Leistung der Grafikkarten bei 1680x1050 ohne AA/AF.

Betrachten wir zunächst mal die Auflösungsskalierung (Analyse1).

Man sieht sehr gut dass ohne AA/AF die Skalierung der Karten nahezu identisch ist. Voraussetzung ist jedoch das man hierzu die Werte rausnimmt in welchen ganz klar plötzliche Leistungseinbrüche auftreten.

Von 1680x1050 auf 1920x1200 ergeben sich folgende Mittelwerte und praktisch keine Auffälligkeiten, Standardabweichung im Rahmen, keine Ausreißer.
Die Zahl der Pixel steigt hierbei um den Faktor 1,306 an (also ~30%). Die Leistungseinbußen sind:
0xAA | 4xAA | 8xAA
AMD single GPU: 89,0 | 86,8 | 85,2
AMD dual GPU: 92,7 | 84,4 | 84,4
nVidia: 86,3 | 91,2 | 88,9

Das ergibt ein etwas besseres Verhältnis als Wurzel aus 1,306 (zur Umrechnung in die hier betrachteten Leistungseinbußen braucht man davon allerdings den Kehrwert =0,875 das entspricht in etwa den berechneten Leistungseinbrüchen).

Betrachten wir den Sprung 1680x1050 auf 2560x1600 also eine Skalierung um den Faktor 2,322:
0xAA | 4xAA | 8xAA
AMD single GPU: 73,0 | 67,3 | 62,7
AMD dual GPU: 68,3 | 67,1 | 58,4
nVidia: 75,4 | 68,2 | 64,8

Wieder die Wurzel des Kehrwerts = 0,656 und somit nahe an der "Realität" der Einbußen. Es scheint die Faustregel ganz gut bestätigt, dass die Leistung gut mit der Wurzel der Auflösung skaliert.

Man sieht auch das der Einfluss von AA/AF recht linear in die Skalierung eingeht da sich die prozentualen Einbußen nicht merklich verschieben.

Man erkennt zudem dass unter 1920x1200 es ebenfalls keinerlei Ausreißer gibt (erkennbar an den Minimum/Maximum Werten sowie der geringen Standardabweichung insgesamt).
Man sieht abgesehen von Crysis WH auch keine maßgeblich unterschiedlichen Effekt und auch diese eine kleine Ausnahme scheint noch im "Rahmen" der Streuung der Werte zu liegen.

Betrachten wir 2560x1600 genauer.
Hier ist das Bild leider nicht mehr so einheitlich. Es lässt sich vermuten dass die HD6990 Profile wohl noch schwierigkeiten machen (11,8% Standardabweichung im vgl. mit 6,3% der single GPU ohne AA). Bei 4xAA und 8xAA hingegen sieht man keine derartige Tendenz bzw. lässt sich nicht mehr aus der größeren Streuung der Werte herausdeuten.

Ungewöhnlich ist auch die fast 100% Skalierung bei SC2/AMD HD 6990. Dazu habe ich keine Vermutungen weshalb dies so ist.

Ebenfalls deutlich erkennbar ist dass die AMD Karten mit hohen Auflösungen überproportional besser skalieren als die nVidia Pendants. Dies dürfte Hardware-architektonische Gründe haben ?
Besonders ins Auge springt die eigentlich sehr schlechte Skalierung von SC2 und Crysis WH für beide AMD und nVidia bei 8xAA in 2560x1600. Ganz markant aber auch der besonders überproportionale nVidia Einbruch in diesen beiden Titeln und in geringerem Umfang auch in ME2. Ursache lässt sich nur durch den Blick in den Datenbereich klären in welchem man sieht dass eben bereits einzelne Karten "völlig" versagen.
Wenn man sich die Daten im Datenblatt für diese Ausreißer ansieht sieht man sehr gut dass dies auf einen Totalabsturz oder beginnenden "Totaleinbrüche" zurückzuführen ist welche meiner Meinung nach zu einem Großteil mangelndem VRAM zuzuschreiben sind.

Dies erklärt ebenso die "schlechte" Skalierung von Metro2033 im 4xAA 2560x1600 setting. Ein Blick ins Datenblatt zeigt die einbrüche der 1GB Karten.

Anhand dieser Betrachtungen lassen sich also sehr wohl "flaschenhals" bedingte Einbrüche aus der Gesamtheit der Daten extrahieren damit uns diese in der nun folgenden AA-Skalierungsbetrachtung nicht so stören.

Auffällig ist auch dass die HD6990 zudem praktisch IMMER besser skaliert mit zunehmender Auflösung als HD6970 und Co. Und dass die GTX570 praktisch immer schlechter skaliert als die GTX560 und GTX580 (dies ist nur dem Datenblatt zu entnehmen für die Skalierungsbetrachtung als solche habe ich nur die Mittelwerte benutzt).

Analyse 2: AA-Skalierung.

In die Mittelung der AA-Werte flossen dieses mal nur diejenige Werte ein Welche ganz augenscheinlich NICHT durch ein Limit sei es VRAM oder sonst etwas aus dem Ruder laufen ! (abgsehen von SC2 aber dazu später)

Kommen wir zum Knackpunkt - ich wollte zeigen dass ALLE Spiele außer SC2 "normal" skalieren und nur SC2 bei AMD nicht "funktioniert". Meine Vermutung hat sich wie es aussieht zum Teil bestätigt, zum Teil aber auch nicht. Es scheint wohl aber so zu sein das die schlechte AA-Skalierung zum Teil auch noch kaschiert wird durch überproportional schlechte Auflösungsskalierung seitens nVidia.

Jedoch denke ich sollte man auch Battleforge hinzuzählen. Nimmt man diese beiden Titel aus den 4xAA (bzw. 8xAA) Skalierungen raus erhält man eine ganz typische statistische Verteilung für 4xAA und auch bei 8xAA wird das Bild etwas "einheitlicher".

Die Ursache ist mir nicht ganz klar. ABER es scheint ein gewisses Treiberproblem zu sein. Die HD6990 wurde mit neueren Treibern getestet als die HD6970&Co. Der Analyse der Datenzufolge tritt der Effekt bei HD6990 auch wesentlich schwächer auf.

Dies erklärt vermutlich auch den unterschied in CoDMW2. Auch hier ist die Skalierung der 6990 praktisch gleichauf mit nVidia, die single GPUs 69xx aber skalieren mit ca. -5-11% im Vergleich (je nach Auflösungen - die 6990 hingegen ist praktisch immer vorneweg.

Bei 8x AA ist das bild durchwachsener und so zeigen sich diverse Unterschiede. Insbesondere ME2 und Crysis als nVidia negativausreißer fallen auf.

Abgesehen von Treiberperformance finde ich auch keine vernünftige Erklärung warum die HD6990 praktisch immer besser skaliert als einzelne HD69xx Karten. Im Gegenteil sollte nicht der Einbruch sogar stärker ausfallen aufgrund der Crossfireproblematik und der Tatsache das die CF-Skalierung ja NIE 100% erreicht ?.

Diese Diskrepanzen sind auch nicht mit VRAM Einbrüchen erklärbar da ich diese ja anhand der Auflösungsskalierungsbetrachtung denke ich nahezu vollständig eliminiert habe).

Auffällig auch der totale Skalierungseinbruch der nVidia Karten bei SC2 - bei keinem anderen Spiel ist es derart stark zu beobachten. Möglicherweise deutet sich hier ein "VRAM-Mangel der 1,5GB GTX 580 und 1.25GB GTX 570 an ?
Denn die AMD Karte mit 2GB skalieren nahezu unbeeindruckt bei 8xAA 2560x1600 mit ~70%. Die GTX580 grade mal mit 37,2%, die 570 mit 26,3 und die 560 mit 19,4.

Ich glaube auch nicht dass eine HD6950 mehr "allgemeine Rohleistung" hat als eine GTX 580 - der Flaschenhals hier muss woanders her stammen oder etwas sehr spezifisches sein. VRAM fällt mir dazu als erstes ein.

Somit bleibt wohl ein insgesamt durchwachsenes Bild zurück. Ich denke jedoch dass ein wesentlich Teil der AA Problematik wohl Treiberbedingt sein müsste und der alte HD69xx Treiber eben hier in einigen Engines noch Probleme gemacht hat.
Die Daten zeigen dass diese bei der HD6990 nicht mehr in dem Umfang auftreten - außer in SC2.

Zusammenfassend lässt sich sagen VRAM (oder anderweitig) bedingte Einbrüche treten bei folgenden Kombinationen auf:

Bei 4xAA:
CrysisWH@2560x1600@AMD@HD 6950 1GB
Metro2033@2560x1600@AMD@HD 6950 1GB
Metro2033@2560x1600@nVidia@GTX 560
Stalker CoP@2560x1600@AMD@HD 6950 1GB (Andeutung eines Einbruches)
Stalker CoP@2560x1600@nVidia@GTX 570 (Einbruch da Skalierungsdifferenz zur GTX 580 deutlich ?)
Stalker CoP@2560x1600@nVidia@GTX 560 (Einbruch da Skalierungsdifferenz zur GTX 580 deutlich ?)

Bei 8xAA
ME2@2560x1600@nVidia@GTX 560
SC2@1920x1200@AMD@HD 6950 1GB (erste Anzeichen eines Leistungseinbruches)
SC2@1920x1200@nVidia@GTX 560 (erste Anzeichen eines Leistungseinbruches)
SC2@2560x1600@AMD@HD 6950 1GB
SC2@2560x1600@nVidia@GTX 560
SC2@2560x1600@nVidia@GTX 580 (möglicherweise ?)
SC2@2560x1600@nVidia@GTX 570 (wahrscheinlich ?)
CrysisWH@2560x1600@AMD@HD 6950 1GB
CrysisWH@2560x1600@nVidia@GTX 570 (beginnender Einbruch)
CrysisWH@2560x1600@nVidia@GTX 560
F1 2010@2560x1600@AMD@HD 6950 1GB
LP2@2560x1600@AMD@HD 6950 1GB
LP2@2560x1600@nVidia@GTX 560

Hat jemand dazu Kommentare ?
 
Zuletzt bearbeitet:
Das heisst, dass man selbst bei der Auflösung von 1650 x 1080 gut mit einer 1gb Karte leben kann, solange sie von der neusten Generation ist.
 
Ja dieser Analyse nach ja.

Auch mit 1920x1080 dürfte das in den meisten Titeln noch gut gelangen - wenn man nicht gerade HD-Mods etc. nutzt oder "exotischere" Bildaufwertungsmittel wie SSAA, etc. nutzt.

Dragon Age 2 mit HD scheint ja da durchaus kritisch zu sein was man so hört.
Ich könnte mir auch bei Shogun2 und 1920x1080 maximalen Details vorstellen dass es mit einer 1GB Karte knapp wird.
Ich denke, dass es mittelfristig von AMD eine "weise" Wahl für die 2GB AMD Karten war und es damit eher möglich sein wird im "high-end" Bereich zu bleiben als selbst für die doch gut ausgestattet 1.5GB GTX580. Das erkennt man ansatzweise schon in den Beispielen in welchen selbst die HD 6950 2GB einer GTX 580 das fürchten lehrt.

Denn VRAM-Belastung muss nicht gleichbedeutend mit "Rohleistungsproblemen" der einen oder anderen Art sein.

ABER VRAM alleine scheint nicht eben alles zu sein - warum sonst skalieren AMD Karte überproportional besser mit höheren Auflösungen als nVidia Karten ?
Warum gibt es da z.T. diese enormen unterschiede ob ich AA anhab in Engine XY mit nVidia oder AMD ?
Wieso wechselt die "AA"-Skalierung plötzlich von massivem Vorteil bei 4xAA zu Nachteil oder bestenfalls gleichauf bei 8xAA ?

Diese Analyse und die Daten daraus könnte man noch beliebig erweitern und fortführen und man würde zuhauf "Auffälligkeiten" der einen oder anderen Art finden. Viele führen diese Probleme dann einfach auf "mangelndes" VRAM zurück und gut is....das ganze ist aber denk ich nicht so einfach.
 
Ich habe mir heute mal die VRAM- Nutzung bei AC: Brotherhood angeschaut
bei 1920x1080, maximalen Details und 8x MSAA (in-game), waren es von Anfang an in jeder Szene, zwischen 1080 und 1150MB.
Im Vergleich dazu war AC 2 mit ca. 500MB noch relativ sparsam.
 
Danke Iscaran, war sehr interessant ;)
 
ABER VRAM alleine scheint nicht eben alles zu sein -

1. warum sonst skalieren AMD Karte überproportional besser mit höheren Auflösungen als nVidia Karten ?

2. Warum gibt es da z.T. diese enormen unterschiede ob ich AA anhab in Engine XY mit nVidia oder AMD ?

3. Wieso wechselt die "AA"-Skalierung plötzlich von massivem Vorteil bei 4xAA zu Nachteil oder bestenfalls gleichauf bei 8xAA ?

1. : wohl die Architektur

2. : kann alles mögliche sein ^^

3. : auch hier wieder die Architektur

Dazu, dass die Radeons mit den hohen Auflösungen verhältnismäßig gut zurechtkommen und dafür die Architektur der GPU verantwortlich ist, könnte ich mir gut vorstellen, dass das (mitunter) daran liegt, dass die Radeon-Karten aufgrund der 5D/4D Shader-Konstruktion mehr Rechenleistung für viele, gleichartige Rechenaufgaben haben. Diese kommt aber nur bei solchen Szenarien zum Tragen, wo die Auslastung der Einheiten hoch ist.
 
Ja stimme dir im wesentlichen zu die 4D/5D Shader architektur scheint mit zunehmender Auflösung besser skalierbar zu sein...zumindest klingt deine Erklärung hierzu plausibel für mich.

Ob das komplexere Datenstrukturen erzeugende DX11 hier auf Dauer vielleicht auch noch Vorteile bringt ?

Über die "besseres" VRAM-Management Theorie jedoch lassen sich nach wie vor meiner Meinung nach schwerlich wirklich belege finden.
Sehe ich mir die Ergebnisse des letzten CB-Tests eben wie bei oben durchgeführter genauerer Betrachtung an findet man mehr überproportionale Einbrüche bei mehr Karten als zunächst angenommen.
Im Gesamten ist das Bild also recht statistisch verteilt...wenn eine 1GB AMD Karte nicht reicht bricht zumeist auch eine 1GB nVidia ein wobei es eben mal zu einem Totaleinbruch (also ~0 fps) von der einen wie von der anderen Seite kommt.
 
Ich denke, dass es mittelfristig von AMD eine "weise" Wahl für die 2GB AMD Karten war und es damit eher möglich sein wird im "high-end" Bereich zu bleiben als selbst für die doch gut ausgestattet 1.5GB GTX580. Das erkennt man ansatzweise schon in den Beispielen in welchen selbst die HD 6950 2GB einer GTX 580 das fürchten lehrt.
Wow verdammt viel Arbeit deine Listen. Da hast du wohl alle FPS Einbrüche raus gefischt. Respekt.

Was deiner Liste fehlt und genau so schlimm ist wenn nicht noch schlimmer sind die Nachladeruckler wenn der Vram am Limit ist. Grad bei 1GB Karten sehr schnell der Fall und dann spielt ein gutes Vram Management seine Stärken aus, Nachladeruckeln oder nicht...
Also die Liste könnte man noch erheblich ausbauen mit einem extremen Aufwand mit Frametimes. Ich bleib da lieber bei den Erfahrungen von HisN und anderen Leuten die ich vertraue. Vor allem wenn ihr mal 2 etwa gleiche Karten habt die sich nur im Vram unterscheiden und die direkt nebeneinander laufen lässt bzw. wechseln könnt, seht ihr die Unterschiede erst so richtig. Zb 8800GT 512v. 8800GT 1024. Denn meistens ist es ja so, was man nicht kennt, das juckt einem auch nicht. Oder habt ihr früher alle mit MSAA gespielt? Bis zur 8800GTX hat mich das nicht im geringsten gestört.

Mehr als genug bringt keinen Vorteil
Eigentlich schon und zwar den größten von allen, man kann seine teure Karte auch in ein paar Jahren noch ohne Vram Mangel fahren wie die 8800GTX 768MB gezeigt hat. Die hatte den Ruf "schneller" zu sein, war sie aber nur in Games mit Vram Vorteil gegenüber den 512MB Karten. Der sich aber im laufe der Zeit immer öfter gezeigt hat und mittlerweile permanent vorhanden ist.

Dazu, dass die Radeons mit den hohen Auflösungen verhältnismäßig gut zurechtkommen und dafür die Architektur der GPU verantwortlich ist, könnte ich mir gut vorstellen, dass das (mitunter) daran liegt, dass die Radeon-Karten aufgrund der 5D/4D Shader-Konstruktion mehr Rechenleistung für viele, gleichartige Rechenaufgaben haben. Diese kommt aber nur bei solchen Szenarien zum Tragen, wo die Auslastung der Einheiten hoch ist.
Seh ich auch so, 1D Shader haben dann wiederum den Vorteil flexibler auf neue Engines zu reagieren. Ausnahmen wie Dragon Age II gibts aber immer wieder.

Ob das komplexere Datenstrukturen erzeugende DX11 hier auf Dauer vielleicht auch noch Vorteile bringt ?
Könnte durchaus sein, Fermi bekommt immer Schwierigkeiten wenn viel Rohleistung + DX 11 Features gleichzeitig gefragt sind. Aber das hängt wohl auch im groben daran wie die Engine mit der Architektur skaliert. Aber bei einem bin ich mir sicher, die Tessellations Leistung(Heaven DX11 Benchmark) von Fermi ist nicht mehr vorhanden wenn gleichzeitig viel anderes berechnet wird. Und bei den Caymans könnte am Schluss dann sogar mehr Tessellations Leistung real rüber gebracht werden. Dragon Age II mit massiv tessallierten Boden (mehr wurde noch nie tesselliert in einem Game?) könnte dafür ein Hinweis sein.

wenn eine 1GB AMD Karte nicht reicht bricht zumeist auch eine 1GB nVidia ein
Rechnet man mit ein, das AMD beim Filter wohl ein paar % spart ist die klare Tendenz Richtung NV zu sehen. Vor allem wenn man das über einen längeren Zeitraum verfolgt und nicht nur einen Test. PCGH hat das ja auch bestätigt und die testen 1000de Games, fast schon alles was es so gibt. Also im Zweifel vertrau ich PCGH und meinen Beobachtungen.
 
Zuletzt bearbeitet:
Bei Just Cause und Mafia II schaut es nach dem Vram aus. Da stimmt irgend was nicht, eventuell Nachladreruckler schon vorhanden. Sind alles sehr hohe Settings, da sind wir schon in dem Gebiet wo der Vram was reißen kann. Leider gibts keine Vram Messung drüber. Aber anhand der Benchmarks kann man schon auf den Vram tippen. Die Karte bricht ja schon deutlich ein, bei beiden Games...
https://www.computerbase.de/2010-12/test-amd-radeon-hd-6970-und-hd-6950/17/#abschnitt_just_cause_2
https://www.computerbase.de/2010-12/test-amd-radeon-hd-6970-und-hd-6950/13/#abschnitt_mafia_2
Wartet einfach noch ein bisschen auf die GTX 570 2560MB Version, mit etwas Glück gibts die bald: https://www.computerbase.de/forum/threads/gtx-570-2-5gb-vram.869684/
 
Zuletzt bearbeitet:
Was deiner Liste fehlt und genau so schlimm ist wenn nicht noch schlimmer sind die Nachladeruckler wenn der Vram am Limit ist. Grad bei 1GB Karten sehr schnell der Fall und dann spielt ein gutes Vram Management seine Stärken aus, Nachladeruckeln oder nicht...

Ja die Nachladeruckler sind schon schlimm (wenn man sich so eine Monsterkarte zulegt) - aber in den Frameverläufen sehe ich die jetzt nicht so arg....ich meine ein FPS drop von 30 auf 25 ist ja noch kein "Ruckler". Außerdem verlaufen da die grünen und roten Karten in den meisten fällen sehr gleichmäßig und meist nur parallel verschoben. Das denke ich liegt an Engine bzw. Benchmarksspezifischen aktionen.

Den einzigen "krassen" Nachladeruckler den ich aus den verlinkten frameverläufen sehe ist bei Stalker CoP von ca 50fps auf 20 fps - aber das tritt bei beiden sorten auf. Ist also denke ich was level/engine spezifisches.

Was die gtx570 performance angeht - die Einbruchsanalyse zeigt das diese IMMER stärker einbricht als GTX580 und GTX560....ich tippe da eher auf "schlechtere" Treiber.

Denn die 580/570/560 liegen bis auf wenige prozentpunkte hier gleich auf und die 560 bricht zumindest in JC2 weniger stark ein als eine 570 obwohl sie ja nur 1GB statt 1,25GB hat.
 
Hallo,

Seit ein paar Tagen ist der Stalker CoP Complete Mod draußen. Ich komme da mit meinem 1GB Vram bei max. Details an die Grenzen. Das Bild stottert und macht einfach kein Spaß zu zocken. Es geht aber aber wenn ich AA ausschalte und den Rest auf max. habe. Da komme ich genau auf 1000MB Vram (bei 1920x1080) und ich kann ganz gut flüssig spielen.

Wer von euch zockt das auch und hat evtl. mehr Vram (2-3GB) zur Verfügung? Wie läuft das Spiel dann unter dem Mod bei max. Einstellungen? Und vor allem aber , wieviel frißt der Vram? Wie hoch sind dann die fps?
 
Kasmopaya schrieb:
Könnte durchaus sein, Fermi bekommt immer Schwierigkeiten wenn viel Rohleistung + DX 11 Features gleichzeitig gefragt sind. Aber das hängt wohl auch im groben daran wie die Engine mit der Architektur skaliert. Aber bei einem bin ich mir sicher, die Tessellations Leistung(Heaven DX11 Benchmark) von Fermi ist nicht mehr vorhanden wenn gleichzeitig viel anderes berechnet wird. Und bei den Caymans könnte am Schluss dann sogar mehr Tessellations Leistung real rüber gebracht werden. Dragon Age II mit massiv tessallierten Boden (mehr wurde noch nie tesselliert in einem Game?) könnte dafür ein Hinweis sein.

Das ist richtig und auch völlig klar. Denn vor und nach dem Tesselieren ist viel Shaderarbeit gefragt und hier kann AMD einfach 1D von den 4D abstellen, da es ja völlig unabhängig von dem andren Zeugs ist. nVidia muss hier die wertvollen Shader fürs normale Bild anknabbern.

Könnte also gut sein, dass sich die enorme FFU Leistung der Fermis immer weiter relativiert, während Cayman noch massig Puffer bis zu den theoretischen 2,7 TFLOP/s hat.
 
Kasmopaya:
Rechnet man mit ein, das AMD beim Filter wohl ein paar % spart ist die klare Tendenz Richtung NV zu sehen.

Ich glaube nicht dass AMD hier am "VRAM" spart. Vielleicht an der Rechenarbeit aber am VRAM ?...Mein wissen über die Architekturen reicht allerdings nicht dies zu belegen oder zu erläutern.

Wenn ich mir die Datenlage jedoch so ansehe scheint es eher so zu sein dass der "Pre-load" Anteil bei AMD und nVidia sehr verschieden zu sein scheint von Engine zu Engine (und bild zu bild). Somit ist die Speicherbelegung offenbar unterschiedlich "aktiv" und ich behaupte jetzt mal das man vor allem diesen effekt in den Fameverläufe sieht und dahingehend auch die Auswirkung auf die Speicherverwaltung eintritt.

Es kann aber auch sein und das folgende ist eine Theorie von mir die mir in den letzten Tagen einfiel.
Vielleicht spielen auch in der "Speicherverwaltung" wieder die 1D vs. 4D shader eine Rolle in dem Sinne dass AMD wohl mehr zeugs vorrätig hält im VRAM um da "flexibler" reagieren/arbeiten zu können.
Dies scheint dann letztlich dazu zu führen das AMD karten eben einen "VRAM" Overhead bzgl. der 1D nVidia karten haben. Bei "grenzwertigen" Situationen brechen diese Karten dann eben ein takken eher weg als nVidia Karten weilbei ihnen letztlich das swappen eher einsetzt.

Möglicherweise war dies ein Grund dafür dass AMD dies bemerkt hat und nun verstärkt auf 2GB fürs high-end gesetzt hat. 1.5GB oder andere Größen wären ja ohne erhebliches Chip-redesign nicht möglich gewesen.
 
stillshady schrieb:
Wer von euch zockt das auch und hat evtl. mehr Vram (2-3GB) zur Verfügung? Wie läuft das Spiel dann unter dem Mod bei max. Einstellungen? Und vor allem aber , wieviel frißt der Vram? Wie hoch sind dann die fps?

Hab den Mod gestern mal getestet.
Einstellungen MAX (2xAA wie üblich)

In 2560x1600 flüssige 60 FPS mit etwa 1.1GB VRAM-Verbrauch im ersten Abschnitt. Da ich plötzlich einen Schlafsack dabei habe um zu pennen denke ich dass der Mod funktioniert^^.
 
Möglicherweise war dies ein Grund dafür dass AMD dies bemerkt hat und nun verstärkt auf 2GB fürs high-end gesetzt hat. 1.5GB oder andere Größen wären ja ohne erhebliches Chip-redesign nicht möglich gewesen.
Was würd ich geben wenn AMD endlich den Vram Verbrauch per Treiber auslesen lassen würde. Trau mich fast wetten das dort andere Ergebnisse stehen werden als bei den grünen.
In 2560x1600 flüssige 60 FPS mit etwa 1.1GB VRAM-Verbrauch im ersten Abschnitt.
Also geschätzt 1,8GB Vram wenn man auf 30FPS geht und den Rest in Bildqualität umwandelt. Nur schade das ich nur DSL light habe, sonst würd ich auch mehr testen. (das könnt ihr jetzt auslegen wie ihr wollt:D) Leider habe ich nicht jedes Spiel + fetten HD Textur Mod...
 
Was würd ich geben wenn AMD endlich den Vram Verbrauch per Treiber auslesen lassen würde. Trau mich fast wetten das dort andere Ergebnisse stehen werden als bei den grünen.

Stimme dir 100% zu ! Vielleicht muss man die AMD Treiber Crew (übers Driver Feedback Programm) nur lange genug nerven - schliesslich gab es ja ein passendes Tool für XP.

Evtl. hilft es ja auch wenn PC Magazine diesen umstand immer wieder mal ansprechen würden...*auf CB, PCGH und Konsorten schielt*
 
Zurück
Oben