Leserartikel VRAM-Usage aktueller Titel

Nein. Leider nicht. Aber im Moment geht Anno sowieso vor^^
 
Hisn, dein Chip ist aber keine Perle oder warum läuft der nicht auf 1500-1600MHz? :D

Mal schauen, ob ich nachher gleich dazu komme, mal Minecradft zu testen. Müsste eigentlich gehen, den Speicher vollzuklatschen.
 
Die Karten die über 1500 laufen sind aber auch recht selten;)
 
Für mich ist es bereits eine Perle, wenn man in Far Cry 4 nicht Hairworks deaktivieren muss, damit der Treiber nicht abstürzt. ;)
 
Und wenn die Karte da auf Stock abschmiert? Geht bei mir seit mehreren 980 nicht mit Gameworks-Einstellungen und bei der 780 waren die Nvidia-Haare eh nur kurz an, weil die Karte zu schwach dafür war. Liegt m.M.n. an Software(-Komposition), wenn das mit Nvidia-Einstellungen abschmiert. Deine oder Hisns Karte stürzt vermutlich auch ab, wenn ich die in meinen Rechner stecken würde. (Angenommen, ich hätte auch Wasser drin.)

Bei GTA5 habe ich auch Tessellation an, zwar nicht Haare, aber Tessellation in Form von plastischeren Oberflächen. Das kackt nicht ab, seitdem ich den Error bei GTA bereits vor der TI gefixt habe. Nvidia-Schatten gingen auch. Komisch, bei Spie A gehen Nvidia-Einstellungen, bei Spiel B nicht.

Wegen Luftkühlung mit bis ~80°C möchte ich eh weniger Takt machen als die 1514MHz vom Wassertest beim Verkäufer.

GTA5 brauchte mit Hintergrundkrinte ca. 4400MB, Schatten am weichsten, 2*MSAA an, TXAA aus, FXAA an, Auflösung auf 1080P, Tiefenschärfe aus, Rest auf Maximum. Far Cry 4 brauchte mit Hintergrundkrinte so um die 2500-2800MB, MSAA aus, FXAA an, Nvidia-Einstellungen alle aus, bzw. die jeweils beste Nicht-Nvidia-Einstellung. Rest auf Maximum.
 
du musst da nix spoilern,
sobalb man Grafikeffekte senken muss, um stabilität zu erzielen , stimmt was nicht.

ich hab auf meiner magersüchtigen 970 FC4 u. GTA5 durchgespielt, ohne ein Absturz, mit fetten 1506 Standard Vgpu.

soviel probs, wie du hast, is es quasi unvorstellbar, dass die kart de Loser is.
 
Lass per PN, weil das hier Offtopic ist.

Edit:

Minecraft hat erwartungsgemäß den Speicher gefüllt. Maximum war bei 6045MB. Hintergrundkrinte 600-700MB. Arbeitsspeicher war auch komplett voll. Texturpack war Sphax mit 256 Pixel, TME-Schader und 32 Chunks Sichtweite, aber wohl nicht komplett geladen, sonst hätte die CPU nicht mal 18FPS geschafft. (Aber die Performance ist auch bei 16 Chunks Sichtweite schlichtweg zum Kotzen! Geht auch stellenweise auf 20FPS runter oder noch weniger. Aber es ist ja noch die 1.8, aber M$ und Mojang werden auch nichts bei der 1.9 an der Performance verbessern.)
 
Zuletzt bearbeitet:
Ashes of Singularity

4GB in der Benchmark-Szene, DX12 Maxed-Out (kein AA)



Unter DX11 .. 500(!) MB weniger.
 
Zuletzt bearbeitet:
HisN schrieb:
@datvader

Oder meinst Du die Auflösung meines Monitors? Das ist doch nebensächlich wie ich versucht habe mit den beiden kleinen Screenshots in 640x480 und 800x600 zu zeigen. Die benutzte VRAM-Menge ändert sich nicht mit der Auflösung. Und ja: ich hab meine Spiele gerne mit so viel EYE-Candy wie möglich, und JA: Das kostet VRAM. Und mein 2. Monitor. Rechne doch mal: 1024x768x32. Dann haste die Menge an VRAM in Bytes die der 2. Moni braucht.

Ich verstehe nicht wieso die Auflösung keinen Einfluss auf VRam hat. Das Zitat ist von Anno Dazumal aber bitte deswegen nicht in der Luft zerpflücken.
Ist eben nur eine Verständnisfrage die du mir vielleicht erläutern kannst. @HisN
 
Der Löwenanteil der Daten im Vram sind Texturen. Und die belegen den Speicher und abhängig davon ob das Polygon auf das sie gezogen werden nun 10px Seitenlänge oder 1000px Seitenlänge hat. Die Menge die sich mit der Auflösung ändert ist z.b. das was die Antialiasing Filter an Vram brauchen.
 
Hisn

Scroll mal auf nen Fleck mit nur Wasser und schau dir mal dein PT an, über den Städten sinds humane 270-300 Watt über dem Wasser knackt sie fast die 375 Watt :D In Anno
 
Zuletzt bearbeitet:
Da gehe ich mit dir konform HisN aber meine menschliche Logik lässt mich denken einen Monitor mit xyz mehr Pixeln zu füllen, seien es Texturen und oder Schatten und oder Nebel kostet doch eben genau diesen Grafikkartenspeicher.

Wenn du jetzt sagst, was du ja auch in den Shots bewiesen hast, die Auflösung spielt nur eine untergeordnete Rolle dann will ich das irgendwie nicht verstehen.

Ich kann das zu Hause schlecht nachstellen, habe leider zu wenig HArdware für einen Test mit unterschiedlichen Auflösungen aber neugierig bin ich schon was zum Beispiel ein aktuelles Game an Vram bei 4k frisst im Vergleich zu einem normalen Zocker-Setup
 
Beispiel Witcher3

FHD


UHD


Der VRAM-Gebrauch steigt von 2.2 auf 2.8GB wenn ich die Auflösung vervierfache. Das ist zwar nicht "nix" aber für mich in den Bereichen "nicht wirklich relevant"
Es hängt halt viel davon ab was die Engine wie macht.

Erst wenn ich auf 8K gehe, dann ist der Anstieg signifikant^^


D.h. wenn ich die Auflösung versechzehnfache, dann verdreifache ich den VRAM-Gebrauch.
Das ist in der Relation 16/3 doch eigentlich auch zu vernachlässigen.
Gut ich gebe zu "keine" Änderung ist es nicht. Aber sie ist im Verhältnis immer noch gering.
 
Hilpi schrieb:
Hisn

Scroll mal auf nen Fleck mit nur Wasser und schau dir mal dein PT an, über den Städten sinds humane 270-300 Watt über dem Wasser knackt sie fast die 375 Watt :D In Anno



Hmm.. ich sollte mein 350W PT überdenken.

Das erste Game, bei dem ich ins Power-Target renne. Und das nicht mal in UHD.




Edit: Bei 375W passt es wieder

 
Zuletzt bearbeitet:
Kann man am Powertarget rumfummeln ohne an der Karte rumzufrickeln? Dachte da gibt es Spezifikationen die nicht oder nur geringfügig überschritten werden dürfen /sollen. Auch wegen der Stromanschlüsse und der Abwärme an den KAbeln.
375 Watt ist ne Hausnummer.

Da müssen die Goldhamster ganz schön strampeln.
 
Mod-Bios. Falls Du das mit rumfummeln meinst.
Ansonsten hast Du ja nur die Möglichkeit per Software das PT um ein paar Prozent aufzuweichen.
 
ja okay genau das meinte ich. Wobei die Leistung ja abhängig ist von Strom und Spannung. P=U*I und ich am Strom ja in gewisser Weise ja bissl rumfummeln kann.

Schon interessant wenn plötzlich die Stromzufuhr zum limitierenden Faktor wird. Ob sich das auswirkt ist die andere Frage.
 
An meinem Beispiel sind es 4 FPS :-)
 
Zurück
Oben