Leserartikel VRAM-Usage aktueller Titel

OK, mit ugrid 9 siehts bissl anders aus. :D
OSD funktioniert mit Surroundview bei Tomb Raider leider nicht, da bin ich aber mit 40fps voll im Gpu Limit und brauche 1,8GB Vram. Auflösung ist 6000x1080.
Fallout 4 ugrid 9.jpg2015-11-22_00002.jpg2015-11-22_00003.jpgTomb Raider Einstellungen.png
 
Zuletzt bearbeitet:
Wenn ich max. Grafik ohne DSR benutze, wechselt sich bei Far Cry 2 CPU- und Grafikkartenlimit ab. CPU ist so bei ca. 30-40%, also benutzt das Spiel ungefähr 3 Threads, die verteilt werden. Windows verteilt dann so, dass 1 Thread voll ist. 5 Threads sind bisschen gefüllt und 2 werden gar nicht benutzt. Bei DSR ist in der Summe die CPU-Auslastung wegen dauerhaftem Grafikkartenlimit so bei ca. 20-30%, während ein Thread trotzdem komplett voll ist. Kleines bisschen abziehen wegen Hintergrundprogramme.

Fehlendes Speicherauslastungsbild kommt gleich.

Edit:
Mit max. Grafik und max. AA auf 3840*2160 knapp 2600MB inkl. knapp 300MB Hintergrundkrinte (@ Suddendeath: ;) ):

Auch hier muss man bei DSR das Powertarget aufdrehen, damit die Grafikkarte sich nicht verstümmelt. :)
 
Zuletzt bearbeitet:
Hintergrundkrinte
:D Man kann es mit "verstümmeln" auch übertreiben & wenn verstümmelt wird, dann wird halt leicht runtergetaktet & da ist bei dieser Resi/Auflösung & ~115FPS immer noch gut Puffer.^^

@HisN
CPU @Stock bei deinen F4-Bildern (Post#3991), also alle 8 Kerne mit 3,0GHz?
 
SuddenDeathStgt schrieb:
:
@HisN
CPU @Stock bei deinen F4-Bildern (Post#3991), also alle 8 Kerne mit 3,0GHz?

Nein, volle Pulle 4.4Ghz.
Ich dachte ich sollte einen Gegentest mit 3Ghz machen, aber dazu bin ich nicht gekommen :-)
Im Taskmanager kann man in einem der beiden Screens die 4.4Ghz auch sehen (hab jetzt gerade nur einen angeschaut).
 
Die dicke Taktangabe, also die Geschwindigkeit, ist im Taskmanager immer noch fehlerhaft. Das war bei mir schon vor TH2 so & nach dem Update immer noch.^^
Beispielbildchen ist @Primelast & lt. Geschwindigkeitsangabe würde da meine CPU mit 5,25GHz takten. Tatsächlich anliegender Takt ist jedoch 4,3GHz & ich hab das mal entsprechend markiert.
Bei dem angesprochenem Post von Dir(3991) würde lt. meinem Verständnis deine CPU mit 3,0GHz takten ... :-)


edit:
SuddenDeathStgt schrieb:
...Vielleicht liegt der moderate Verbrauch aber auch an meiner (Über-)Taktrate von 5,2GHz, die per Taskmanager angezeigt wird & natürlich real auch anliegen...^^:freaky:
Ich hab die irreführende Taktangabe "durch die Blume" hier auch schon mal angesprochen ...:D
 

Anhänge

  • RealerTakt@Primelast.PNG
    RealerTakt@Primelast.PNG
    63,1 KB · Aufrufe: 469
Zuletzt bearbeitet: (Ergänzung ...)
^^ Normalerweise hab ich ja die Taktraten von HWInfo im OSD mit eingeblendet, aber bei mir stimmen die in der Regel mit denen im Taskmanager überein.
Wir haben übrigens gestern noch mal das Turbo-Problem der Haswell/Ivy-Es auseinandergenommen. Tritt bei mir fast nicht auf.

 
Rainbow Six Siege in der neuen Open Beta, wo nun auch endlich alle Anti Aliasing Modi ingame verfügbar sind und greifen.

Einstellungen alles auf max, 16xAF, 8xMSAA in 2560x1600 Auflösung mit NVidia Treiber 358.50@ Vanilla Treibereinstellungen.

Fast 5 GB auf dem PvE Karten Villa und Hereford Base bei Terroristen Jagd im Hardmodus.
Und die Titan X an der 30 FPS Kotzgrenze trotz über 1.400 Mhz. dauerhaften Takt :freak:

CPU Performance Probleme aufgrund der Energiesparmodi meiner Intel Core i7 4960x CPU kann ich ebenfalls in keiner einzigen Situation feststellen trotz allen aktivierten Energiespareinstellungen im UEFI.

Habe mein Windows 8.1 Pro X-64 in den Energiespareinstellungen manuell auf maximale Performance eingestellt und es reicht schon ein dauerhaftes Bewegen der Maus, um alle 6 Kerne von 1.200Mhz. Energiespar Takt dauerhaft auf 4.300 Mhz. zu halten.
Selbst beim browsen im Netz oder Instant Messaging Programen taktet meine CPU sofort auf maximum Takt.

Habe in allen meinen Spielen und Programmen nun seit 2 Monaten Nutzungszeit keinerlei Probleme mit meinem 4960x Sechskerner @ 4.300Mhz. auf allen Kernen, im Vergleich zum alten 4820k Vierkerner auf dem selben Taktlevel von 4.300 Mhz.

Ganz im Gegenteil: Windows Start geht sogar nochmal einen ticken schneller, Virenscann geht auch schneller und in meinen Favoriten Games habe ich je nach Spiel 3-4 FPS mehr bei den Minimum FPS und leicht höhere Maximum FPS in Peaks, während die Durchschnitts FPS meistens unverändert blieben.

Mehr als die täglich üblichen Tätikkeiten wie browsen, office, youtube, twitch, virenscan, spiele benchmarks, Mining von Lite Coins, 32'er Team Speak 3 Host Server und die Videospiele Battlefield 3, Battlefield 4, Rainbow Six Siege und Crysis 3 habe ich aber auch noch nicht testen können bis jetzt.
Aber all das lief mühelos ohne jegliche Probleme oder Nachteile zu meinem alten Core i7 4820k @ 4.300 Mhz.
 

Anhänge

  • RainbowSix_2015_11_24_21_17_59_038.jpg
    RainbowSix_2015_11_24_21_17_59_038.jpg
    370,7 KB · Aufrufe: 490
  • RainbowSix_2015_11_24_20_51_43_358.jpg
    RainbowSix_2015_11_24_20_51_43_358.jpg
    357,1 KB · Aufrufe: 465
Zuletzt bearbeitet: (Rechtschreibprüfung)
HisN schrieb:
Wir haben übrigens gestern noch mal das Turbo-Problem der Haswell/Ivy-Es auseinandergenommen. Tritt bei mir fast nicht auf.
Möglicherweise ist die Angabe auch fehlerhaft, wenn SMT aktiviert/genutzt wird. Werde ich in Kürze mal testen. Da bei Dir ja idR auch SMT deaktiviert ist, normal bei einem nativen 8Kerner im Bereich daddeln^^,
könnte daher die Anzeige korrekt sein. Könntest Du noch rein interessehalber den Taskmanager @Primelast ablichten & posten? Es eilt aber nicht ... :-)

@Thompson1981
In einem Shooter ~30FPS & die Graka ackert chronisch am Limit? Ist das für Dich noch (gut) spielbar? Ich würde einfach mal die AA-Keule drosseln um somit mehr Frames zu generieren/erhalten.
Der Verzicht an BQ ist da je nach Resi/Auflösung z.T. äußerst marginal bzw. fällt kaum auf, wenn man das AA drosselt ... :-)
 
#3994
Genau deshalb meine zaghafte Einschränkung.
 
SuddenDeathStgt schrieb:
@Thompson1981
In einem Shooter ~30FPS & die Graka ackert chronisch am Limit? Ist das für Dich noch (gut) spielbar? Ich würde einfach mal die AA-Keule drosseln um somit mehr Frames zu generieren/erhalten.
Der Verzicht an BQ ist da je nach Resi/Auflösung z.T. äußerst marginal bzw. fällt kaum auf, wenn man das AA drosselt ... :-)

Bezweifle ich mal. MSAA auf 2* oder ganz aus und das billige FXAA benutzen.
 
Hier nochmal ein letzter Sreenshot des VRAM Verbrauchs der letzen und auch grafisch anspruchsvollsten Map der neuen Rainbow Six Siege Beta: Der Hafen von Hamburg.

Einstellungen alle identisch zu oben:

Alles auf max, 16xAF, 8xMSAA in 2560x1600 Auflösung mit NVidia Treiber 358.50@ Vanilla Treibereinstellungen.

Gut spielbar ist es natürlich nicht mit 30 FPS, da die Maus hier schon leicht schwammig wird.

Aber wollte eben nur zeigen was das neue Rainbow Six so an Hardwareleistung und VRAM frisst auf absoluten Max Einstellungen.

Spielbar ist es erst mit 2xMSAA bei allen sonstigen Einstellungen auf Max.

Denoch überascht mich der Performance Hunger des neuen Rainbow Six gewaltig, dass selbst mit der besten derzeit erhältlichen Graka mit der Titan X auf absolut maximalen Grafikeinstellungen + 8xMSAA nicht mehr als 30 FPS drinn sind.
Selbst mit 4xMSAA ist es noch leicht ruckelig bei etwa 37 FPS und mit 2xMSAA zwar sehr gut spielbar, aber immer noch knapp unter der 60 FPS Grenze.

Und das obwohl die Grafikqualität nun wirklich keine Bäume ausreist und eher so auf dem Stand 2010 ist.

Das jetzt schon 4 Jahre alte Battlefield 3 sieht deutlich besser aus und läuft auf max. Einstellungen + 4xMSAA mit 120 FPS im Schnitt, obwohl hier ebenfalls jedes Projektil einer Waffe realistisch berechnet wird und man bei Battlefield 3 ebenfalls viel in der Umgebung zerstören kann.
 

Anhänge

  • RainbowSix_2015_11_24_23_26_19_781.jpg
    RainbowSix_2015_11_24_23_26_19_781.jpg
    410,3 KB · Aufrufe: 503
2k und viel Msaa kosten eben viel Leistung. Msaa kostet meist auch einiges an Vram.
 
Möglicherweise ist die Angabe auch fehlerhaft, wenn SMT aktiviert/genutzt wird. Werde ich in Kürze mal testen.
Das gleiche Spiel. "Home-User" sind halt doch User 2. Klasse ...:D
 

Anhänge

  • RealerTakt@Primelast_4Threads.PNG
    RealerTakt@Primelast_4Threads.PNG
    52,9 KB · Aufrufe: 469
RSS Voreinstellung Ultra (TAA+Temporaler Filter)

RainbowSix_2015_11_26_23_44_26_167.pngRainbowSix_2015_11_26_23_43_39_475.pngRainbowSix_2015_11_26_23_28_19_164.png

Grafik is ziemlich altbacken. CPU-Auslastung is aber gut beim Achtthreader, 80% hab ich mal gesehn, hab aber nur selten drauf geschaut.
 
Wenn die schon wie bei GTA fiktive Autos nehmen, können die wenigstens mal die nicht vorhandenen Nummernschilder auf HH anpassen. Ist wenigstens die Map originalgetreu?

Far Cry 2 war mit Shadermod bei ca. 3200MB inkl. 600MB Hintergrundkrinte. Grafik auf Max. bei 4K inkl. AA. Allerdings war die gesamte CPU-Auslastung schlechter, also bei ca. 25%, aber die Grafikkarte war nie im Limit. Shader brauchte also eher CPU als Grafikkarte. Die FPS waren auch schlechter.
 
Star Citizen PTU-Alpha 2.0



Abgesehen vom CPU-Limit haben sie den VRAM-Gebrauch selbst in UHD und VeryHigh kräftig gedrückt :-)
 
Wieder ein Spiel mit mangelnder Multicoreoptimierung und deshalb ruckelt das bei 30FPS rum. :kotz: Aber vielleicht wird ja das ja noch was. Haben es ja hinbekommen, dass der Speicherverbrauch zurückhaltend ist, sodass Karten mit wenig Speicher nicht krüppeln.
 
Zurück
Oben