Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Leserartikel VRAM-Usage aktueller Titel
- Ersteller HisN
- Erstellt am
Banger
Fleet Admiral
- Registriert
- Aug. 2010
- Beiträge
- 39.521
Wenn ich max. Grafik ohne DSR benutze, wechselt sich bei Far Cry 2 CPU- und Grafikkartenlimit ab. CPU ist so bei ca. 30-40%, also benutzt das Spiel ungefähr 3 Threads, die verteilt werden. Windows verteilt dann so, dass 1 Thread voll ist. 5 Threads sind bisschen gefüllt und 2 werden gar nicht benutzt. Bei DSR ist in der Summe die CPU-Auslastung wegen dauerhaftem Grafikkartenlimit so bei ca. 20-30%, während ein Thread trotzdem komplett voll ist. Kleines bisschen abziehen wegen Hintergrundprogramme.
Fehlendes Speicherauslastungsbild kommt gleich.
Edit:
Mit max. Grafik und max. AA auf 3840*2160 knapp 2600MB inkl. knapp 300MB Hintergrundkrinte (@ Suddendeath: ):
Auch hier muss man bei DSR das Powertarget aufdrehen, damit die Grafikkarte sich nicht verstümmelt.
Fehlendes Speicherauslastungsbild kommt gleich.
Edit:
Mit max. Grafik und max. AA auf 3840*2160 knapp 2600MB inkl. knapp 300MB Hintergrundkrinte (@ Suddendeath: ):
Auch hier muss man bei DSR das Powertarget aufdrehen, damit die Grafikkarte sich nicht verstümmelt.
Zuletzt bearbeitet:
SuddenDeathStgt
Banned
- Registriert
- März 2004
- Beiträge
- 13.603
Man kann es mit "verstümmeln" auch übertreiben & wenn verstümmelt wird, dann wird halt leicht runtergetaktet & da ist bei dieser Resi/Auflösung & ~115FPS immer noch gut Puffer.^^Hintergrundkrinte
@HisN
CPU @Stock bei deinen F4-Bildern (Post#3991), also alle 8 Kerne mit 3,0GHz?
- Registriert
- Nov. 2005
- Beiträge
- 82.792
SuddenDeathStgt schrieb::
@HisN
CPU @Stock bei deinen F4-Bildern (Post#3991), also alle 8 Kerne mit 3,0GHz?
Nein, volle Pulle 4.4Ghz.
Ich dachte ich sollte einen Gegentest mit 3Ghz machen, aber dazu bin ich nicht gekommen :-)
Im Taskmanager kann man in einem der beiden Screens die 4.4Ghz auch sehen (hab jetzt gerade nur einen angeschaut).
SuddenDeathStgt
Banned
- Registriert
- März 2004
- Beiträge
- 13.603
Die dicke Taktangabe, also die Geschwindigkeit, ist im Taskmanager immer noch fehlerhaft. Das war bei mir schon vor TH2 so & nach dem Update immer noch.^^
Beispielbildchen ist @Primelast & lt. Geschwindigkeitsangabe würde da meine CPU mit 5,25GHz takten. Tatsächlich anliegender Takt ist jedoch 4,3GHz & ich hab das mal entsprechend markiert.
Bei dem angesprochenem Post von Dir(3991) würde lt. meinem Verständnis deine CPU mit 3,0GHz takten ... :-)
edit:
Beispielbildchen ist @Primelast & lt. Geschwindigkeitsangabe würde da meine CPU mit 5,25GHz takten. Tatsächlich anliegender Takt ist jedoch 4,3GHz & ich hab das mal entsprechend markiert.
Bei dem angesprochenem Post von Dir(3991) würde lt. meinem Verständnis deine CPU mit 3,0GHz takten ... :-)
edit:
Ich hab die irreführende Taktangabe "durch die Blume" hier auch schon mal angesprochen ...SuddenDeathStgt schrieb:...Vielleicht liegt der moderate Verbrauch aber auch an meiner (Über-)Taktrate von 5,2GHz, die per Taskmanager angezeigt wird & natürlich real auch anliegen...^^
Anhänge
Zuletzt bearbeitet:
(Ergänzung ...)
- Registriert
- Nov. 2005
- Beiträge
- 82.792
Thomson1981
Lt. Commander
- Registriert
- Sep. 2008
- Beiträge
- 1.254
Rainbow Six Siege in der neuen Open Beta, wo nun auch endlich alle Anti Aliasing Modi ingame verfügbar sind und greifen.
Einstellungen alles auf max, 16xAF, 8xMSAA in 2560x1600 Auflösung mit NVidia Treiber 358.50@ Vanilla Treibereinstellungen.
Fast 5 GB auf dem PvE Karten Villa und Hereford Base bei Terroristen Jagd im Hardmodus.
Und die Titan X an der 30 FPS Kotzgrenze trotz über 1.400 Mhz. dauerhaften Takt
CPU Performance Probleme aufgrund der Energiesparmodi meiner Intel Core i7 4960x CPU kann ich ebenfalls in keiner einzigen Situation feststellen trotz allen aktivierten Energiespareinstellungen im UEFI.
Habe mein Windows 8.1 Pro X-64 in den Energiespareinstellungen manuell auf maximale Performance eingestellt und es reicht schon ein dauerhaftes Bewegen der Maus, um alle 6 Kerne von 1.200Mhz. Energiespar Takt dauerhaft auf 4.300 Mhz. zu halten.
Selbst beim browsen im Netz oder Instant Messaging Programen taktet meine CPU sofort auf maximum Takt.
Habe in allen meinen Spielen und Programmen nun seit 2 Monaten Nutzungszeit keinerlei Probleme mit meinem 4960x Sechskerner @ 4.300Mhz. auf allen Kernen, im Vergleich zum alten 4820k Vierkerner auf dem selben Taktlevel von 4.300 Mhz.
Ganz im Gegenteil: Windows Start geht sogar nochmal einen ticken schneller, Virenscann geht auch schneller und in meinen Favoriten Games habe ich je nach Spiel 3-4 FPS mehr bei den Minimum FPS und leicht höhere Maximum FPS in Peaks, während die Durchschnitts FPS meistens unverändert blieben.
Mehr als die täglich üblichen Tätikkeiten wie browsen, office, youtube, twitch, virenscan, spiele benchmarks, Mining von Lite Coins, 32'er Team Speak 3 Host Server und die Videospiele Battlefield 3, Battlefield 4, Rainbow Six Siege und Crysis 3 habe ich aber auch noch nicht testen können bis jetzt.
Aber all das lief mühelos ohne jegliche Probleme oder Nachteile zu meinem alten Core i7 4820k @ 4.300 Mhz.
Einstellungen alles auf max, 16xAF, 8xMSAA in 2560x1600 Auflösung mit NVidia Treiber 358.50@ Vanilla Treibereinstellungen.
Fast 5 GB auf dem PvE Karten Villa und Hereford Base bei Terroristen Jagd im Hardmodus.
Und die Titan X an der 30 FPS Kotzgrenze trotz über 1.400 Mhz. dauerhaften Takt
CPU Performance Probleme aufgrund der Energiesparmodi meiner Intel Core i7 4960x CPU kann ich ebenfalls in keiner einzigen Situation feststellen trotz allen aktivierten Energiespareinstellungen im UEFI.
Habe mein Windows 8.1 Pro X-64 in den Energiespareinstellungen manuell auf maximale Performance eingestellt und es reicht schon ein dauerhaftes Bewegen der Maus, um alle 6 Kerne von 1.200Mhz. Energiespar Takt dauerhaft auf 4.300 Mhz. zu halten.
Selbst beim browsen im Netz oder Instant Messaging Programen taktet meine CPU sofort auf maximum Takt.
Habe in allen meinen Spielen und Programmen nun seit 2 Monaten Nutzungszeit keinerlei Probleme mit meinem 4960x Sechskerner @ 4.300Mhz. auf allen Kernen, im Vergleich zum alten 4820k Vierkerner auf dem selben Taktlevel von 4.300 Mhz.
Ganz im Gegenteil: Windows Start geht sogar nochmal einen ticken schneller, Virenscann geht auch schneller und in meinen Favoriten Games habe ich je nach Spiel 3-4 FPS mehr bei den Minimum FPS und leicht höhere Maximum FPS in Peaks, während die Durchschnitts FPS meistens unverändert blieben.
Mehr als die täglich üblichen Tätikkeiten wie browsen, office, youtube, twitch, virenscan, spiele benchmarks, Mining von Lite Coins, 32'er Team Speak 3 Host Server und die Videospiele Battlefield 3, Battlefield 4, Rainbow Six Siege und Crysis 3 habe ich aber auch noch nicht testen können bis jetzt.
Aber all das lief mühelos ohne jegliche Probleme oder Nachteile zu meinem alten Core i7 4820k @ 4.300 Mhz.
Anhänge
Zuletzt bearbeitet:
(Rechtschreibprüfung)
SuddenDeathStgt
Banned
- Registriert
- März 2004
- Beiträge
- 13.603
Möglicherweise ist die Angabe auch fehlerhaft, wenn SMT aktiviert/genutzt wird. Werde ich in Kürze mal testen. Da bei Dir ja idR auch SMT deaktiviert ist, normal bei einem nativen 8Kerner im Bereich daddeln^^,HisN schrieb:Wir haben übrigens gestern noch mal das Turbo-Problem der Haswell/Ivy-Es auseinandergenommen. Tritt bei mir fast nicht auf.
könnte daher die Anzeige korrekt sein. Könntest Du noch rein interessehalber den Taskmanager @Primelast ablichten & posten? Es eilt aber nicht ... :-)
@Thompson1981
In einem Shooter ~30FPS & die Graka ackert chronisch am Limit? Ist das für Dich noch (gut) spielbar? Ich würde einfach mal die AA-Keule drosseln um somit mehr Frames zu generieren/erhalten.
Der Verzicht an BQ ist da je nach Resi/Auflösung z.T. äußerst marginal bzw. fällt kaum auf, wenn man das AA drosselt ... :-)
Banger
Fleet Admiral
- Registriert
- Aug. 2010
- Beiträge
- 39.521
SuddenDeathStgt schrieb:@Thompson1981
In einem Shooter ~30FPS & die Graka ackert chronisch am Limit? Ist das für Dich noch (gut) spielbar? Ich würde einfach mal die AA-Keule drosseln um somit mehr Frames zu generieren/erhalten.
Der Verzicht an BQ ist da je nach Resi/Auflösung z.T. äußerst marginal bzw. fällt kaum auf, wenn man das AA drosselt ... :-)
Bezweifle ich mal. MSAA auf 2* oder ganz aus und das billige FXAA benutzen.
Thomson1981
Lt. Commander
- Registriert
- Sep. 2008
- Beiträge
- 1.254
Hier nochmal ein letzter Sreenshot des VRAM Verbrauchs der letzen und auch grafisch anspruchsvollsten Map der neuen Rainbow Six Siege Beta: Der Hafen von Hamburg.
Einstellungen alle identisch zu oben:
Alles auf max, 16xAF, 8xMSAA in 2560x1600 Auflösung mit NVidia Treiber 358.50@ Vanilla Treibereinstellungen.
Gut spielbar ist es natürlich nicht mit 30 FPS, da die Maus hier schon leicht schwammig wird.
Aber wollte eben nur zeigen was das neue Rainbow Six so an Hardwareleistung und VRAM frisst auf absoluten Max Einstellungen.
Spielbar ist es erst mit 2xMSAA bei allen sonstigen Einstellungen auf Max.
Denoch überascht mich der Performance Hunger des neuen Rainbow Six gewaltig, dass selbst mit der besten derzeit erhältlichen Graka mit der Titan X auf absolut maximalen Grafikeinstellungen + 8xMSAA nicht mehr als 30 FPS drinn sind.
Selbst mit 4xMSAA ist es noch leicht ruckelig bei etwa 37 FPS und mit 2xMSAA zwar sehr gut spielbar, aber immer noch knapp unter der 60 FPS Grenze.
Und das obwohl die Grafikqualität nun wirklich keine Bäume ausreist und eher so auf dem Stand 2010 ist.
Das jetzt schon 4 Jahre alte Battlefield 3 sieht deutlich besser aus und läuft auf max. Einstellungen + 4xMSAA mit 120 FPS im Schnitt, obwohl hier ebenfalls jedes Projektil einer Waffe realistisch berechnet wird und man bei Battlefield 3 ebenfalls viel in der Umgebung zerstören kann.
Einstellungen alle identisch zu oben:
Alles auf max, 16xAF, 8xMSAA in 2560x1600 Auflösung mit NVidia Treiber 358.50@ Vanilla Treibereinstellungen.
Gut spielbar ist es natürlich nicht mit 30 FPS, da die Maus hier schon leicht schwammig wird.
Aber wollte eben nur zeigen was das neue Rainbow Six so an Hardwareleistung und VRAM frisst auf absoluten Max Einstellungen.
Spielbar ist es erst mit 2xMSAA bei allen sonstigen Einstellungen auf Max.
Denoch überascht mich der Performance Hunger des neuen Rainbow Six gewaltig, dass selbst mit der besten derzeit erhältlichen Graka mit der Titan X auf absolut maximalen Grafikeinstellungen + 8xMSAA nicht mehr als 30 FPS drinn sind.
Selbst mit 4xMSAA ist es noch leicht ruckelig bei etwa 37 FPS und mit 2xMSAA zwar sehr gut spielbar, aber immer noch knapp unter der 60 FPS Grenze.
Und das obwohl die Grafikqualität nun wirklich keine Bäume ausreist und eher so auf dem Stand 2010 ist.
Das jetzt schon 4 Jahre alte Battlefield 3 sieht deutlich besser aus und läuft auf max. Einstellungen + 4xMSAA mit 120 FPS im Schnitt, obwohl hier ebenfalls jedes Projektil einer Waffe realistisch berechnet wird und man bei Battlefield 3 ebenfalls viel in der Umgebung zerstören kann.
Anhänge
fanatiXalpha
Fleet Admiral
- Registriert
- Aug. 2011
- Beiträge
- 13.666
das bezweifle ich sehr starkobwohl hier ebenfalls jedes Projektil einer Waffe realistisch berechnet wird
das sind einfach vorgefertigte Modelle bei denen sie sich bedienen
die schauen noch auf die distanz und das wars dann
SuddenDeathStgt
Banned
- Registriert
- März 2004
- Beiträge
- 13.603
Das gleiche Spiel. "Home-User" sind halt doch User 2. Klasse ...Möglicherweise ist die Angabe auch fehlerhaft, wenn SMT aktiviert/genutzt wird. Werde ich in Kürze mal testen.
Anhänge
M
meckswell
Gast
Banger
Fleet Admiral
- Registriert
- Aug. 2010
- Beiträge
- 39.521
Wenn die schon wie bei GTA fiktive Autos nehmen, können die wenigstens mal die nicht vorhandenen Nummernschilder auf HH anpassen. Ist wenigstens die Map originalgetreu?
Far Cry 2 war mit Shadermod bei ca. 3200MB inkl. 600MB Hintergrundkrinte. Grafik auf Max. bei 4K inkl. AA. Allerdings war die gesamte CPU-Auslastung schlechter, also bei ca. 25%, aber die Grafikkarte war nie im Limit. Shader brauchte also eher CPU als Grafikkarte. Die FPS waren auch schlechter.
Far Cry 2 war mit Shadermod bei ca. 3200MB inkl. 600MB Hintergrundkrinte. Grafik auf Max. bei 4K inkl. AA. Allerdings war die gesamte CPU-Auslastung schlechter, also bei ca. 25%, aber die Grafikkarte war nie im Limit. Shader brauchte also eher CPU als Grafikkarte. Die FPS waren auch schlechter.
Banger
Fleet Admiral
- Registriert
- Aug. 2010
- Beiträge
- 39.521
Wieder ein Spiel mit mangelnder Multicoreoptimierung und deshalb ruckelt das bei 30FPS rum. Aber vielleicht wird ja das ja noch was. Haben es ja hinbekommen, dass der Speicherverbrauch zurückhaltend ist, sodass Karten mit wenig Speicher nicht krüppeln.
fanatiXalpha
Fleet Admiral
- Registriert
- Aug. 2011
- Beiträge
- 13.666
aber SC basiert doch auf der CryEngine 3
die ist doch Multicoreoptimiert dachte ich
oder liegt das noch an den Entwicklern selbst das korrekt "einzustellen" bzw. zu nutzen?
die ist doch Multicoreoptimiert dachte ich
oder liegt das noch an den Entwicklern selbst das korrekt "einzustellen" bzw. zu nutzen?
Ähnliche Themen
- Antworten
- 41
- Aufrufe
- 8.300