• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

Test Hogwarts Legacy im Test: Stimmungsvoller VRAM-Fresser mit Upsampling satt

w0wka schrieb:
@Kazuya91 Ich verstehe sehr wohl was du gemeint hast. Ich motze auch nicht. Wenn einer gemotzt hat dann du.
Wenn du es verstanden hast, warum hat deine Aussage mit meiner nichts zu tun?
 
Laphonso schrieb:
ist via Nvidia Geforce Experience implementiert: Taste ALT+F3 im Spiel und die Filter auswählen und einstellen
:)

efb:
Siehe den Beitag von @Exit666 https://www.computerbase.de/forum/t...upsampling-satt.2129935/page-41#post-27882009
Habe das jetzt mal installiert, aber irgendwie spinnt das Programm, zeigt mir zwar schärfen Effekt an, geht aber nur bis 27% und hat dann keine Auswirkung und mehr als Schärfe wird nicht angezeigt bei GOW4 (Gears of War 4) z.B. scheint also nicht bei jedem Spiel zu funktionieren, oder muss man PC neu starten, keine Ahnung?
 
peacermaker schrieb:
ist für mich sowieso ein Rohrkrepierer hat noch nie ordenlich funktioniert
Ist eher ein Problem der Implementation. Bei den meisten Spielen ist es nur ein 'Aufsatz', der mit den Rasterizing-Optionen austauschbar ist. Kann klappen, muß aber nicht.

Sieht man gut in der Enhanced Edition von Metro Exodus, wo das Spiel grundlegend darauf aufbaut. Da funktioniert es und sieht entsprechend gut aus. Ist dann schon eine ganz andere Nummer :). Und braucht in WQHD bei voller Pracht nur ca. 6 GB VRAM.
 
@Alexus6677 @Sapphire Fan


Der testest das Game auf ner APU und ner GT1030.. ich mein... laufen tut es. Auf einer 1070 hab ich hier kurz beschrieben. Das Killerfeature ist FSR2 für alle Karten ohne DLSS und mit einem Ziel Richtung 60FPS gibt es einige Optionen. Was ich nicht testen konnte, wie das Game auf FHD auf dem WQHD aussieht, das ist auch eine Möglichkeit, falls der Monitor nicht allzu groß ist.
 
  • Gefällt mir
Reaktionen: Alexus6677
Also wie in kopfloses Huhn im Schluss rumrennen, resultiert bei mir ständig in crashes, out of memory to render.. (mehr kann ich nicht lesen)
Preset High, Texture Ultra, RT alles an und high, FSR Quality UHD
 
Auch ohne Releasetreiber läuft das bei mir extrem anständig.
Besser als viele andere neuerscheinungen.

Nur mal ein ziepen hier und da wenn neue areale kommen.

4k High/Ultra settings. (rx 7900xt+ryzen 5600x und nur 16 Ram)
 
  • Gefällt mir
Reaktionen: ShowOff
@dfghdfgfgh
Wenn du das Bild etwas schärfen willst, kannst du das auch in der NVIDIA Systemsteuerung machen.
Da auf 3D Einstellungen und das Programm auswählen. Schärfe findest du unter Bildskalierung.
Schärfe einfach mal auf 50 stellen und das Spiel starten und schauen ob es dir so gefällt. Bei Nichtgefallen das Spiel schließen und die Schärfe anpassen.
 
Gurx schrieb:
Ich spiele auf meiner RTX 3070 auf einem FHD Monitor im Normalfall alle Spiele mit höheren Settings. In dieser Auflösung sind die 8 GB m.E. ausreichend. Nutze zudem oft zusätzlich DLSS Quality, da meist bessere AA Optik.

Und auch Hogwarts läuft damit mit "High" Settings (ohne RT) prinzipiell gut, nur die immer mal wieder kommenden, Sekundenlang andauernden, Drops auf 20 FPS gehen gar nicht.

Und glücklicherweise sind die jetzt auch Vergangenheit. Mit ein paar Einträgen in der "Engine.ini" komplett gefixt:

https://www.reddit.com/r/HarryPotte...erformance_tips_this_got_rid_of_low_fps_dips/

Damit spiele ich nun bereits mehrere Stunden, und keinerlei (!) andauernde Drops mehr. Nicht in Cutscenes, nicht in Hogsmeade, nirgends mehr.

Hier zur Vollständigkeit halber:

AppData\Local\Hogwarts Legacy\Saved\Config\WindowsNoEditor\Engine.ini

Hinten anfügen:

[SystemSettings]
r.bForceCPUAccessToGPUSkinVerts=True
r.GTSyncType=1
r.OneFrameThreadLag=1
r.FinishCurrentFrame=0
r.TextureStreaming=1
r.Streaming.PoolSize=3072
r.Streaming.LimitPoolSizeToVRAM=1

[ConsoleVariables]
AllowAsyncRenderThreadUpdates=1
AllowAsyncRenderThreadUpdatesDuringGamethreadUpdates=1
AllowAsyncRenderThreadUpdatesEditor=1


Fertig.

Habe auch die Shader Cache Size im Nvidia Control Panel mal auf 10 GB fest eingestellt, und die DLSS 2.5.1 DLL aktiv, denke aber, die INI Schalter sind das Wichtigste. Je nach VRAM Größe ist wohl die PoolSize anzupassen, 3072 passt für 8BG Karten.

Mir hat es geholfen :freaky:

Sorry, bei mir wirds damit noch schlimmer: Drops auf 30 FPS im Schloss, die ich vorher nicht hatte.

Ansel deaktivieren bringt gefühlt nichts.
Process Lasso evtl. eine kleine Minderung der Drops oder einfach nur Placebo.

@bad_sign
Ich renne im Schloss nur wie ein verrückter rum konnte das Game aber niemals zu einem Crash oder Ähnliches verleiten. Alles Ultra RT an DLSS 2.5.1 Quality.

Edit:
@bad_sign RTX 2080TI - habe meine Signatur ergänzt.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: bad_sign
Welche GPU hast du?
1676201441475.png


Ich habe auch die Initweaks probiert mit
[SystemSettings]
r.bForceCPUAccessToGPUSkinVerts=True
r.GTSyncType=1
r.OneFrameThreadLag=1
r.FinishCurrentFrame=0
r.TextureStreaming=1
r.Streaming.PoolSize=5120
r.Streaming.LimitPoolSizeToVRAM=1
was nichts bringt, jetzt probiere ich mal 3072
 

Anhänge

  • 1676201383640.png
    1676201383640.png
    33,3 KB · Aufrufe: 141
GSync <-> Freesync ist doch mittlerweile total egal, oder?
Mein Freesync Monitor wird jedenfalls vom Nvidia Treiber versorgt.

1676202005368.png
 
  • Gefällt mir
Reaktionen: LatinoRamon
Melvorx schrieb:
GSync <-> Freesync ist doch mittlerweile total egal, oder?

Egal ist es, wenn der Monitor G-Sync Compatible ist, was dasselbe ist wie Freesync. Bei G-Sync mit Modul lässt sich der Monitor mitsamt Variable Refresh rate dann nur mit einer Nvidia Karte betreiben (hat halt dafür den Vorteil einer größeren VRR Range als Freesync/G-Sync Compatible).
 
  • Gefällt mir
Reaktionen: Melvorx
KamfPudding schrieb:
@dfghdfgfgh
Wenn du das Bild etwas schärfen willst, kannst du das auch in der NVIDIA Systemsteuerung machen.
Da auf 3D Einstellungen und das Programm auswählen. Schärfe findest du unter Bildskalierung.
Schärfe einfach mal auf 50 stellen und das Spiel starten und schauen ob es dir so gefällt. Bei Nichtgefallen das Spiel schließen und die Schärfe anpassen.
Mich verwirren die Settings da.

Wenn unter dem Menüpunkt "Desktop Größe und Position anpassen" -> "Seitenverhältnis" aktiviert ist, dann ist unter "3D Einstellungen verwalten" bei "Bildskalierung" eine Schärfe einzustellen, die angeblich ja nur zu Tragen kommt, wenn eine non-native Resolution zum Einsatz kommt - Korrekt?

Stelle ich aber unter "Desktop Größe und Position.." --> "Ganzzahlige Skalierung" aus - Dann kann ich unter "3D Einstellungen verwalten" ganz normal Schärfen statt nur "Skalieren". Aber auch hier merke ich eigentlich wenig "Schärfeeffekt".

Was verstehe ich hier falsch und wie sollte es hier laufen?

Früher (ca. 1-2 Jahre ka genau) konnte man unter 3D Einstellungen immer schärfen und man hat direkt was bemerkt .. Früher 1440p - Nun 4k Monitor, vllt auch deshalb ka ehrlich gesagt
Ergänzung ()

Klever schrieb:
Egal ist es, wenn der Monitor G-Sync Compatible ist, was dasselbe ist wie Freesync. Bei G-Sync mit Modul lässt sich der Monitor mitsamt Variable Refresh rate dann nur mit einer Nvidia Karte betreiben (hat halt dafür den Vorteil einer größeren VRR Range als Freesync/G-Sync Compatible).
Ein G-Sync Ultimate Monitor bietet auch VRR auf AMD Karten an.
zB der LG 38GL950 mit Gsync Modul samt Lüfter etc. --> Siehe RTINGs Test.
 
  • Gefällt mir
Reaktionen: Klever
Bisher bin ich sowohl von der Umsetzung als auch der Performance sehr angetan; auf WQHD und Ultra-Preset ohne RT und irgendeine Form von Upsampling lauft das Spiel nativ bisher absolut flüssig auf einer 6800 XT, und das ohne das Stuttering, von dem viele Foristen hier berichten.

Auch als Nicht-Harry-Potter-Fan freue ich mich sehr den Rest des Spieles erleben zu dürfen.
 
Tech-Dino schrieb:
Sorry, bei mir wirds damit noch schlimmer: Drops auf 30 FPS im Schloss, die ich vorher nicht hatte.
....
Alles Ultra RT an DLSS 2.5.1 Quality.

Bei mir seit der INI Anpassung keine Drops mehr, auch nicht im Schloss.
Allerdings ohne RT.
Ansonsten die ganzen Settings auf "Hoch", nur die Schatten hatte ich runter gesetzt.
Aber wer weiss... vielleicht hat das Schloss im Herbst (da bin ich jetzt) andere Anforderungen als das Schloss im Sommer :D
 
Caramelito schrieb:
Ein G-Sync Ultimate Monitor bietet auch VRR auf AMD Karten an.
zB der LG 38GL950 mit Gsync Modul samt Lüfter etc. --> Siehe RTINGs Test.

Sehr gut dass es mittlerweile Monitore mit VRR Unterstützung für beides gibt, mitsamt einem G-Sync Modul! Es hängt am Ende aber von der Firmware des Monitor Herstellers ab - dieser Monitor kann beides, die älteren mit G-Sync Modul leider nicht, haben dann also nur G-Sync.
 
  • Gefällt mir
Reaktionen: Caramelito
Experte18 schrieb:
Tja leider gibt es für 900 Euro keine Alternative. Die 7900XT ist auch keine Alternative wegen der schlechten Raytracing Performance und den anderen Nachteilen die man im kauf nehmen muss wenn man eine AMD Karte kauft. Amd soll mal die Preise senken. Eine 7900XTX hätte ich der 4070 TI vorgezogen sollte aber nicht sein.
die RX7900xt hat mehr Raster und in dem Game mehr RT selbst in WUHD 50% mehr Leistung wie Nvidias Speicherkrüppel der letzen Gen die RTX3080-10GB reicht nicht mal mehr eine RTX3060-12GB zu schlagen.
wenn das ach so wichtige RT genutzt werden soll, reichen 10GB nicht mal mehr in FHD. so wird es der Krüppel 4070ti auch ergehen in 1-2 Jahren bei allen neuen Games. wer nicht min
FHD 8GB ohne bzw 12GB mit RT
WUHD 12GB ohne bzw. 16GB mit RT
UHD 16GB ohne bzw 20 GB mit RT
kauft kauft next Game neu weil er muss, da der Speicher nicht mehr reicht um alles auf Max zu stellen.

und nur Raster ist die RTX4070ti jetzt schon der RX7900xt unterlegen
 

Anhänge

  • 5AAF1F1C-3CD1-47CA-A406-14976EC983A8.png
    5AAF1F1C-3CD1-47CA-A406-14976EC983A8.png
    1,7 MB · Aufrufe: 195
  • Gefällt mir
Reaktionen: Eller, Syrato und Anon-525334
Klever schrieb:
hat halt dafür den Vorteil einer größeren VRR Range als Freesync/G-Sync Compatible.

Nö hat es eigentlich nicht. Der Monitor kann zwar bis zu 1 Hz über HDMI/DP akzeptieren, aber der Scaler im Monitor macht ab ~40 Hz trotzdem Low Framerate compensation, weil die Panels, egal ob Natives Gsync oder nicht, einfach nicht niedriger können.

Ob das LFC nun der Monitor oder die Grafikkarte macht ist völlig egal. Und in beiden Fällen ist LFC auch nicht von Nachteil. Das bleibt auch mit LFC immer genauso smooth wie innerhalb der "offiziellen" VRR Range.

Der einzige Vorteil von nativem Gsync ist der variable Overdrive. Manche Freesync oder Gsync Compatible Monitore brauchen für ein optimales Ergebnis bei 144, 120, 60 Hz usw. jeweils ein anderes Overdrive Setting für ein optimales Ergebnis. Das Gsync Modul macht das automatisch, bei Monitoren ohne Gsync Modul muss man tests lesen und ein Modell kaufen, das auch variablen Overdrive macht oder eine Einstellung bietet, die mit allen Frequenzen gut funktioniert. Mit OLED hat sich aber auch das Thema dann erledigt, weil OLEDs keinen Overdrive haben.
 
Zurück
Oben