• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

Test Hogwarts Legacy im Test: Stimmungsvoller VRAM-Fresser mit Upsampling satt

Bei mir tut sich gerade etwas auf Steam:

1676052309202.png
 
  • Gefällt mir
Reaktionen: zampe14
Gerade kam ein 295 MB Update
 
Um 19 Uhr kam der Day1-Patch.

Lächerliche 295 MB klein und behebt absolut keinerlei Perfomanceprobleme bei 8GB VRAM-Grakas.

Immer noch heftige FPS einbrüche mit RTX2080@1080p ohne RT und Einstellungesmix Niedrig bis Hoch.
 
Zuletzt bearbeitet von einem Moderator:
Der Patch ist gerade gekommen. Nur 295,2 MB groß. Und 34,9 GB werden "verschoben"

Bei mir steht nun auch, dass neue Inhalte hinzugefügt wurden. Vielleicht war das nur das Paket der dunklen Künste, die Feldmütze und der Hyppogreif :D Jedenfalls ist das jetzt unter den DLCs dabei
 
eRacoon schrieb:
Woher kommt eigentlich die Erwartungshaltung das man den Texturenregler immer ganz rechts haben MUSS sonst ist die Hardware scheisse?
Die Regler kann man bei allen anderen Settings doch auch vernünftig bedienen, nur beim Texturenregler wird da immer ein riesen Fass für aufgemacht.

Ich würde es ernsthaft gerne mal verstehen wollen.
Ich bin nicht sicher ob du das Ernst meinst. Gehst du auch ins Museum und hast dabei eine Schweißerbrille auf damit du möglichst wenig vom Originalbild sehen kannst? :confused_alt:

Also FALLS du es ernst meinst lässt sich deine Frage natürlich sehr leicht beantworten: weil gut optimierte Texturen bei hochauflösenden Spielen seit Jahrzehnten den überwiegenden Teil der Optik ausmachen aber im Vergleich kaum Performance kosten.
Speicher ist auch extrem billig, gemessen am Gesamtpreis der Karte, so dass künstliches beschneiden immer einen erheblichen Nachteil hervorruft.

Das ist übrigens auch der Grund weshalb man sich fragt warum Nachfolgegenerationen von Nvidia Karten in der gleichen Klasse den Speicher nicht deutlich erhöhen. Gleichzeitig hat es dazu geführt das ältere AMD Generationen weit besser gereift sind.

Man kann sich sicher über vieles streiten, Raytracing, ambient occlusion, soft shadows, post effects usw. - aber Texturen sollten außer im eSport immer so weit rauf wie möglich da sie sehr viel kaschieren und zur Athmosphäre extrem beitragen.
 
  • Gefällt mir
Reaktionen: Scheinriese, bad_sign, J@kob2008 und 4 andere
Unti schrieb:
Also das dürfte mit ner 4070Ti schon möglich sein (WENN DA NICHT DER KRÜPPEL VRAM WÄRE).
Framerate hast du noch im "spielbaren" Bereich - oder halt nicht mehr nach dem gestutter....

DLSS Performance? Alles klar, danke, ohne mich^^.
Jo würde ich auch nicht einstellen.

Wenn man bei 4k Performance einstellt, rendert man in 1080p.

Bei einem 1440p Monitor rendert man bei Quality bereits in 960p.

Da sollte 4k Performance besser aussehen als 1440p Quality oder? Konnte das leider nie vergleichen.

Aber tbh ich merke auch keinen Unterschied zw. Quality und Performance während dem Spielen :D

Nur auf FG reagiere ich allergisch. Das fühlt sich für mich einfach träge an. Nfs Unbound zB. In Cyberpunk muss ich es mir noch anschauen.
 
Markenprodukt schrieb:
Auch wenn ich nur die PS5 Version besitze will ich dahingehend was einwerfen.
Sollte man keinen 120hz Fernseher haben wird es echt nervig mit den verschiedenen Modi. Natürlich liegt es auch daran was man für ein Spielertyp ist.

30fps sind kein Zustand mehr. Ich nutze daher die Zwischenbildberechnung von meinem Fernseher um da ein etwas flussigeres Bild zu bekommen. Natürlich auf Kosten von input lag und Bildfehlern.
Der Performance Modus schafft 60fps. Aber die Grafik wird so dermaßen runtergeschraubt, dass das der wunderschönen Welt nicht gerecht wird.
Der Balancemodus dagegen läuft bei 40fps. Das wäre für mich ok, aber mein TV schafft nur 60hz. Daher steht mir der Modus nicht zur Verfügung.
Daher hab ich jetzt ein Kabel bestellt, damit ich die Konsole an den Monitor anschließen kann um den Balance Modus zu nutzen. Hoffe das klappt.


Worauf ich hinaus will:
Durch die verschiedenen Modi hat der Entwickler die Möglichkeit wieder kosten zu sparen indem er weniger optimieren muss.
Es sollte mit der Hardware möglich sein 60fps und mindestens Mittel bis hohe Qualität zu liefern.
Ich kann daher sagen, dass ich mit der PS5 Version nicht zufrieden bin.
Hat Dein TV zumindest VRR? Dann könntest Du mit VSync=off (ingame) + VRR=on (Systemmenü) noch gut was rausholen. Imho zumindest soweit , dass der Fidelity-Mode passabel spielbar wird.
Oder Du probierst mal nur VSync=off. Soll aber hakelig sein...
 
  • Gefällt mir
Reaktionen: SDJ
Taxxor schrieb:
auch die Reflexionen nicht zu gebrauchen sind.

Finde den Screenshot hier aus dem Test sehr lustig.

Ohne RT gibt's kein Spiegelbild.
Mit RT sieht man sich dann.

Seit wann ist RT dafür notwendig? :D
 
3080 mit 5900X und 32GB RAM

RT alles off
DLSS Quality
WQHD + Hochskalierungsschärfe 0,4
100-140 FPS

Sieht richtig gut aus irgendwie.
 
Caramelito schrieb:
Ohne RT gibt's kein Spiegelbild.
Mit RT sieht man sich dann.

Seit wann ist RT dafür notwendig? :D
Es ist mit RT halt deutlich einfacher^^
 
Master Chief ! schrieb:
Lächerliche 295 MB klein
Das ist nicht lächerlich, sondern der Weg, wie man Updates "richtig" ausliefert. Also nur die geänderten Bytes in das Update packen und die bereits installierten Daten werden dann entsprechend geändert. Deswegen bewegt Steam ja trotz nur 300 MB Download mehrere GB an Spieldaten. Das Verfahren nennt sich Delta-Update.

Wie man Updates nicht macht, zeigt Activision bei CoD, wo jede Datei komplett neu runtergalden wird, bei der sich auch nur 1 Bit geändert hat. Weswegen dort ein Update auch mal 50+ GB groß, selbst bei einfachen Bugfixes.
 
  • Gefällt mir
Reaktionen: Gesualdo, M@tze, gesperrter_User und 13 andere
.Sentinel. schrieb:
Stimmt- Ist unspielbar...
WQHD alles Ultra inkl. RT aber leider halt nur "100" FPS ;)
Was soll das kurze Video jetzt zeigen ? Das die Performance überall so ist ?
Ich habe auch genug fps die meiste Zeit und dann von jetzt auf gleich drops. Aber wie du schon sagtest, da scheint vermutlich was anderes nicht zu stimmen. Hoffen wir mal :freaky:
 
  • Gefällt mir
Reaktionen: .Sentinel.
nutzername schrieb:
Also FALLS du es ernst meinst lässt sich deine Frage natürlich sehr leicht beantworten: weil gut optimierte Texturen bei hochauflösenden Spielen seit Jahrzehnten den überwiegenden Teil der Optik ausmachen aber im Vergleich kaum Performance kosten.

Ist das wirklich so?
Bei der Performance geb ich dir recht und wenn man vRAM hat dann immer maximal rein damit.
Aber dass Texturen für den Großteil der Optik verantwortlich sind geh ich 0 mit.
Moderne Games sind da nicht mehr so schlimm wie das früher mal war.

Klar kann man mit absurden Texturen Mods in Skyrim wahre Wunder bewirken aber das liegt nicht nur an der Auflösung der Texturen sondern auch daran das sich Leute hinsetzen und einzelne Objekte absurd feinschleifen. Das leistet dir kein AAA Studie so eine Arbeit bis ins letzte Detail.

Hier bei Hogwarts Legacy gehe ich sogar so weit das man kaum einen Unterschied sieht.
Zwischen Low und Ultra fällt es noch auf... zwischen Hoch und Ultra muss man schon mit der Lupe hinschauen.

Daher bleibe ich dabei... man kann sich auch anstellen, einfach Regler auf Hoch zurück und zack hat man wieder 2-3GB mehr Puffer vermutlich ohne das man wirklich eine groß sichtbare Einbuße hat.

Hier ab 2:25 der Vergleich von allen Stufen... die sehen fast identisch aus.

Eben auch mal spaßeshalber das Game auf Niedrig gestellt und neugestartet.
Anbei mal zwei Screenshots zwischen Low und Ultra... na welches ist Ultra auf den ersten Blick ohne ran zu zoomen oder lange drauf zu schauen? ;)
(Und das ist ein Ausschnitt von Maximal 30% vom Gesamtbild, also schon starker Zoom drin.)
(Hab sogar DLSS raus genommen, das schärft sonst ja nochmal nach und macht den Unterschied nochmal geringer.)

Das Texturen teils nicht geladen werden hat übrigens nichts mit zu wenig vRAM zu tun bei dem Game.
Hab hin und wieder auch so Orte wo was fehlt... oder 24GB sind auch zu wenig.

Aber klar mehr vRAM haben ist immer geil, keine Frage.
Aber deswegen Hardware mit "zu wenig" vRAM direkt in den Tot zu schicken weil damit dann alles nur noch in echt bescheidener Optik scheinbar irgendwann mal spielbar sein soll sehe ich nicht so.
Texturen Regler auf Hoch oder Mittel bringt einen nicht um wenn die Karte sonst noch gut performt.
Die Vergangenheit hat doch fast immer gezeigt dass den Karten deutlich die Performance Puste ausgeht bevor der vRAM reale (eingebildete) Probleme macht.
 

Anhänge

  • 2023-02-10 20_00_06-Hogwarts Legacy.png
    2023-02-10 20_00_06-Hogwarts Legacy.png
    4,5 MB · Aufrufe: 232
  • 2023-02-10 19_57_24-Hogwarts Legacy.png
    2023-02-10 19_57_24-Hogwarts Legacy.png
    5 MB · Aufrufe: 240
  • 2023-02-10 16_37_25-Hogwarts Legacy.png
    2023-02-10 16_37_25-Hogwarts Legacy.png
    8,7 MB · Aufrufe: 248
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: M@tze, gesperrter_User, Kuestennebel79 und 3 andere
Irgendwie ist das Update bei mir abgestürzt und jetzt werden nicht 290MB sondern die ganzen 33,2GB gedownloaded.
Da hat @mibbio wohl recht was er zu dem Patch sagt.
 
@nutzername
Dein Beispiel ist jetzt aber auch nicht das Wahre.
Die 12 GB reichen nicht in 4k mit RT. Joa dafür ist eine 4070ti auch einfach die falsche Karte.
Das ist und bleibt eine WQHD Semmel, welche auch grundsätzlich für 4k benutzt werden kann. Das Problem ist ein falsche Erwartungshaltung bei den eben extrem überzogenen Preisen. Das zieht sich aber durch alle derzeitigen Oberklassekarten. Auch ne 3080 war nie für 4k gedacht mit 10GB.
Man kann ja auch die Auflösung anpassen über den Treiber. Zwischen WQHD und 4k. Sind halt Kompromisse die man mit 12GB und 192bit eingehen muss.
 
Zuletzt bearbeitet:
Unglablich nervig, EInstellungen wurden nicht übernommen, nach dem Neustart kommt wieder so ein Menüvorleser Hoch, Zwangssgesundheutsmeldungen, ich sehe ich hab noch etwas Spaß vor mir bevor es losgeht. Komische Artefakte bei den Figuren in der ersten Cutscene, aber recht harmlos..
Zumindest in der Einleitung funktioniert DLSS, soweit ich es konfigrieren konnte, optisch sehr gut.
"Schattierungen" :) werden auch jeden Spielstart neu gemacht...OK, die "Gebäude-Shader" aus Uncharted sind noch besser Übersetzt.
Die Performance im ersten Teil (Schlauchlevel) soll ja keinerlei Aussagewert auf die Open World Performance haben...

Das Framepacing im Intro-Schlauch ist für ein Spiel mit der Tencent-4-Engine ungewöhnlich glatt..

Hogwarts Legacy Screenshot 2023.02.10 - 20.49.49.50.jpg
 
Zuletzt bearbeitet:
krille84 schrieb:
Dein Beispiel ist jetzt aber auch nicht das ware.
Die 12 GB reichen nicht in 4k mit RT. Joa dafür ist eine 4070ti auch einfach die falsche Karte.
Das ist und bleibt eine WQHD Semmel, welche auch grundsätzlich für 4k benutzt werden kann.
Wenn ich aber unter 4k DLSS2@Qualität nutze, dann rendert sie in WQHD und ist damit doch wieder eine 4K Karte;)
Ich spiele damit auf einem 4K Monitor mit UltraSettings und allen 3 Raytracing Optionen an mit RT-Qualität@Hoch, DLSS2@Performance und Frame Generation an, lande gefühlt irgendwo im unteren dreistelligen fps Bereich:daumen:
...zumindest bisher läuft es butterweich...
Speicherbesetzung (nicht Nutzung) liegt bei 11 GB.
 
  • Gefällt mir
Reaktionen: Kuestennebel79
Interessant, seit dem Patch hab ich keine FPS drops mehr in Hogsmeade.
Der Tip von @eRacoon könnte aber auch wunder bewirkt haben.
Texturdetails auf Niedrig und 100 fps auf der 3080 und bis jetzt nie mehr als 8gb VRAM Auslastung...
 
Caramelito schrieb:
Finde den Screenshot hier aus dem Test sehr lustig.

Ohne RT gibt's kein Spiegelbild.
Mit RT sieht man sich dann.

Seit wann ist RT dafür notwendig? :D

Max Payne 2 konnte sowas ohne RT und mit high fps.
Genauso auch andere games.

Aber irgendwie muss man den RT Hypetrain anheizen. Absolut lächerlich.
 
  • Gefällt mir
Reaktionen: MightyGlory, Illithide, Stellarix und 9 andere
Zurück
Oben