• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

Test Hogwarts Legacy im Test: Stimmungsvoller VRAM-Fresser mit Upsampling satt

.Sentinel. schrieb:
Wenn Du die RT- Qualität bzw. das AO verbessern willst:
Open the game’s Engine.ini file, located in “C:\Users\USERNAME\AppData\Local\Hogwarts Legacy\Saved\Config\WindowsNoEditor”

Nur mal kurz getestet, aber krass macht das Reflexionen und Beleuchtung DEUTLICH besser! :schluck:
Quelle

Musste allerdings den Wert weg/default lassen sonst verschwindet mein Charakter in Spiegelungen komplett.
r.RayTracing.Reflections.SamplesPerPixel=4
 
  • Gefällt mir
Reaktionen: .Sentinel.
So kann es kommen ... Ich hatte mich auf Forspoken gefreut, war aber immer skeptisch, wenn Material vom Spiel gezeigt wurde. Dann habe ich die Demo gespielt und Forspoken ist aus meinem Kopf verschwunden. Das ist einfach nichts geworden.

Hogwarts hatte ich lange gar nicht auf dem Zettel. Das Material vor der Veröffentlichung sah eigentlich schon zu gut aus, so dass da eigentlich ein Haken sein musste. Auch war ich skeptisch, dass die Vorabtester nur in bestimmten Bereichen unterwegs sein durften. Aber das nun so ein fantastisches Spiel dabei rauskommt hätte ich nicht gedacht. Ich habe es noch nicht Mal gespielt, aber das gesehen reicht mir schon um zu wissen, dass es was für mich ist, auch wenn ich kein Potter-Fan bin. :daumen:

Ich freue mich auf das Wochenende und solange es läuft, sind mir die technischen Unzulänglichkeiten egal. Wem das nicht egal ist, muss halt ein paar patches warten. So schlimm wie viele sagen scheint es ja aber auch gar nicht zu sein. Bin gespannt was aktuelle Treiber und der Day One Patch bringt.

Ich wünsche allen, dass es bei ihnen läuft und sich gut spielen lässt.
 
  • Gefällt mir
Reaktionen: Player49, entengruetze, IHEA1234 und 2 andere
snickii schrieb:
@bvbdragon
Nein funktioniert nicht. Es halbiert die FPS was auch nicht sein sollte.
Hä? Halbierte fps sind von Anfang an seit Turing das absolute Markenzeichen von RT. Temporale Upscaler und FG gibt‘s genau nur deswegen…
 
  • Gefällt mir
Reaktionen: .Sentinel., Anon-525334 und xNeo92x
Apacon schrieb:
Und ist etwas, weswegen ich dem Fazit dieses "Tests" schon widersprechen muss.

Ja, das Spiel hat technische Probleme, läuft insgesamt aber doch sehr sauber. Ja, das Spiel erfindet das Genre der Open World nicht neu.

Aber das Gameplay, die Detailverliebtheit in der Umgebung etc. ist so umfassend und natürlich in die Spielwelt integriert, dass man schon sagen kann, dass es selten, wenn überhaupt, ein Spiel gibt, dass diese Immersion und diese Details so intensiv umgesetzt hat.

Und das macht dieses Spiel definitiv besonders und lässt es aus der Masse heraus stechen. Auch für Menschen, welche mit Harry Potter selbst vielleicht nicht viel anfangen können.
Ich renne seit 3 Stunden nur im Schloss rum , sammle Seiten ein und geniesse die Details. Wirklich sehr gut gemacht.
 
  • Gefällt mir
Reaktionen: SDJ, Harpenerkkk, Onodan und 3 andere
Ich bin wirklich heilfroh das ich mich für eine RX 6800 mit 16 VRAM und gegen eine RTX 4070 Ti mit 12 GB VRAM entschieden habe.

So habe ich 350€ gespart und gleichzeitig noch die zukunftssicherere Grafikkarte. Bei Nvidia bekommt man 16 GB VRAM ja erst ab ca. 1250€ mit der RTX 4080.

Hoffentlich wird bei der nächsten Generation überall der VRAM verdoppelt. Denke das war die letzte Generation in der Nvidia so knausrig mit dem VRAM umgehen konnte.
 
  • Gefällt mir
Reaktionen: Icke-ffm, Melchior, rumpeLson und 7 andere
Es wird Zeit, dass der PC generalüberholt wird. Dieses Trennen in VRAM/DRAM sorgt nur für Probleme.

Mein Vorschlag: Motherboards der Zukunft haben einen riesigen Sockel (wie CPU, nur deutlich größer) wo die Grafikkarte und die CPU kombiniert ist. Diese sind dann an High Speed DRAM angebunden (so wie Macbooks, mit 1 TB/s pro Sekunde oder mehr)

So würde man die PC Plattform viel effizienter machen. Und solche Probleme würden der Vergangenheit angehören (mit 128 GB RAM hätte man dann bis zu 128 GB VRAM)
 
  • Gefällt mir
Reaktionen: Harpenerkkk, stoefelz, Delgado und eine weitere Person
mibbio schrieb:
Wenn ich mich recht erinnere, war es auch da das "übliche" Problem mit den Shadern, die anfangs zur Laufzeit kompiliert wurden. Mit den Patches wurde dann dafür gesorgt, dass die beim Spielstart im Hauptmenü vorkompiliert und in einem Cache gespeichert wurden.

Das ewig dauernde Vorkompilieren kam schon mit einem der ersten Patches, es ruckelte aber immer noch.

Erst beim letzten Versuch (ca. 2 Jahre nach Release) waren die Ruckler tatsächlich weg.
 
Unti schrieb:
Dem geht dann bei 4K, DLSS + FG (da grenzwertig) + RT (dann aber SICHER^^) der VRAM aus. :D
Gestern das Vid. von PCGH gesehen, die haben das direkt nachgestellt, sau geil.
Das Teil ist einfach ein Krüppel^^.
Für WQHD grad noch so nutzbar, alles andere ist eine Farcé, NV ist schon ein Arsch, unglaublich... 16GB hätten der Marge nicht zu arg weh getan....
4k RT - DLSS Quality + FG?
Mit DLSS Perf. sollte es ja klappen.

Geht denen nicht um Marge. Upselling halt. Willst du mehr, zahlst du mehr, dann direkt nen 500eur Sprung zur 4080.
Und AMD befeuert das Ganze noch mit den 7000ern Buggy Karten ..
 
  • Gefällt mir
Reaktionen: Unti
Ich versuche je nach Möglichkeiten bei jeder Neuanschaffung der GPU den VRAM zu verdoppeln:
GTX 670 zu GTX 970 (ja waren 3,5 GB) zu 1070ti und aktuell eine RX 6800 wäre gerne bei Nvidia geblieben aber leider war das Portfolio einfach nicht attraktiv mit der 3070. Und auch schon bei Forspoken zeigte sich das 16 GB VRam die bessere Wahl waren und sind.

Und nach ca. 6 Stunden in Hogwarts muss ich sagen das Spiel läuft problemlos auf der RX 6800 in WQHD (Raytracing sehe ich eh nicht, deswegen auf aus).
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Icke-ffm, Anon-525334, Gerithos und 2 andere
Ach was für eine Schande... Wie man es macht, macht man es verkehrt :(

Vor 3 Wochen stand ich vor der Wahl zwischen 3060Ti und RX 6700 XT.
Wohlwissend das ich in spätestens 2 Jahren aufrüsten muss entschied ich mich mit ruhigem gewissen für die 3060Ti...
"Ach die 8GB sind zwar bissi mau aber werden für FullHD schon noch reichen, hast du dafür bissi mehr Power beim Raytacing"
Das dann, das erste Game das auf das neue System kommt direkt solche Anforderungen rausballert... uff...
Tja, jetzt ärger ich mich ein bisschen und überleg die 3060Ti bei Ebay zu verscherbeln und ne 6700 einzusetzen. Die zwei Wochen für nen Widerruf sind leider knapp vorbei :freak:

Aber mal zum "Ist-Zustand"

Ich kann es auf "hoch", ohne Raytracing mit 60 Fps daddeln aber hab hin und wieder mal einen kurzen Einbruch auf 40 FPS. Der V-Ram ist anfangs bei 50% läuft über die Zeit aber voll und bleibt dann irgendwann konstant bei 90%. Ladebildschirme leeren ihn dann wieder.

Alles in allem kann ich also eigentlich nicht meckern, dennoch hatte ich mich sehr lange auf das Game gefreut und eigentlich erwartet das man es mit einer 3060Ti im FullHD "problemloser" daddeln kann.
Sehr ärgerlich das in dem Fall nicht die GPU selbst sondern der V-Ram der begrenzende Faktor ist.
Da scheiden wohl viele GPU's aus die es rein von der Power locker schaffen würden.

Edit: mit Raytracing läuft es im übrigen auch noch auf flüssigen 60FPS, allerdings ist der Speicher deutlich schneller vollgelaufen und die FPS-Einbrüche sind öfter und heftiger. Ist aber keine Überraschung, denke ich.
 
Caramelito schrieb:
4k RT - DLSS Quality + FG?
Mit DLSS Perf. sollte es ja klappen.
Also das dürfte mit ner 4070Ti schon möglich sein (WENN DA NICHT DER KRÜPPEL VRAM WÄRE).
Framerate hast du noch im "spielbaren" Bereich - oder halt nicht mehr nach dem gestutter....

DLSS Performance? Alles klar, danke, ohne mich^^.
 
Illithide schrieb:
Edit (zum Edit): der Screenshot zeigt besseres GI, was laut CB prinzipiell in HL nichts mit RT zu tun hat. Woher stammt denn das Bild und was genau soll es zeigen?
Die GI ist in allen 3 Vergleichsbildern identisch, der Screenshot zeigt Unterschiedliches AO und er zeigt das Ergebnis, wenn man die RT-AO Settings in der Config etwas anpasst
 
Thukydides schrieb:
Ich bin wirklich heilfroh das ich mich für eine RX 6800 mit 16 VRAM und gegen eine RTX 4070 Ti mit 12 GB VRAM entschieden habe.

So habe ich 350€ gespart und gleichzeitig noch die zukunftssicherere Grafikkarte. Bei Nvidia bekommt man 16 GB VRAM ja erst ab ca. 1250€ mit der RTX 4080.

Hoffentlich wird bei der nächsten Generation überall der VRAM verdoppelt. Denke das war die letzte Generation in der Nvidia so knausrig mit dem VRAM umgehen konnte.
so schnell kann es gehen. Wochenlang ließt man " 12 GB reichen für WQHD, nimm die 4070 TI" und schwupps, neues Game und die 4070 TI ist dann doch nicht mehr so "geil". Ich habe letztes Jahr auch noch 850 Ocken für die 3080 12 Gb bezahlt, aber heute würde ich definitiv die 7900 XT kaufen. Selbst mit 16 GB würd ich mich nicht 100 % sicher fühlen.
ABER, ich denke, Nvidia wird da Treiber technisch noch nachhelfen, zumindest was Hogwarts betrifft. Wenn nicht, muss ich wohl noch ein paar Details runterschrauben, obwohl genug Rohleistung da wäre. Doppelt bitter.
 
  • Gefällt mir
Reaktionen: Icke-ffm
Kandira schrieb:
Eigentlich müsste ein unabhängiges Institut jedes Spiel prüfen, bevor es veröffentlich werden darf. ...

Nein. Leute müssen einfach Mal davon weg Geld für early Access zu bezahlen. Wartet tests ab, entscheidet dann.

Immer muss wer anders für das eigene "Fehlverhalten" einspringen, da man sich selber ja angeblich nicht mehr schützen kann.
 
  • Gefällt mir
Reaktionen: Tagesmenu und Einfallslos^99
Ich denke aus den ganzen Gründen ist vllt auch das Quidditch rausgeflogen. gibt ja das Spielfeld und auch den Laden für die Sportkleidung. Vielleicht hätte das die Engine nicht gepackt.

Der Grund warum es nicht im Spiel ist, klingt wirklcih vorgeschoben (vor allem so wie es vom Spiel dargestellt wird)

Spiel finde ich dennoch bis jetzt gut, Besser als Forspoken. Zu Schade das die Hausauswahl bis auf eine Ausnahme wohl gar keinen Einfluss auf das Spiel hat, dachte das sich da ein bisschen ändert.

Aber es macht Spaß und da ist ja eigentlich das wichtigste an einem Spiel.
 
Hatsune_Miku schrieb:
warum es im menü auf 7FPS runtergeht, dank afterburner konnte ich sehen das um die 7,7-7,8GB belegt waren
Was dann allerdings faktisch nur aufzeigt das es im Menü eine Art VRAM leak Bug gab.

Kannst dir ja mal 4080 vs 7900xtx bei Harry Potter in 4K und maximalen settings angucken. Obwohl die 7900xtx mehr vram hat ist es auf dieser unspielbar :).
 
  • Gefällt mir
Reaktionen: karl_laschnikow und .Sentinel.
Illithide schrieb:
Hä? Halbierte fps sind von Anfang an seit Turing das absolute Markenzeichen von RT. Temporale Upscaler und FG gibt‘s genau nur deswegen…
Nein, bei dem Maße wie RT hier eingesetzt wird und bei der Optik die daraus entsteht, sind halbierte FPS definitiv nicht normal.

Schau dir mal an was in Spiderman Remastered z.B. an Reflexionen rausgehauen wird, da fällt ne 3080 mit RT "High" auf ca 80%.

Der RT Einsatz hier ist ähnlich wie bei Forspoken, da fällt eine 4080 auch nur auf 83% mit RT Shadows und RT AO.

Ein Einbruch auf 66% in diesem Spiel ist mit der RT Optik ohne die Config Tweaks nicht zu erklären, wo an vielen Stellen AO und Schatten komplett fehlen und auch die Reflexionen nicht zu gebrauchen sind.
Ohne die Tweaks sieht es mit RT oft schlechter aus als ohne RT, zumindest was Ambient Occlusion angeht.
Diese Tweaks verringern die Performance aber ja noch weiter
 
Zuletzt bearbeitet:
Thukydides schrieb:
Ich bin wirklich heilfroh das ich mich für eine RX 6800 mit 16 VRAM und gegen eine RTX 4070 Ti mit 12 GB VRAM entschieden habe.
Bringt dir nur nichts. In WQHD reichen auch die 12GB der 4070Ti welche dazu noch schneller als deine 6800 ist.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: karl_laschnikow, serve1chilled und .Sentinel.
Thukydides schrieb:
Ich bin wirklich heilfroh das ich mich für eine RX 6800 mit 16 VRAM und gegen eine RTX 4070 Ti mit 12 GB VRAM entschieden habe.

So habe ich 350€ gespart und gleichzeitig noch die zukunftssicherere Grafikkarte.
Na da freust du dich bestimmt, dass du dieses eine spiel, welches in 4K die 16GB benötigen würde und was vmtl an einem MemoryLeak liegt, der gepatcht werden kann, mit deiner Karte nun in 4K mit cineastischem 30fps spielen kannst^^

Wenn jetzt "Regler bedienen" kommt, das gilt auch für den Regler der Texturdetails.
Und in 1440p ist es auch mit Max Texturen bereits wieder egal ob du 12 oder 16GB hast.
 
  • Gefällt mir
Reaktionen: karl_laschnikow, Gortha, serve1chilled und 3 andere
Zurück
Oben