Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
TestHogwarts Legacy im Test: Stimmungsvoller VRAM-Fresser mit Upsampling satt
Hier, ich nutze VSync. Habe mit mit VRR allerdings nicht wirklich auseinander gesetzt. Ich denke mal auch der Monitor muss das unterstützen und das wird meiner nicht können. Beim TV hab ich diese Option aber schon gefunden
Hast Du ne Intel-CPU? Leider testet CB ja wohl nur damit. Falls nicht, schau Dir mal HWUnboxed zu dem Game an. Die kommen mit nem Ryzen und der 6800 in 1440p, UltraQuality noch auf >70fps. Im 3DC geisterte auch gerade wieder eine Grafik rum, dass es teils erhebliche Unterschiede macht, welche CPU man mit welcher GPU paart.
Hab Ryzen 5600. Habs mir HWU Video angeschaut. Scheint in 1440p tatsächlich noch zu gehen werde die paar Monate warten und schauen was noch optimiert wird.
BITTE nicht! @VoiVoD
Die Beitrags-Moderation hier wurde wieder deaktiviert, weil wir alle zivilisiert und diszipliniert über die Technik und die Probleme und das Spiel klönen.
(Und tatsächlich sind wir derzeit der einzige Platz im Internet, in dem das funktioniert, ohne Ironie)
Lasst uns genau da bleiben :-)
Damit auch die Mods den Puls im Ruhebereich halten
Hab Ryzen 5600. Habs mir HWU Video angeschaut. Scheint in 1440p tatsächlich noch zu gehen werde die paar Monate warten und schauen was noch optimiert wird.
Meine Frau daddelt es mit nem Ryzen 5600X/6700XT auf 1440p Preset High und FSR2 Quality preset ohne nenneswerte Probleme. Im Schloss zwischen 90-144fps, in der Open World 70-90fps.
Bei mir aufm 5800X /6700XT siehts ähnlich aus, ist also wunderbar spielbar
Hat schon Mal jemand getestet, ob es einen Unterschied zwischen SSD und M.2 Platte gibt? Selbst wenn ich Raytracing und DLSS ausschalte, habe ich diese kurzen FPS Drops, bzw. slow-downs. Es kommt nun nicht mehr so oft vor, so dass ich gut spielen kann, ohne das es extrem stört. Wäre allerdings interessant zu wissen wo das Problem ist.
Ausschließlich und ausgerechnet Intel bietet einen Day-1-Treiber an. Nvidia hat zwar einen neuen Treiber zum Download bereitgestellt, die Release Notes und auch Nvidia selbst erwähnen Hogwarts Legacy aber nicht. Und AMD stellt sich quasi tot: Es gibt keinen neuen Treiber, keine Aussage in irgendeiner Form und auch eine Nachfrage der Redaktion blieb bis jetzt unbeantwortet.
Als „Highlight“ müssen Besitzer einer nicht gerade günstigen Radeon RX 7900 XT und RX 7900 XTX beim Spielen zurzeit mit Grafikfehlern leben. So hat man sich das beim Kauf der Grafikkarte sicherlich nicht vorgestellt.
meine Frau und ich zocken auf einem LG4K OLED TV (60fps) im Wohnzimmer.
Das läuft und schaut auf 4K DLSS Performance sowas von gut aus - wir sind echt geflasht.
Und die 11GB der 2080TI sowie teilweise über 20GB meines Rams werden mal ordentlich ausgenutzt.
Macht richtig Laune das Game.
Ich kann das Gemecker nicht nachvollziehen.
Gut der 5800X3D wird das seinige dazu tun das es so gut läuft aber an und für sich bin ich echt überrascht das die 60fps zu 99% locker gehalten werden. Alles auf High außer RT auf Medium.
Was ich aber noch loswerden muss, ohne RT ist keine Option das wirkt total flach das Game und die Reflexionen sind teilweise dann sehr unrealistisch.
Naja sorry, 36 FPS mit Drops auf 20 FPS hat nichts mehr mit spielbar zu tun. Nur weil man es damals nicht anders kannte und ruckelig gespielt hat muss man das im Jahr 2023 schon lange nicht mehr.
Das finde ich echt cool und faszinierend, dass ich heute ein paar Dutzend mal gelesen habe, dass Pärchen , Familien bzw. Eltern mit ihren Kindern dieses Spiel zusammen spielen, gemeinsam am TV, an der Konsole, am PC oder jeder für sich an seinem Spielzeug.
Hogwarts Legacy ist sicher nicht das beste Spiel dieser Welt, aber schafft definitiv etwas, was viele Spiele in den letzten Jahre nicht geschafft haben und was sonst die Nintendo Domäne ist: Gaming zum Familienevent zu machen. Das erklärt auch die Zahlen.
Nach den ganzen Rezensionen "musste" ich es jetzt irgendwie auch haben Insbesondere der Umstand, dass Laphonso das Spiel so lobt, war für mich ausschlaggebend, musste ich ihm inerllich doch schon bei Cyberpunk Recht geben, dass das Spiel einen irgendwie sehr in seinen Bann zieht. Da ich prinzipiell der Harry Potter Reihe nicht abgeneigt bin (die Bücher habe ich alle (gerne) gelesen, die Filme aber nicht alle gesehen), wollte ich es dann mal testen.
Was mir aber direkt zu Anfang auffällt: Ich wollte meine Grafiksettings ändern, mir wurde angezeigt, dass ich das Spiel für die von mir gewünschte Änderung neustarten müsse, aber ich konnte danach machen was ich wollte, die Option für einen Neustart gab es nicht. Das war der erste "Dämpfer". Ich habe es dann mittels Taskmanager beendet und immerhin ging das anschließende Laden ziemlich flott und das Spiel hatte dann auch direkt die gewünschten Einstellungen.
Aber das nächste, für mich noch viel gravierendere: Wieso bewegt denn keiner beim Sprechen den Mund? Oder ist das ein Bug? Bei mir kann ich auf die Gesichter gucken (die ganz gut aussehen, wenn jetzt auch nicht überragend), aber es gibt keinerlei Bewegung des Mundes. Das finde ich schon ziemlich schade, das zerstört jegliche Immersion. Da ich da bisher noch nichts von gelesen habe - ist es eventuell "nur" ein Bug bei mir?
@Oppagolf
Das muss ein Bug sein. Ich spiele mit deutscher Synchronisation und die Lippen der Protagonisten bewegen sich analog zum Gesprochenen, ist wirklich eine feine Sache.
Naja, es ist damit doch im Trend, schliesslich gibt es ja Upscaling-Techniken, die den Mehraufwand fuer gute Optimierung abfedern und es auch (bei RDNA2 AMD/RTG dGPUs) mit RT-Raytracing spielbar machen, denn das scheint ja die neue Funktion von DLSS, FSR und XeSS zu sein, wenn es nach den Entwicklern geht.
Dass 16GB fuer hoechste Textureinstellungen unter 4K/UHD irgendwann zum Mindeststandard werden wuerden war auch absehbar (Forspoken hatte das ja schon angedeutet), aber ich kann die Leute schon verstehen, die das (zumindest bei nVidia Grafikkarten) dann daneben finden, weil die dGPUs mit 16(+)GB eben auch sehr kostpielig/teuer sind.
@Wolfgang Man sollte allgemein die Wortwahl bei DLSS künftig etwas spezifizieren, spätestens nachdem der Nachfolger der DLSS2.5.1 jetzt die DLSS3.1.1 ist.
Da kommt eure Unterteilung in "DLSS2 = Upscaling" und "DLSS3= Frame Generation" nicht mehr hin, da es wohl schlicht kein DLSS2 mehr gibt in zukünftigen Spielen, es sei denn sie verwenden bewusst ältere Versionen(wie Hogwarts Legacy ja auch die 2.3 nutzt).
Man konnte die Bezeichnungen bisher eigentlich auch schon besser spezifizieren, weil es auch bisher nie eine "dlss3.dll" gab, es gab eine für DLSS und eine für Frame Generation und wenn beides in einem Spiel vorhanden ist, dann bildeten die beiden zusammen DLSS 3.