• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

Test Hogwarts Legacy im Test: Stimmungsvoller VRAM-Fresser mit Upsampling satt

BetaHydri schrieb:
Ich spiele es am TV, das ist einer der es kann (LG OLED65G1) aber er hängt am AVR der das nicht kann (DENON X7200WA).
PC Direkt an TV und vom TV per (e)ARC zum AVR geht nicht ? G-Sync aka VRR senkt den Input Lag enorm
und dann könntest du Frame Generation nutzen für ca. 80-90FPS was auf einem 120Hz Display Sinn macht.
 
Hab ich mir schon gedach aber nein, ich will die Anzahl der Kabel zum TV nicht erhöhen. eARC kann der 7200WA auch noch nicht, also würde man hier zu viele Kompromisse eingehen. Ich will eher, dass das Game die 60 FPS hält, dafür hole ich auch immer die schnellsten Grafikkarten, aber ich hoffe nicht, dass da mehr solche Stellen sind die ohne sichtbaren Grund ruckeln.
 
habla2k schrieb:
Ziel muss ja sein 60 FPS konstant zu haben.

Das hat es bei aktueller AAA-Grafik noch nie gegeben, es frisst auch unverhältnismäßig viele Ressourcen. Ich weiß noch, wie Half-Life 2 an der schlimmsten Stelle auf 25 fps absackte, und die durchschnittlichen 40-50 fps waren auch nicht toll für eine 400€-Grafikkarte aus demselben Jahr.

Deshalb war G-Sync/Freesync ja eine Revolution, bei der ich im Erscheinungsjahr schon zugeschlagen habe. Wer sich 9 Jahre später noch mit veralteten Festfrequenzmonitoren quält, dem ist wirklich nicht mehr zu helfen.
 
  • Gefällt mir
Reaktionen: Pisaro
also irgendwas hat der Patch kaputt gemacht an der Performance, konnte vorher durch Hogsmeat flüssig durchlaufen, jetzt ruckelt es aufeinmal und die GPU Last ist auch viel niedriger, sieht aus als ob das CPU Limit verschlechtert wurde anstelle verbessert.
 
  • Gefällt mir
Reaktionen: gesperrter_User
Hast du das auch im Garten von Hogwarts (siehe meinen letzten Beitrag)?
 
Laphonso schrieb:
Die aktuellen Konsolen sind bereits längst am Limit bei solchen Titeln.

Dann zeigt mal etwas Perspektive für die Technikdebatte hier.

Also forbidden West, Ragnarök, ... Sehen und laufen Klasse.
 
  • Gefällt mir
Reaktionen: Harpenerkkk, Illithide und Dancefly
habla2k schrieb:
Wie hier schon jemand schrieb, inzwischen brauchts ne 500€ Karte für 1080p@60 das ist einfach Irrsinn.
Das liegt leider an den zu teuren GPU Preisen. Für 500€ kriegt man gerade so untere Mittelklasse. War früher anders, ist es leider nicht mehr.
 
  • Gefällt mir
Reaktionen: Laphonso
Czk666 schrieb:
Also forbidden West, Ragnarök, ... Sehen und laufen Klasse.
Definitiv!
Ich freue mich daher auch auf die "unlocked" PC Ports für deutlich mehr fps bei noch besserer Optik auf höhrer Auflösung. :)

BetaHydri schrieb:
Hast du das auch im Garten von Hogwarts
Ich denke das haben alle, was dort die fps Einbrüche angeht.

Liegt definitiv am Spiel/der Engine, nicht an der Hardware.
 
Czk666 schrieb:
Sehen und laufen Klasse.
Du meinst mit 30 FPS wenn man auf 4K geht?. Nein, dass ist SEHR weit weg von "laufen Klasse".
Gut, dafür zahlt man auch fast nichts für eine Konsole. Da passt P/L definitiv.
 
BetaHydri schrieb:
Hast du das auch im Garten von Hogwarts (siehe meinen letzten Beitrag)?
Ah, den Verwandlungshof meinst du^^

Du spielst mit 4K DLSS Balanced? Dann müsste ich mit 1440p nativ ja ca das abbilden können bzw sogar etwas mehr Auflösung haben.
Hab mal nen Run gemacht von der Statue am Wasser aus zum Baum, dann 2mal um den Baum herum und wieder zurück zur Statue
Screenshot 2023-02-11 200403.png


1440p Nativ Ultra Settings + RT. Allerdings läuft meine Karte auch mit einem starken UV und wurde hier durch den eingestellten max Takt von 2550MHz begrenzt
 
Naja, mit der PS5 bekommt man, wenn man es bekommt, die 2017er Leistung (1080ti, 11 TFLOP), für 600€.
Ergänzung ()

Taxxor schrieb:
Ah, den Verwandlungshof meinst du^^

Du spielst mit 4K DLSS Balanced? Dann müsste ich mit 1440p nativ ja ca das abbilden können bzw sogar etwas mehr Auflösung haben.
Hab mal nen Run gemacht von der Statue am Wasser aus zum Baum, dann 2mal um den Baum herum und wieder zurück zur Statue
Anhang anzeigen 1324081

1440p Nativ Ultra Settings + RT. Allerdings läuft meine Karte auch mit einem starken UV und wurde hier durch den eingestellten max Takt von 2550MHz begrenzt

Danke für den Aufwand! Die geht halt noch weiter runter wegen dem UV, die Tendenzen sind definitiv da und nicht meinem System zuzuschreiben :). Ich sehe auch, dass eine schnellere CPU (deine ist im Gaming schneller) nicht viel dran ändert. Mit welchem Tool hast du die Graphen erstellt?
Da ist etwas verkackt und sicher nicht nur dort :)
 
GERmaximus schrieb:
Die Karte ist ja auch top, nur einfach zu teuer, bzw. Für den Preis einfach grenzwertig wenig vram
Wenn man ausschließlich VRAM pro Preis sieht, dann stimmt es.
GERmaximus schrieb:
Naja, Leistung einer 3080ti / 3090 wurde vor zwei Jahren noch mit 8k geworben. Also eine 4K Karte ist die schon von der Chipleistung her. Nur wurden Speicher und Anbindung so arg begrenzt.
8k ist theoretisch möglich, das wurde gezeigt, aber ja stimmt generell.
GERmaximus schrieb:
Kann direct Storage dem Vram vorbeugen? Weis das gerade gar nicht…
Naja, die GPU kann direkt von der Disk laden ohne Umweg über den VRAM bzw. kann deutlich schneller laden und sollte damit auch weniger vorhalten müssen.
GERmaximus schrieb:
Genau das hat man vor zwei Jahren zu den 8gb der 3070 und den 10gb der 3080 auch gesagt.
Ich habe die 3070 nie für 1440p empfohlen, eher die 6700xt in der Preisklasse.
GERmaximus schrieb:
Zumindest bei Titeln wie diese, die vram ohne Ende fressen
Wie repräsentativ HL am Release Tag ist, bleibt abzuwarten. Aber eine Tendenz ist zu erkennen.
 
  • Gefällt mir
Reaktionen: GERmaximus
BetaHydri schrieb:
die Tendenzen sind definitiv da und nicht meinem System zuzuschreiben :).
Aber wenn du nicht auf 60FPS fixiert sein müsstest könntest du halt was dagegen tun^^

Hier zum Vergleich der exakt gleiche Lauf mit Frame Generation und 80FPS Limit, aber ohne SuperSampling, also weiterhin 1440p nativ.
Screenshot 2023-02-11 200812.png


Und dabei sogar noch ~40W weniger GPU Power^^

BetaHydri schrieb:
Mit welchem Tool hast du die Graphen erstellt?
Das mit dem ich auch die Aufnahmen mache, dem Tool aus meiner Signatur;)
 
Pisaro schrieb:
Du meinst mit 30 FPS wenn man auf 4K geht?. Nein, dass ist SEHR weit weg von "laufen Klasse".
Gut, dafür zahlt man auch fast nichts für eine Konsole. Da passt P/L definitiv.

Nein der Performance Modus unterscheidet sich optisch kaum und läuft mit 60 fps. Keine Ahnung mit welcher Auflösung. Aber meine PC Gewöhnten 1440p Augen fühlen sich auf jeden Fall nicht beleidigt. Mit ordentlicher Optimierung ist die Leistung der Konsolen für den Preis schon OK finde ich.
 
die 4070ti hätte nur 700 Euro kosten dürfen und für 1440p beworben wäre sie ein fairer Deal. PC Gaming ist halt ätzend teuer geworden. Ich fand das Fazit des Tests halt etwas fokkusiert auf VRAM. Das bspw die AMD bei RT mal wieder arg hinterher sind, wurde nicht thematisiert. Aber vielleicht ist das bereit Status Quo.
 
Taxxor schrieb:
Aber wenn du nicht auf 60FPS fixiert sein müsstest könntest du halt was dagegen tun^^

Hier zum Vergleich der exakt gleiche Lauf mit Frame Generation und 80FPS Limit, aber ohne SuperSampling, also weiterhin 1440p nativ.
Anhang anzeigen 1324085

Und dabei sogar noch ~40W weniger GPU Power^^


Das mit dem ich auch die Aufnahmen mache, dem Tool aus meiner Signatur;)

FG mag ich nicht, das fühlt sich immer so krank an, insbesondere da VSync fehlt.
 
Zuletzt bearbeitet:
BetaHydri schrieb:
insbesondere da VSync fehlt.
Ich wüsste halt nicht, warum man 2023 noch VSync nutzen wollen würde, außer man hat immer noch keine Hardware, die VRR unterstützt und da gilt dann eben wieder mein erster Satz^^
 
Taxxor schrieb:
Ich wüsste halt nicht, warum man 2023 noch VSync nutzen wollen würde, außer man hat immer noch keine Hardware, die VRR unterstützt und da gilt dann eben wieder mein erster Satz^^

Ich müsste den X7200WA AVR ersetzen (wozu ich derzeit keine Lust habe, es war keine Peking-Schachtel) und/oder den EIZO durch einen BlingBling Monitor ersetzen, das kommt auch nicht ins Haus. Hoffe EIZO kommt mit einer Lösung.
Also in kurz: VSync bleibt.
 
Zuletzt bearbeitet:
Zurück
Oben