• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

Test Hogwarts Legacy im Test: Stimmungsvoller VRAM-Fresser mit Upsampling satt

Justuz schrieb:
Versteh ich das richtig, dass nun viele Karten von Nvidia generell mehr Leistung bei Raytracing als die AMD Karten haben, aber gleichzeitig zu wenig vram um dieses Feature in Hogwarts nutzen zu können?
Das ist ja das Absurde, dass hier der Blinde dem Tauben seine Nachteile erklären will.

AMD könnte auch 800GB VRAM bieten. Trotzdem sind sie aktuell leistungstechnisch zu schwach für kombinierte RT Effekte in hoher Qualität bzw. Auflösung.

Und NVIDIA hätte zwar die RT Leistung, wobei man dann mit Bedacht je nach Karte und Software wieder Regler nach unten stellen muss, um den VRAM Bedarf im Rahmen zu halten.

Beide Lager feinden sich aber an und halten den anderen für den Idioten, weil man XY ja schon immer gesagt hätte. Ein abstruses aber durchaus unterhaltsames Schauspiel. Beide müssen ihre Regler nach unten stellen.

Nur die vielverspotteten und für wahnsinnig erklärten 4090 User lachen im Augenblick drüber, wobei man die preislich zerfleddert hat, wie eine Weihnachtsgans :)
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Captain Mumpitz, karl_laschnikow, SDJ und 10 andere
Am Ende steht wieder die Frage:

Was kommt auf den sogenannten "NextGen-Konsolen" wirklich an Leistung raus? Wenn hochpotente HW wie eine 4080 RTX mit strammen CPU Unterbau gerade so (ohne RT) in der Lage sind 60fps bei 4K zu liefern - wie beschränkt ist dann die Engine auf dem PC bzw. wie "faken" die den Spielern auf Konsolen eine stimmige Bildausgabe.

Wenn ein Kumpel mir sagt sein fps Zähler bei COD:MW2 bleibt unter 4K immer bei 120, kann ich nur lachen. Das kriegt die HW gar nicht hin...
 
@C0rteX
Die 7900er Serie erinnert mich sehr an die HD2000/3000 Serie. Erst 20% hinter der 88er Serie von Nvidia, überholte ATI innerhalb eines Jahres die Konkurrenz in den aktuellen Spielen. Wohlgemerkt ohne DX10.1...

Dazu kommt noch, dass die HD2900 genauso eine Pannenserie war wie die aktuelle AMD Generation. AF16x ließ die Performance brachial einbrechen. Mit AF4x war ATI auf Augenhöhe zur GTS 640.
 
Laphonso schrieb:
Man kassiert immer Prügel bei diesen Aussagen, aber die LIMITS DER KONSOLEN prägen leider jede Weiterentwicklung. Wer das nicht glaubt, fdragt die Devs ;)

Du kassierst deswegen von mir keine Prügel ;) , aber ich denke Du machst es Dir da etwas einfach, es nur auf die Konsolen zu schieben. Es ist ja nicht so, als wäre der Standard PC "da draußen" besser bestückt als eine aktuelle PS5 / XSX. Du darfst nicht davon ausgehen, dass Deine Highend Ausstattung die Norm darstellt und die Entwickler dafür entwickeln würden. Außerdem sind die Konsolen auch nur noch "reduzierte PC's" und somit sollte eigentlich für diese dann einfach eine reduzierte Grafikkonfiguration ausreichen, wie es bei jedem "normalen" PC auch gemacht wird. Ich denke aber eher, die Entwickler wollen gar nicht den Aufwand in ihr Spiel stecken, um auch PC Besitzer mit einer 4090 glücklich zu machen. Die Zeit und das Geld was das kostet kommt bei dem kleinen Promille an installierter Basis nie wieder rein.

Laphonso schrieb:
Der PC ist dann nur noch "Unlocker" für bessere Texturen und Ultra Settings. Das Fundament bleibt bestehen für Games auf bereits jetzt schon fast 2,5 Jahre alter Konsolenhardware, die technisch ihrerseits eher 4 Jahre alt ist.

Auch das ist etwas übertrieben dargestellt, nur um Deinen Standpunkt zu untermauern. Beim Release Ende 2020 boten die Konsolen eine APU auf Basis von Ryzen 4000, welcher erst Anfang 2020 erschien, und RDNA 2 auf Basis von 6700 XT/ 6800, welcher ungefähr zeitgleich bzw. nach (6700 XT) den Konsolen erschien. Wie Du da auf 4 Jahre kommst, ist mir etwas schleierhaft, außer dass es halt "besser klingt". NVMe SSD als Standard hat bis heute noch nicht jeder PC, von daher...
 
  • Gefällt mir
Reaktionen: SDJ, Illithide und iSight2TheBlind
Raucherdackel! schrieb:
Und im Test zur den mobilen Nvidia Karten fliegt die 4080 raus, weil sie laut Hersteller nicht richtig funktioniert und zu viel Strom braucht.
Bidde? Sie ist am Anfang rausgeflogen, weil im Muster die VRAM-Temp so hoch lag in den Benchmark, dass die Ergebnisse zu niedrig waren und nicht dem eingestellten Power-Limit entsprachen. Nur Stunden nach Fall des Embargos war die 4080 wieder drin, weil ich die Benchmarks mit unkritischen VRAM-TEmperaturen neu erstellt hatte. Inzwischen ist sie mit 60 und 105 Watt zusätzlich drin - also mit der kleinsten Konfig, die Nvidia zulässt - und die mit der großen (Effizienz hin oder her) kaum noch was zu tun hat. Das gibt es bisher weltweit nur bei uns, soweit ich weiß. Und das feiert Nvidia natürlich richtig ab!

BTW: Der aktuelle Podcast zum Thema RTX 4000 Laptop GPU, deren Namensschema und TGP-Bandbreiten war natürlich auch ein Wunsch von Nvidia. Nicht.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Zensai, karl_laschnikow, Gesualdo und 9 andere
Vor lauter Zocken hab ich den Thread hier verpasst. Was im Text fehlte oder CB wohl Glück hatte: Am WE gab es ein Gamestar-Vid, in dem die technische Umsetzung zum Zeitpunkt kritisiert wurde. Daran hatte sich dann für die ganzen Deluxe-Vorbesteller zum "Start" am 7.02. nichts geändert. Da konnten viele erstmal nicht starten zum genannten Zeitpunkt (19 Uhr hier) und in der Steam Community ging's ab, die Vielzahl von technischen Problemen war Dauerthema. Ich konnte um 21 Uhr dann starten, da wurden halt eben erst nach und nach die Leute freigeschalten, Server überlastet whatever. Ich hab selber 0 Probleme mit Stottern etc. gehabt, dafür aber ständig Abstürze, mal 1x pro Stunde, mal in einer Cutscene (da kam ich nur weiter, weil das Spiel noch im Hintergrund lief..?), mal 5x hintereinander beim Herumlaufen und Sichten von Feinden.
Der Austausch der dlss-Datei auf die neueste Version hat dann geholfen, das Spiel läuft jetzt 100% stabil.
Ahso und Edit: bisher gibt's keinen Patch (vielleicht heute Abend?) und auch kein Treiberupdate von NV.
Edit 2: ein paar Benches von der 4090:
Treiber 528.49, DLSS Swap auf 2.5.1.0, 4K, CapFrameX mit CB Benchmark-Szene, HDR on, alles auf Ultra, RT Ultra, jeweils Avg und P1%
TAA Hoch: 50,5 / 36,5
NIS Hoch: 66 / 43,4
DLSS Quality: 71,5 / 50,5
DLSS 3: 116,6 / 90,6
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Caramelito
Eigentlich müsste ein unabhängiges Institut jedes Spiel prüfen, bevor es veröffentlich werden darf. Wenn es noch mit zu viel Bugs und Fehlern behaftet ist, einfach den Release verbieten, bis eine Nachbesserung nachgeliefert wird. Das würde wohl erst die Entwickler dazu bringen, das Spiel "fertiger" zu releasen.
 
  • Gefällt mir
Reaktionen: Hatsune_Miku
Ich spiele quasi seit Early Access. Meine Settings wurden in WQHD automatisch auf "Mittel" gesetzt und ich habe FSR2 eingeschaltet. Die FPS schwanken zwischen 90 und 150, was mir lieber ist als auf "Hoch" zu gehen und nur knapp 60 FPS zu haben. Ich finde es sieht aber trotzdem gut aus und merke auch keine Ruckler, auch nicht in Zwischensequenzen. In Innenbereichen sieht man öfter Beleuchtung, wo keine sein sollte, was so ziemlich der einzige Bug ist, den ich bisher gesehen habe. Aber ich denke, dass wenn der entsprechende Treiber rauskommt, sich das ganze noch bessert.
Habe jetzt nicht den kompletten Thread gelesen, aber für NVIDIA Besitzer lohnt sicher der DLSS Swapper. Auf Reddit wird berichtet, dass es einen extremen Performance Sprung gibt und auch das Ghosting komplett verschwindet.
 
  • Gefällt mir
Reaktionen: Apacon
Danke für den Vorabtest 🙂

Wann kann man denn mit dem Day 1 Patch und dann mit einem entsprechend umfangreicheren Test rechnen?
 
Hier noch etwas extra Data. Ich bin überrascht wie "gut " die RX 7000 hier selbst mit Raytracing gegenüber der 4000er Gen performt. Man muss halt doch immer 5 Tests lesen und schauen, um ein Gesamtbild zu erhalten.

 
  • Gefällt mir
Reaktionen: Icke-ffm, MiroPoch, Klever und eine weitere Person
Ich werde das im Releasethread nochmal wiederholen, weil ich denke, dass viele das gar nicht nutzen:

Bitte seht Euch um, SCHAUT NACH OBEN! :D Es ist nicht intuitiv, aber schaut Euch um, schaut an die Decken der Gewölbe, der Räume, der Katakomben.
So viele Details, so viele Verzierungen, so viele Animationen, so viel Struktur, so viel Ästhetik, die man übersieht, wenn man nicht hinschaut.

1676028788953.png

(im Spiel ist das animiert)
Der Umfang und das Ausmaß dieses Spiels steckt auch in diesen Facetten. Das Design haben ich in den wenigsten Spielen derart detailverliebt erlebt bisher.
Ich kann den Designern und Entwicklern hier nur applaudieren, das ist wahre Leidenschaft.

Und für diese Erlebnis braucht man auch keine Ultrasettings :)
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: SDJ, Tagesmenu, Celinna und 8 andere
peakyblinder schrieb:
Da steht doch, dass 16GB optimal sind. Mit 12GB gäbe es kleine Ruckler und hier und da Texturnachladeszenen. Also eben nicht!
Reicht trotzdem in FHD. Auch für dieses unoptimierte Stück Softwareschrott
 
Atnam schrieb:
Da ist nicht nur Nvidia der Schuldige sondern auch der Entwickler des Spiels.
Wurde gestern nach einer Mission zurück in ein Dorf teleportiert und durfte dann mit einem 5800x3d/3080 und spiel auf SSD zuschauen, wie die Textur-Tiles sich einzeln aufgebaut haben, hat sicher 10s+ gedauert. Das hab ich seit vielen Jahren nich gesehen. Man versucht sicherlich für die Immersion so wenig bis gar keine Ladescreens zu haben und scheitert dann daran die Dinge gescheit zu streamen bzw. das neu- und entladen korrekt zu managen.
 
  • Gefällt mir
Reaktionen: Master Chief !, Atnam und Nick.Bo
C0rteX schrieb:
Hier noch etwas extra Data. Ich bin überrascht wie "gut " die RX 7000 hier selbst mit Raytracing gegenüber der 4000er Gen performt. Man muss halt doch immer 5 Tests lesen und schauen, um ein Gesamtbild zu erhalten.

Ohne einen ordentlichen Patchstand und wenigstens minimal angepasste Treiber sollte man als Tester garkeine groß angelegten Performace-Tests machen.
Das Spiel inhaltlich bewerten und gut ist.

Man sieht, dass die CB hier versuchte einen Spagat zu machen. Gleichzeitig umfänglichere Tests sein zu lassen, sich aber gleichzeitig zu Wertungen (Vram-Blabla, FPS bei AMD...) verstiegen hat, die einfach haltlos sind, solange das Spiel einer Beta entspricht und Treiber nicht minimal gegenwirken konnten.

Aber alles muss ja heute schnell, schnell und Ersta!11^^!-Sein.
Dann kommen eben so halbgare Sachen raus.

Das gilt erst recht für Hardware Unboxed und andere Youtuber
 
Raucherdackel! schrieb:
@C0rteX
Die 7900er Serie erinnert mich sehr an die HD2000/3000 Serie. Erst 20% hinter der 88er Serie von Nvidia, überholte ATI innerhalb eines Jahres die Konkurrenz in den aktuellen Spielen. Wohlgemerkt ohne DX10.1...

Dazu kommt noch, dass die HD2900 genauso eine Pannenserie war wie die aktuelle AMD Generation. AF16x ließ die Performance brachial einbrechen. Mit AF4x war ATI auf Augenhöhe zur GTS 640.

Das war bei der rx 6000 ebenfalls so. Die hat aufgrund der Treiber in den letzten 2 Jahren viel mehr zugelegt, als es die Nvidia getan haben. Ich hoffe ja das sie die RX 7000 Reihe noch etwas pushen. Bin da erstmal zuversichtlich, aber momentan eine neue Karte kaufen, würde ich auch nicht wollen. Von beiden Herstellern nicht. Der Markt kollabiert. Vielleicht denken die beiden Unternehmen ja noch Mal über ihre Preisgestaltung nach. Bei der Fake 4080 hat die Empörung ja auch gewirkt. Wurde eine 4070 ti für 100 bis 200 Euro weniger als angedacht. Ist für mich trotzdem keine akzeptable Karte, aber immerhin hat es etwas gebracht, dass die Leute eben nicht einfach schlucken und zahlen.
 
W0dan schrieb:
Und damit kehrst du unter den Tisch, dass auch am PC in diesen "4 Jahren" kaum was passiert ist.
Ich stimme Deinem Post zu, aber leider ist es genau das Problem, dass die Games nicht nativ für den PC mit skalierenden und voll utilisierten CPUs genutzt werden. Das OS hat hier auch ein Korsett, natürlich, aber würde man ein Spiel für das eine CPU 7950x und eine GPU 4090 entwickeln samt DDR5 und M2 und die technologisch in diesem Vergleich weit abgeschlagene Playstation ignorieren, hätte man das Problem nicht.

Aber: Das ist nicht machbar, und in dieser Zielgruppe reichen die Sales nicht aus, das kaufen dann weltweit 50.000 vielleicht.

Der PC ist daher nur das Druchbrechen des Korsetts von Auflösung, Frames und Effekten, aber auf dem Fundament des Spiels = der Entwicklungsumgebung.

Die riesige Distanz zwischen den Konsolen und der aktuellen High End Hardware bekommen wir quasi nie zu sehen. Hier habe ich sie mit bis zu 180 Raytracing fps.

Doch nicht mal die Konsolen sind das alleinige Limit:
Hogwarts Legacy soll halt auch auf Hardware von 2016 laufen. "Laufen" ist da Auslegungssache , aber es gibt genug, die spielen das auch auf Low oder Medium Settings und Full HD.

Meine Hoffung sind daher die kommenden Engines, die zwar ebenfalls auf Mainstreamhardware setzen MÜSSEN am Ende, aber vielleicht bessere Skalierung zulassen.
 
Zuletzt bearbeitet:
Laphonso schrieb:
Ich werde das im Releasethread nochmal wiederholen, weil ich denke, dass viele das gar nicht nutzen:

Bitte seht Euch um, SCHAUT NACH OBEN! :D Es ist nicht intuitiv, aber schaut Euch um, schaut an die Decken der Gewölbe, der Räume, der Katakomben.
So viele Details, so viele Verzierungen, so viele Animationen, so viel Struktur, so viel Ästhetik, die man übersieht, wenn man nicht hinschaut.

Der Umfang und das Ausmaß dieses Spiel steckt auch in diesen Facetten. Das Design haben ich in den wenigsten Spielen derart detailverliebt erlebt bisher.
Ich kann den Designern und Entwicklern hier nur applaudieren, das ist wahre Leidenschaft.

Und für diese Erlebnis braucht man auch keine Ultrasettings :)

Absolut! Ich bin geflasht von dem Titel. So viele Details… einfach unglaublich. Fantastisches World Building!!
 
  • Gefällt mir
Reaktionen: SDJ, burglar225, Illithide und 2 andere
C0rteX schrieb:
Hier noch etwas extra Data. Ich bin überrascht wie "gut " die RX 7000 hier selbst mit Raytracing gegenüber der 4000er Gen performt. Man muss halt doch immer 5 Tests lesen und schauen, um ein Gesamtbild zu erhalten.


Da sieht man ja vor allem 2 Dinge:
1) Das Game braucht Optimierung.
2) Die letzte und die aktuelle Nvidia Generation sind ein Witz unterhalb der beiden Top Modelle.
 
  • Gefällt mir
Reaktionen: Rick Sanchez
Zurück
Oben