• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

Test Hogwarts Legacy im Test: Stimmungsvoller VRAM-Fresser mit Upsampling satt

Ich spiele es auf der PS5, und finde das Spiel bisher sehr überzeugend. Von der Grafik her ist es aber eher inkonsistent, manche Sachen sehen sehr gut aus und andere nicht so. Gerade die Beleuchtung ist manchmal eher schwach und lässt die Grafik dann wie ein älteres Spiel aussehen. Gibt aber auch viele Bereiche die wirklich gut aussehen.

Das Kampfsystem ist erstaunlich gut, und etwas anders als so die üblichen Standardsysteme. Der Schwierigkeitsgrad war am Anfang auch auf normal schön fordernd, aber nicht zu schwer. Gerade so das man sich ein bißchen mit dem Kampfsystem auseinandersetzen muss und nicht einfach nur rumklickt.
 
  • Gefällt mir
Reaktionen: Dante2000, Apacon und Laphonso
Blackfirehawk schrieb:
Oder man geht mit unrealistischen Vorstellungen davon aus das UHD@max lang gut geht mit der Karte.
Deswegen ist sie in meinen Augen auch bloß eine wqhd high refresh Karte.

Da bin ich hinsichtlich der Karte ganz bei Dir.
Mit einer Ausnahme: raytracing würde ich erwarten als Kernfeature, aber auch das zieht teilweise ordentlich Speicher - siehe auch dieser Test. Und schon dafür ist das "Zukunftspolster" recht dünn.

Wo ich nicht bei Dir bin, ist das Thema der unrealistischen Vorstellungen. Für eine Karte zu DEM Preispunkt dürfen es tatsächlich 16GB sein. nVidia hat unter dem Eindruck der Chipknappheit (und der Preise von TSMC) extrem viel wafer-Fläche sparen wollen. Der eine 64bit-SI ist eigentlich recht klein, aber der Hauptgrund für den kleinen Speicherausbau. Der eingesparte Speicherchip ist da nur nebensächlich im Vergleich...
Bei einer 600€-Karte (klingt an sich schon pervers, aber ja, Inflation, teure Preise von TSMC, Währungsschwankungen... so sind die Zeiten) könnte ich das verstehen. Nicht gut heißen. Aber verstehen.

Bei - Marktpreisen - von ~1000€ kann ich es nicht mehr. Es zeigt einfach wie sehr die Industrie uns erzogen hat diese Preise zu akzeptieren. Die werden den minern und scalpern noch nachträglich danken dafür...

P.S.: Dass die Leistung für 4k nicht ausreicht, vor allem nicht "auf Zukunft", ist ohnehin klar. Das ist ein überzüchteter Notebookchip, mit vernünftiger TDP wäre der vor sechs Jahren noch für 350-400€ verkauft worden. Technisch kann die Karte denke ich jeder hier einordnen - der Unterschied ist die Akzeptanz der aufgerufenen Preise. Und da setzt nVidia selbst, auch in der Werbung, die Leistung mit DLSS3 als "Vergleichspunkt". Dafür ist der Preis okay. Nur, DLSS3 funktioniert nicht immer. Und dann hat man eine gute Karte, die einfach nur schweineteuer war und nicht das kann wofür man sie eigentlich gekauft hat.
 
  • Gefällt mir
Reaktionen: Unti
Rick Sanchez schrieb:
Momentan gibt es eigentlich nur 2 Grafikkarten, die man zum Spielen mit gutem Gewissen nehmen kann, ...
Jo, wenn man in einer völlig realitätsfernen Enthusiastenbubble lebt, ist das so.
Wenn "Regler nicht ganz rechts" undenkbar wird, sollte man vielleicht... ach, ich will keinen Bann riskieren.
 
  • Gefällt mir
Reaktionen: Captain Mumpitz, KickiSurface und Gortha
Das hat NVIDIA wohl so nicht erwartet. Da rächt sich das Sparen am RAM. Oder ist es ein cleverer Schachzug, weil dann mehr hochwertige Karten verkauft werden?
 
Wird ein Pflichtkauf, aber erst wenn es ordentlich gepatcht wurde. Ich war Ende letzten Jahres mit der Family in London und wir haben uns auch 1 Tag lang die Harry Potter Ausstellung in den Warner Bros Studios angeschaut - einfach fantastisch. Wahnsinn wie viel Aufwand da in einzelne Szenen und Ausstattungen (Gringotts, Hogwarts selber, ...) geflossen ist - kann ich nur empfehlen.

IMG_5071.jpeg


@Wolfgang
Alle anderen holt Hogwarts Legacy nicht von den Socken.

Konntest Du Dich nicht zwischen "haut nicht aus den Socken" und "holt nicht hinter dem Ofen vor" entscheiden? ;)
 
  • Gefällt mir
Reaktionen: SDJ, Gesualdo, Apacon und 2 andere
Rick Sanchez schrieb:
Es ist halt nur ne kleine 70er Karte. Mit den 70ern musste man schon immer Kompromisse eingehen.

Nein, diese Karte war als 4080 für 4k geplant. In der Realität verliert sie aber aufgrund des zu schmalen Speicherinterface Mal eben 10 Prozent Leistung gegenüber wqhd und hat eben 4 GB zu wenig für diesen Preis. Wenn es eine 70er für 600 Euro wäre, würde ich ja gar nichts sagen.

Die Karte ist einfach eine Mogelpackung. Genauso wie die 3070 mit 8 GB und die 3080 mit 10 GB. Zurecht waren diese Karten nicht beliebt, weil wer bereit ist für gaming soviel Geld auszugeben, der will doch nicht ernsthaft nach so kurzer Zeit derartige Kompromisse machen.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: Icke-ffm und Master Chief !
@Poati
Die Aussage man hätte könnte es ja besser machen oder schöner darf nicht mehr RAM kosten hat sich in der IT schon immer widerlegt.

Wenn es ein Trend wird, was schon öfters einen Schub gebracht hat, dann wird er auch unweigerlich passieren.

Nvidia muss sich das auch nicht erst seit gestern gefallen lassen. Bei einer Karte dieser Summe spricht finanziell nichts dagegen es zu verbauen, nur das up selling wird so begründet.

Ich bleib dabei 16GB sind Standard seit AMD damit angefangen hat es überall zu verbauen.
 
scryed schrieb:
Lese ich jetzt zum zweiten Mal aber Mittelerde shadow of mordor und war sind für mich klasse Spiele
Ich meinte in der Aufmachung wie Hogwarts Legacy. Das man z. B. zwischen verschiedenen Völkern wählen kann, dann durch Mittelerde reisen kann und dann seinen eigenen Char weiter zu entwickeln etc.
 
Versteh ich das richtig, dass nun viele Karten von Nvidia generell mehr Leistung bei Raytracing als die AMD Karten haben, aber gleichzeitig zu wenig vram um dieses Feature in Hogwarts nutzen zu können?
 
  • Gefällt mir
Reaktionen: Lamaan und up.whatever
Da ist nicht nur Nvidia der Schuldige sondern auch der Entwickler des Spiels.
Das Spiel cleared einfach nicht richtig den VRAM wodurch es zu overhead kommt.
Muss man gar nicht drumrum reden. Wenn ich 5gb Auslastung auf der 3080 habe nachdem ich meinen Spielstand lade und der VRAM dann langsam bis auf 9,9gb steigt und NUR dann dropped wenn ich zb eine Mission spiele die in einem instanzierten Bereich stattfindet dann zeigt das ganz klar das hier etwas vollkommen falsch programmiert ist. Selbst das fast traveln cleared den cache nicht. Man merkt das ganz schön wenn man von Hogwarts nach Hogsmead fast traveled und der VRAM immernoch auf Anschlag voll ist.
Ist ein klassischer Fall von Memory Leak. Das gabs auch schon in anderen Spielen wie z.B. Elden Ring wo der VRAM auch voll lief und dann das Ruckeln los ging.
 
  • Gefällt mir
Reaktionen: Master Chief !, wtfNow, Klever und eine weitere Person
TenDance schrieb:
Wo ich nicht bei Dir bin, ist das Thema der unrealistischen Vorstellungen. Für eine Karte zu DEM Preispunkt dürfen es tatsächlich 16GB sein.
Sehe ich genau so. Aber dann kauft man die 4080 oder doch eine 7900XTX oder eine gebrauchte 3090/Ti.
Also die Verwantworung im Kaufverhalten und bei der Entscheidung liegt schon bei einem selbst. Mann "muss" die 4070Ti nicht nehmen, wenn man VRAM als potenziell erfolgskritisch im zukünftigen eigenen Spielverhalten erkennt oder eine Transition plant auf UWQHD oder 4K und weiß, dass man AAA Gaming nutzen will.
Dann hat man schlicht die falsche GPU oder die GPU falsch gekauft. Dafür kann Nvidia nichts.

Und dafür - um so etwas vorher zu klären - haben wir hier die Hardware Beratungsthreads.

thuering schrieb:
Jo, wenn man in einer völlig realitätsfernen Enthusiastenbubble lebt, ist das so.
Wenn "Regler nicht ganz rechts" undenkbar wird, sollte man vielleicht... ach, ich will keinen Bann riskieren.
Hast Du völlig recht! Bekloppte wie ich investieren in dieses Daddelhobby, um ohne Kompromiss fps und Ultra ballern zu können.

Man kann diese Spiele aber auch wunderbar alle auf "normalen" hohen Settings spielen unter der Stufe Ultra.

Im reddit und im Steamforum haben die Leute nicht weniger Spaß in kleineren Auflösungen und mit weniger Grrafikfeatures auf älteren Systemen.
Ich bezweifele, das Hogwarts Legacy mit einer 4,5 Jahre alten 2070 keinen Spaß macht.

Wer "alles" will, muss investieren. Oder kauft eine Konsole, die aber eben auch nur einen Kompromiss darstellt.
 
  • Gefällt mir
Reaktionen: Gesualdo, Gortha und DocWindows
thuering schrieb:
Wenn "Regler nicht ganz rechts" undenkbar wird
"Regler nicht ganz rechts" ist schon denkbar. Das ist doch der Indikator dafür, dass die GraKa nicht mehr reicht und man ne neue braucht. Aber das ist doch nichts, was man bei einer neuen GraKa macht. "Regler nicht ganz rechts" nutzt man um die Zeit zu überbrücken, bis man sich eine neue GraKa geholt hat.
 
  • Gefällt mir
Reaktionen: Justuz und TenDance
Rick Sanchez schrieb:
PS5 weniger leistet, wenn nicht mit der Rechenleistung?
In dem test steht auch, dass er nicht allgemeingültig ist. Andere tester haben andere Ergebnisse gehabt, es macht einfach kaum Sinn die beiden Plattformen zu vergleichen. Davon abgesehen kostet ne GPU, die die Leistung der ps5 hat, neu um die 400 Euro. RAM, Mainboard, Netzteil, ssd, Gehäuse, Lüfter, Betriebssystem, CPU sind da noch nicht miteinbezogen. Natürlich können ps5 und xbsx nicht mit PCs mithalten in der reinen Rechenleistung. Aber es ist sehr spieleabhängig, was die Konsolen im Vergleich zu PCs schaffen und was nicht.
Aber reine tflops bringen nix, hat man bei Vega vs pascal deutlich gesehen.
 
  • Gefällt mir
Reaktionen: -=[CrysiS]=-
Laphonso schrieb:
Ich würde Hogwarts Lagacy nicht unter die Top 5 besten Titel grafisch einsortieren, aber im Vergleich, was die grafische Kulisse und LOD der Draw Distance sowie foliage angeht - ich bin z.B. gerade nachts outdoor unterwegs an einem Gewässer - ist die Hogwarts Welt fantastisch und hält grafisch mit RDR2 mit.
Es gibt seit Jahren doch kaum Spiele, die noch was reißen, man beschwert sich hier über die 2015er Grafik und im Forspoken Thread über 2010er Grafik und ich sag nur dazu: nach Crysis, gab es bloß noch kleine Mini-Steps.
Seit 2006 hatte ich keinen Aha Moment mehr. Das einzige was mich da hin und wieder hinterm Ofen hervorlockt ist gutes Motion Capturing usw.
Texturen sind natürlich besser geworden, die Beleuchtung usw. aber so einen richtigen Banger gibt und gab es nicht.
Die Spiele sehen alle gut und brauchbar aus, da braucht sich keines verstecken, einzig bei dem Leistungsanspruch kann man sich jetzt streiten. Keines der Spiele sieht so aus, dass es eine 4090 oder 4080 oder 7900XTX benötigen sollte.
Denk doch mal an die arme 8800GTX zurück, das arme Gerät, und von dem rein visuellen hat sich nicht viel verändert....

Laphonso schrieb:
TLDR: Ich bin ein anspruchsvolles "alles auf Ultra" Grafikopfer
Wir brauchen einen Grafikopfer #4090 Thread, unbedingt :D
 
  • Gefällt mir
Reaktionen: SDJ, Wanderwisser, Rick Sanchez und eine weitere Person
beckenrandschwi schrieb:
Das hat NVIDIA wohl so nicht erwartet.
Sehr wahrscheinlich schon, das geht ja schon seit vielen Jahren so. Bis zur GTX700 haben übrigens mache Hersteller doppelt soviel RAM verbaut wie Nvidia beim Referenzmodell. Nvidia hat das dann verboten.
beckenrandschwi schrieb:
Oder ist es ein cleverer Schachzug, weil dann mehr hochwertige Karten verkauft werden?
Genau das ist es.
Ergänzung ()

Gerithos schrieb:
Aber reine tflops bringen nix, hat man bei Vega vs pascal deutlich gesehen.
Das stimmt natürlich, Nvidia ist deutlich besser als AMD, aber aktuell Konsolen nutzen ja (abgesehen von der Switch) nur AMD.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Lamaan
beckenrandschwi schrieb:
Das hat NVIDIA wohl so nicht erwartet. Da rächt sich das Sparen am RAM. Oder ist es ein cleverer Schachzug, weil dann mehr hochwertige Karten verkauft werden?
Naja, da ist der Kauf der Nachfolgegeneration doch quasi garantiert, oder?
 
  • Gefällt mir
Reaktionen: up.whatever
Wolfgang schrieb:
Offiziell ist auch der Nvidia-Treiber nicht für das Spiel optimiert, doch legt das Erscheinungsdatum nahe, dass die Software entsprechende Anpassungen erhalten hat.
Laut Guru3D Forum gibt es zumindest ein Profil mit dem Treiber. Also etwas Optimierung scheint es gegeben zu haben. Kann man irgendwie feststellen, ob so ein Profil auch genutzt wird? Dann könntest du ja gucken, ob es vorhanden ist und auch genutzt wird.
 
C0rteX schrieb:
Nein, diese Karte war als 4080 für 4k geplant. In der Realität verliert sie aber aufgrund des zu schmalen Speicherinterface Mal eben 10 Prozent Leistung gegenüber wqhd und hat eben 4 GB zu wenig für diesen Preis. Wenn es eine 70er für 600 Euro wäre, würde ich ja gar nichts sagen.

Die Karte ist einfach eine Mogelpackung. Genauso wie die 3070 mit 8 GB und die 3080 mit 10 GB. Zurecht waren diese Karten nicht beliebt, weil wer bereit ist für gaming soviel Geld auszugeben, der will doch nicht ernsthaft nach so kurzer Zeit derartige Kompromisse machen.
Tja leider gibt es für 900 Euro keine Alternative. Die 7900XT ist auch keine Alternative wegen der schlechten Raytracing Performance und den anderen Nachteilen die man im kauf nehmen muss wenn man eine AMD Karte kauft. Amd soll mal die Preise senken. Eine 7900XTX hätte ich der 4070 TI vorgezogen sollte aber nicht sein.
1676022459298.png

Andererseits 3090 TI Level. Wenn man bedenkt das die 3090 TI lange die Karte schlechthin war.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Kuestennebel79 und iSight2TheBlind
Bzw. soll der nicht ganz so erfahrene Kunde ja in 2 Jahren am besten eine neue Karte kaufen, also beschneidet man die Karten so, dass früher eine Limitierung eintritt. Geplante Obsolenz nennt man das und ist in vielen Branchen leider im Produktdesign berücksichtigt. Wer früher unzufrieden ist und nicht weiß warum, kauft halt neu.
 
Unti schrieb:
Seit 2006 hatte ich keinen Aha Moment mehr.
Vielleicht werden die kommenden "komplett auf UE5" entwickelten Games (und andere "next gen" engines) hier einen weiteren Schritt vollziehen.
Non-hybrides Raytracing wird hier allerdings auch eine Rolle spielen, aber dann sind wir auch längst bei der Playstation 6 und RTX6000 und RDNA5 Karten.

Man kassiert immer Prügel bei diesen Aussagen, aber die LIMITS DER KONSOLEN prägen leider jede Weiterentwicklung. Wer das nicht glaubt, fdragt die Devs ;)

Der PC ist dann nur noch "Unlocker" für bessere Texturen und Ultra Settings. Das Fundament bleibt bestehen für Games auf bereits jetzt schon fast 2,5 Jahre alter Konsolenhardware, die technisch ihrerseits eher 4 Jahre alt ist.
 
  • Gefällt mir
Reaktionen: Gesualdo, Sturmwind80 und Gortha
Zurück
Oben