• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

Test Hogwarts Legacy im Test: Stimmungsvoller VRAM-Fresser mit Upsampling satt

Piecemaker schrieb:
Die Mehrheit hatte aber Probleme,
500.000 im Spiel, 15.000 jammern in den Foren


3% = Mehrheit? ;)

Selbst wenn es 15% wären: Dann wäre viel viel mehr los. Das spielt sich alles wunderbar, Stunden und Stunden und Stunden; abseits der genannten fps Drops.

Wie immer das Phänomen, die Betroffenen lassen den Frust in den Foren und social media raus.
Die Mehrheit zockt einfach.
 
  • Gefällt mir
Reaktionen: karl_laschnikow, Player49, Tr0nism und 9 andere
peakyblinder schrieb:
Wo ist der Typ von letzter Woche, der meinte, dass 12GB VRAM allgemeingültig für alle Spiele reichen und die 4070Ti mehr als ausreichend sei? LOL! Hier hast du es !!!! ;)
Reicht auch, aber nicht in 4k. ^^
 
Laphonso schrieb:
500.000 im Spiel, 15.000 jammern in den Foren

Sorry, aber das muss sein.

Ich muss @Piecemaker Recht geben.
Das spiel ist am eigenen Anspruch gescheitert, die Masse weiß es einfach nur nicht besser.
Wieso diskutiert man diese ganzen krassen Probleme weg? Ist dir nicht aufgefallen wie viel versprochen wurde, was aber nie im Spiel gelandet ist?
Hatte das Spiel auch zum Release gespielt, war alles ganz grausam, diese dumme Ki, die ganzen Bugs. Abgesehen davon fand ich das Spiel aber auch so total bescheuert, hab’s nie wieder angefasst, mich aber auch nirgendwo beschwert.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: Gene Jackman, gesperrter_User, Apacon und 2 andere
Ist eigentlich die Zeit reif dafür, dass man Release-Gamer auf masochistische Tendenzen hin untersucht?🤔
 
  • Gefällt mir
Reaktionen: Do Berek und edenjung
Piecemaker schrieb:
Denn niemand hatte zu Release eine Ampere Karte. Das war reines Marketing Blabla.

Na gut, dann bin ich also niemand. Denn ich hatte direkt zum Release, ok, 2-3 Tage später, meine 3080 hier. Und kenne noch einige andere im Freundeskreis, die sie hatten.

Zum Spiel selbst. Scheint wohl besser zu sein, als ich erwartet habe. Performance könnte besser sein, aber das wird sich noch geben.
 
Blackfirehawk schrieb:
Naja. Eine 4070ti ist eh keine UHD Karte in meinen Augen sondern eine wqhd high refresh Karte..


Ich finde es jedoch Mal wieder interessant wie wenig Raytracing optisch bringt und wie viel Leistung dabei unnötig verpufft


Puh, man kann sich seine 1000€ Investition halt auch schön reden. nVidia hat an der Karte 10$ gespart indem sie den Speicher so karg gehalten haben - und indirekt gleich die Nachfolgeinvestition gesichert. Mit der nächsten Generation löst man dann das Speicherproblem...


Raytracing ist für mich derzeit aber ebenfalls ein fragwürdiges Thema. Abgesehen von schicken Reflexionen sieht es oftmals so aus als würden die Entwickler durch Raytracing einfach bei der Entwicklung der Lightmaps und der Ambient Occlusion sparen. Ähnliches, zumindest wie auf den Standbildern, gab es auch schon VOR Raytracing zu sehen. War halt mehr Aufwand auf Entwicklerseite...
 
  • Gefällt mir
Reaktionen: Icke-ffm und MiroPoch
@Laphonso Das liegt aber eher daran, dass das Gros an Spielern schlechte Performance und framepacing Probleme sowohl am PC als auch Konsolen idR einfach hinnimmt und sich auf das Spiel selbst fokussiert. Den technisch etwas versierteren, die sich hier im CB Forum logischerweise akkumulieren, fällt das halt aber doch auf.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: _Sebu_ und Master Chief !
Taxxor schrieb:
Und mir fällt gerade noch auf das ist INKLUSIVE RT, ich sehe aber nirgendwo auch nur den Hauch von Schatten oder Ambient Occlusion, weder an der Tür, noch an dem Fenster, noch bei den Pflanzen, noch am Spieler-Charakter.
Ja, die RT Qualität ist ein Witz, aber es gibt bereits wirkungsvolle Config Tweaks dafür.
 
  • Gefällt mir
Reaktionen: MoinWoll
Naja mal wieder ein beweiß das die Spiele auf dem PC emuliert werden , in welcher art auch immer.
Die PS5 macht das locker und auf dem PC braucht man schon eine RTX4090 oder ein 5000€ PC um 60 fps zu bekommen.Vergleicht man die bildqualität (PC/Konsole) sind nur minimale unterschiede zu sehen.
Da kann doch was nicht stimmen.
 
  • Gefällt mir
Reaktionen: bluna, -=[CrysiS]=- und Master Chief !
Wie bei Forespoken klingt das nach schlampigen Ports. So viel VRAM, sollte das Spiel einfach nicht brauchen. Als 6900xt Nutzer zwar egal, aber die meisten werden eben noch zu Mittelklasse greifen. Da sollte bei 1080p einfach 8GB locker reichen.
 
  • Gefällt mir
Reaktionen: Exit666, InvalidTexture, schniggi_de und 2 andere
Zer0Strat schrieb:
Ja, die RT Qualität ist ein Witz, aber es gibt bereits wirkungsvolle Config Tweaks dafür.
Ich kann mir aber kaum vorstellen, dass mit Config Tweaks plötzlich an all diesen Stellen Schatten auftauchen? Da müssten ja auch ohne RT welche sein.
Auch bei deinem aktuellsten Bild auf Twitter sieht das ziemlich gruselig aus, da ist ja Forspoken eine Augenweide gegen^^
 
Laphonso schrieb:
Selbst wenn es 15% wären ...
Es waren so viele das Sony & MS CP eine Woche nach Release aus dem Store genommen haben, und uneingeschränkten Refund anboten. Es gab sogar Anleitungen für PC. Steam sowie Epic haben sich da auch nicht quer gestellt. Die wussten ja was los ist. Alles an dir vorbei gegangen?

Die PS4 Version hat sich bis heute nicht von Metacritic erholt:
https://www.metacritic.com/game/playstation-4/cyberpunk-2077


Taxxor schrieb:
Puh, also wirklich.....puuuuuh 45FPS mit ner 4090 für DAS?
Würde ich nicht wissen, dass das Hogwarts Legacy ist würde ich schätzen, das ist ein Ausschnitt von einem Spiel aus 2015, minimum.
Anhang anzeigen 1323236

Gut, für die extrem guten Texturen des Hauses im Hintergrund kann ich schon verstehen, dass man da 14GB VRAM belegen muss^^

Ediut: Und das ist INKLUSIVE RT, ich sehe aber nirgendwo auch nur den Hauch von Schatten oder Ambien Occlusion, weder RT noch Klassische.
Der VRam ist ja nicht nur mit dem gefüllt was man sieht, sondern mit der Area sehr weit drum herum. Der wird sich aber je nach Gebiet immer weiter füllen, bis es ruckelt.

Das Hogwarts schlecht aussieht wissen wir seit Horizon Forbidden West:

Oder man nimmt halt RT Titel wie:
 
Läuft bei mir auf ner 4080 mit 13900K absolut top, und ist wirklich extrem hübsch.

Bin gar nicht der große Harry Potter Fan, aber selten hat mich ein Game so abgeholt.
Für mich ist das sogar mindestens ne 9/10.
Was für eine geile Welt.

Sowas mal im Herr der Ringe Universum und ich raste aus.
 
  • Gefällt mir
Reaktionen: St3ppenWoLF, SDJ, mazO! und 5 andere
PeriQue1337 schrieb:
Ist dir nicht aufgefallen wie viel versprochen wurde, was aber nie im Spiel gelandet ist?
Ja, das hat mich wirklich auch enttäuscht. Da wäre so SOOOOOOO viel mehr drin gewesen, im Doppelsinne.
Dennoch starte ich den dritten Durchlauf, denn ich bin gespannt, was Phantom Liberty reißen wird. last chancxe I guess.


Zu Hogwarts Legacy:

https://edition.cnn.com/2023/02/09/tech/hogwarts-legacy-video-game-record/index.html

The game already broke a record on Twitch for being the most-watched single-player game, played by streamers who got the game early. And it’s the No. 1 pre-sale this week on gaming platform Steam.

Die Kontroversen helfen da natürlich für die Klicks und die Twitch Drops.

Aber so ein Rekord vor dem offiziellen Release...wow.
 
  • Gefällt mir
Reaktionen: Cyrix72, Apacon und one2know
Piecemaker schrieb:
Es waren so viele das Sony & MS CP eine Woche nach Release aus dem Store genommen haben, u
Ich rede von Hogwarts Legacy ;) Dass man Cyberpunk auch auf Technik Toastern wie der PS4 noch 2020 released hat, war in der Tat dämlich und eine Ursache für das Chaos.

Im übrigen hatten wir im Computerbase Thread auch zig Rückmeldungen im Sinne von "Oh wie, Ihr habt Probleme? Ich spiele bereits Mission 20".

Es melden sich immer die, die Probleme haben, nicht die Masse und Mehrheit, die entspannt längst zockt.

Morgen zum Hogwarts Release wird es das doppelte Review Bombing geben, einmal um die Kontroversen und dann das Übliche zur Technik, weil die 2060 kein UWQHD Ultra Ratyracing mehr stemmt.

Nachdem sich der Rauch gelichtet hat bin ich gespannt auf die sales und die Rezeption.

Wenn ich schon als non-Potter Spieler von dem Spiel fasziniert bin und nicht loskomme, rechne ich mit einem weg in die Game of the Year Auswahl, zumindest das.

2023 kommen ja noch Knaller, aber Hogwarts legt direkt mal die Messlatte hoch imho.

CrustiCroc schrieb:
Was für eine geile Welt.

Sowas mal im Herr der Ringe Universum und ich raste aus.

100% Zustimmung!
 
  • Gefällt mir
Reaktionen: SDJ, Neronomicon, Apacon und 2 andere
Piecemaker schrieb:
Das Hogwarts schlecht aussieht wissen wir seit Horizon Forbidden West:
Das Video ist zwar von Zero Dawn, aber der Punkt kommt sogar damit rüber, denn auch das sieht besser aus(und ist 6 Jahre alt^^)
 
  • Gefällt mir
Reaktionen: bad_sign, edenjung und Piecemaker
trockenerToast schrieb:
@Laphonso Das liegt aber eher daran, dass das Gros an Spielern schlechte Performance und framepacing Probleme sowohl am PC als auch Konsolen idR einfach hinnimmt und sich auf das Spiel selbst fokussiert. Den technisch etwas versierteren, die sich hier im CB Forum logischerweise akkumulieren, fällt das halt aber doch auf.
Mir fällt es auch auf, dass ich pro Spielstunde so 14 Sekunden fps drops habe.
Es beeinflusst 0,0 meine Immersion oder den Spielspaß, aber ja, an dieser Stelle ist die Performance fail, das sieht man und spürt man.

Wie so oft wird das aber gerne als "unspielbar" direkt abgetan. Was ich absurd finde.

Und wie üblich jammern hier 90% bereits rum, die das Spiel selbst nicht eine Sekunde selbst oder getestet gespielt haben ;)
 
  • Gefällt mir
Reaktionen: .Sentinel., one2know und Piecemaker
Hab das Spiel vorgestern gekauft und voller Freude installiert, um dann drauf zu kommen es wird erst morgen veröffentlicht 😂
Die Deluxe Edition Käufer können es anscheinend schon spielen, ob es so Deluxe ist, wenn es nicht so gut läuft.
 
Clark79 schrieb:
PC Gaming geht langsam den Bach runter ... sämtliche Neuerscheinungen glänzen mit Performance Problemen. Oder aber gegenüber Konsolen abstrusen Hardware Kosten.
Vor allem wenn man bedenkt, dass die Xbox Series S/X und die PS5 bei einer GPU-Leistung einer ~6700 XT liegen und auch keine 16 GB reinen VRAM mitbringen. Das ist einfach abstrus, wie beim Port für den PC jegliche Optimierung flöten geht und nicht einmal mehr Hardware mit identischer Leistung wirklich ausreichend ist...

Man kann NV von mir aus für die Speicherausstattung kritisieren. Ich sehe den Ball aber eher bei den Entwicklern. Wenn eine GPU selbst bei 1080p oder 1440p eigentlich im Idealfall schon 16 GB mitbringen muss, dann läuft dort etwas gewaltig schief. Den 16 GB gibt es bei AMD bei RDNA2 auch erst ab einer RX 6800...
 
  • Gefällt mir
Reaktionen: InvalidTexture, Harpenerkkk, Chismon und 2 andere
TenDance schrieb:
Puh, man kann sich seine 1000€ Investition halt auch schön reden. nVidia hat an der Karte 10$ gespart indem sie den Speicher so karg gehalten haben - und indirekt gleich die Nachfolgeinvestition gesichert. Mit der nächsten Generation löst man dann das Speicherproblem...
Oder man geht mit unrealistischen Vorstellungen davon aus das UHD@max lang gut geht mit der Karte.
Deswegen ist sie in meinen Augen auch bloß eine wqhd high refresh Karte.
Das ihr mehr RAM gut getan hätte streite ich nicht ab..

Und nein ich besitze keine 4070ti zum verteidigen.. denn genau wegen der Vram Geschichte ist sie bei mir in 3440x1440 nicht in Betracht gekommen..

Ich hab mir in Gegensatz zu anderen im Vorfeld Gedanken gemacht.
 
  • Gefällt mir
Reaktionen: Chismon
Zurück
Oben