• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

News Alan Wake 2: Nvidias Benchmarks vs. erste Eindrücke der Redaktion

ryul schrieb:
120 fps + Vsync müsste ich mal probieren, bin aber soweit mit 60 fps (+PathTracing) zufrieden. Zwar nur 1440p (4K schafft die 4090 nicht ^^), aber dafür sieht es fantastisch aus. Würde es nie mehr ohne PathTracing spielen.
120FPS natürlich nur wenn der TV mit 120Hz läuft und dann müssen es auch immer 120FPS sein
weil weniger FPS als Hz mit V-Sync ruckelt. Du zockst aktuell also mit 60Hz + V-Sync = 60FPS ?

Statt 1440p kannst du doch 4K+DLSS Quality nutzen weil das ist 1440p Rendering + Upscaling.
Selbst 4k+DLSS Performance (1080p Rendering) sollte besser aussehen als 1440p+TV Upscaling.

Also TV 120Hz + DLSS Performance + FG + V-Sync = 120FPS sollte eigentlich einwandfrei laufen.
 
Jetzt wo ich das Gameplay + FPS Counter gesehen hab: Ist vollkommen okay. Die Hardwareanforderungen hat Remedy wohl extra hoch angesetzt. Was als 30 fps beworben wurde ist in Wahrheit 50+.

Was mich persönlich stört, ist wie instabil das Bild ist - es flimmert auf niedrigen Einstellungen in 1080p. Grafisch ist es richtig gut, aber auch nichts wo ich sage: Jo, dafür geb ich gern die Hälfte meiner FPS auf. Die Charaktermodelle fallen negativ auf - die Gesichtsanimationen wirken irgendwie plastisch und es ist umso auffälliger, weil der Rest der Spielegrafik so sehr auf Realismus setzt.

Von Grafik und Performance ab: Wirkt wie ein gutes Remedy Spiel. Story wird sicher wieder konfus aber interessant, Gameplay gut aber nicht hervorragend (hoffentlich zieht es sich nicht wie Control, wo nach 10 Stunden dann auch irgendwann mal gut mit den Trashmobs war) und die Präsentation dürfte mal wieder höchste Qualität sein.
 
Linmoum schrieb:
Bei Crysis ist den Leuten die Kinnlade runtergefallen, man hat gestaunt und es genossen. Auch trotz des Umstandes, dass es auf keinem damals aktuellen Rechner vernünftig spielbar war.

Und heute? Statt Grafikpracht zu genießen wird darauf rumgeritten, dass es nicht mit xy fps (oder nur mit Upscaler) läuft und man ist der Meinung, es hätte noch warten müssen, bis es Grafikkarten gibt, die leistungsstark genug sind.
Mit dem großen Unterschied, dass Crysis optisch ein absoluter Meilenstein war und die Messlatte ne ganze Ecke höher gesetzt hat.
 
  • Gefällt mir
Reaktionen: Z0RDiAC
Werde das Spiel sicher nicht kaufen, aber dank Videos wie diesem kann man dennoch heutzutage was die Grafik und deren "Kosten" angeht "mitreden".

Scheint so als würde es immer mehr als bereits in der Vergangenheit auf das können und die Zeit die ein Entwicklerstudio zur Optimierung zur Verfügung steht ankommen. Und da liegt der Hase im Pfeffer. Hier geht die globale Entwicklung wohl eher in die falsche Richtung. Hinzu kommt die Gefahr, dass es in letzter Zeit immer wieder passiert, dass Spiele trotz neuester Hardwareanforderungen grafisch sogar unter dem Niveau der Vorgeneration landen (Gollum, The rise of king Kong und andere Unfälle etc.) und damit schon allein von diesem Aspekt her, völlig inakzeptable Produkte darstellen.

Ja man bekommt mit einer 4070 oder auch 4090 noch besser aussehende Grafik bei guten Titeln der Gegenwart aber die Unterschiede sind dermaßen klein, dass ich mich inzwischen bewusst lieber dagegen entscheide in die Oberklasse/High end Klasse zu investieren, obwohl ich das locker wie auch zuvor bezahlen könnte. Mir ist es den optischen Unterschied und den Stromverbrauch einfach nicht mehr wert. Dieses gefühlt immer schlimmer werdende Problem mangelnder Optimierung besteht aber fast exklusiv für den PC Bereich.

Schaut man sich etwa God of War Ragnarök an, stellt man fest, dass die Verbesserungen für die PS5 gegenüber der PS4 Pro marginal ausfallen, obwohl die PS4 Pro letztlich nur so in etwa eine RX 470 / 570 verbaut hat. Deren Hardware ist für heutige Maßstäbe also ein Witz. Dennoch ist die Grafik nicht so viel schlechter als bei einem stark ausgereizten Alan Wake 2, was nur meine persönliche Meinung ist.
Klar kommt hier noch der Effekt der immer gegen PC Fassungen überlegenen Konsolenoptimierung ins Spiel, aber dennoch finde ich reicht das inzwischen nicht mehr allein aus um die derart drastischen Unterschiede in einer effizienten effektiven und bestmöglichen Hardwareausnutzung zu erklären.

Spiele derzeit die PS4 Pro Fassung auf einem 4K HDR TV und habe nicht das Gefühl irgend was wichtiges grafisch zu verpassen.

Auch ohne Miningboom und absurde Hardwarepreise ist das NEUERE PC Gaming für mich deshalb vorerst erstmal gestorben, weil es sich einfach für mich nicht mehr lohnend anfühlt.

Soll der Rest mit 4090 und Co. glücklich werden, mir bringt das leider nicht mehr den erhofften Grafikkick, so wie früher...
 
  • Gefällt mir
Reaktionen: bluna, schM0ggi und Pitman1
Weiß nicht was dreister ist, dass Nvidia selber zugibt, dass mit einer 4060 gerade mal 27 fps drinne sind oder dass man mit Frame Gen ernsthaft >80 "fps" erwarten können soll. Na dann viel Spaß
 
Atnam schrieb:
Ich dachte bei dlss wird das Spiel in einer geringeren Auflösung gerendert als die Ausgabeauflösung und dann mit Hilfe von supersampling hochskaliert.
Und genau das ist doch bei dlaa nicht der Fall oder?

Supersampling ist es mWn immer dann, solange man am Ende noch mehr Pixel zur Berechnung hat, als das ursprüngliche native Bild.
Das ist bei DLSS Quality der Fall, ab Balanced glaube nicht mehr.
Insofern ist das dann upscaling mit gleichzeitigem supersampling.
Während DLAA reines supersampling ist, da statt 67% Renderauflösung mit 100% Renderauflösung gearbeitet wird.

Der Algorithmus ist aber nach wie vor der gleiche, genau wie bei FSR Native das gleiche gemacht wird wie bei FSR Quality
 
  • Gefällt mir
Reaktionen: Atnam
Alan Wake 2 kommt raus und die Preise für die RTX 4090 steigen wieder.
Die wissen schon, wie sie die Leute antriggern ;)

Das Spiel mit RT und PT sieht super aus (Beleuchtung und Oberflächen).
Ich komme mir wieder vor wie 1999, als ich mir wegen Unreal eine Voodoo 2 gekauft hatte und ja, das hat damals preislich auch weh getan.
 
  • Gefällt mir
Reaktionen: Schattenspender, Asder und Kelshan
Ich hab soeben zugeschlagen und freu mich schon auf heute Nachmittag nach der Arbeit 😊
 
Da das Spiel mit VPN nur 19 Euro gekostet hat, werde ich es zumindest mal antesten und zur Not zurückgeben... Konnte mich nicht beherrschen, weil ich zu geil darauf bin das Game auf OLED zu spielen. Nach 7 Jahren mal wieder ein neuer Monitor.

Übrigens, falls es hier noch nicht gepostet wurde. In der Ini kann man diverse Settings vornehmen, welche ingame keinen Slider haben (z.B. Depth of Field, Vignette, Lens Distortion, Native Auflösung, FOV, Sharpening):
https://www.techpowerup.com/review/alan-wake-2-performance-benchmark/4.html
 
  • Gefällt mir
Reaktionen: Czk666
Cerebral_Amoebe schrieb:
Alan Wake 2 kommt raus und die Preise für die RTX 4090 steigen wieder.
Die wissen schon, wie sie die Leute antriggern ;)

Das Spiel mit RT und PT sieht super aus (Beleuchtung und Oberflächen).
Ich komme mir wieder vor wie 1999, als ich mir wegen Unreal eine Voodoo 2 gekauft hatte und ja, das hat damals preislich auch weh getan.
Das liegt aber nicht am Spiel ;-). Das liegt daran, dass die RTX 4090 auch auf die Blacklist gesetzt wurde und nicht mehr nach China verkauft werden darf ab dem kommenden Monat. Jeder dort der eine haben wollte aber noch gehadert hat, hat jetzt wohl zugeschlagen oder schlägt gerade zu.

Und wenn man sich die Performance mal so anschaut, ist doch alles prima und so wie wir es kennen, ich sehe da keine Auffälligkeiten.
Das Spiel sieht im Übrigen auch ohne RT oder PT ziemlich chic aus.

1698389041217.png


Das dies bei RT anders aussieht wissen wir doch alle, aber wer eine AMD gekauft hat, hat doch meist auch geschrieben, dass ihm oder ihr RT am Allerwertesten vorbei geht, also alles tuti.

Im großen und Ganzen kann man die Anforderungen mit CP2077 gut vergleichen und auch da muss man für 4K Gaming mit PT alles was DLSS 3.5 bietet einschalten damit man auf spielbare FPS kommt. Für das letzte Quäntchen IQ, braucht es halt eine NV Grafikkarte und die kann eigentlich nicht schnell genug sein ;-).
 
  • Gefällt mir
Reaktionen: Schattenspender, Fallout667 und MrHeisenberg
Skaiy schrieb:
Hm, bei Cyberpunk 2077 habt ihr mindestens 50, besser 60 FPS vor Frame Generation für ein flüssiges Spielgefühl empfohlen.

Mal sehen, wie es hier sein wird.
Denke in CP, als Shooter, ist es auch bitter nötig.

Kanns nur von meinem Laptop sagen (RTX 4070 + 13700 HX) --> Dort ist FG quasi unbrauchbar in Cyberpunk, egal welche Settings und "native FPS"...
Habe Low-Mid Settings + DLSS Balanced ohne Raytracing und fahre damit auf dem externen Monitor (3440x1440) mit 80fps und wenn ich FD aktiviere, springen diese auf ca. 100 und fühlen sich absolut sch.. an.

Auf dem 4090 Rechner fühlt sich FG aber wiederum nativ an..

Verstehe es nicht ganz, vllt. kann es hier jemand erklären wieso es auf dem Laptop so schlecht ist, obwohl die Ausgangs-FPS durchaus >>60 sind.
PS: Vram wars nicht, da max. 7gb adressiert waren und auch mit DLSS Ultra Performance war es mit FG laggy.
Ergänzung ()

@Vitche
Wäre auch cool wenn ihr was zum VRAM sagen könntet in eurem kommenden Test. (Tut ihr ja ohnehin, aber hier iwie spannend!)
https://www.techpowerup.com/review/alan-wake-2-performance-benchmark/6.html

Hier sieht man was von 17,8gb bei RT/PT+FG..wäre interessant auf einer 4080 :-) -- Nur ka ob adressiert oder tatsächlich genutzt
 
Caramelito schrieb:
Verstehe es nicht ganz, vllt. kann es hier jemand erklären wieso es auf dem Laptop so schlecht ist, obwohl die Ausgangs-FPS durchaus >>60 sind.
Wenn du mit FG 100 hast, dann sind deine echten FPS in dem Fall ja auch auf 50 reduziert. Die GPU hat hier dann schlicht nicht mehr genug Power um die 80 zu verdoppeln.

Wenn du also vorher ohne FG 80 hattest, dann fühlt es sich natürlich schlechter an, als wenn du vorher 50 gehabt hättest und dann mit FG auf 100 kämst.

Wobei ich persönlich zumindest von meiner 4090 her sagen würde, dass sich 100 FG FPS recht gleich zu 80 nativen FPS anfühlen, etwas schlechter vielleicht, aber immer noch deutlich besser als z.B. native 60.
 
  • Gefällt mir
Reaktionen: Czk666
Taxxor schrieb:
Wobei ich persönlich zumindest von meiner 4090 her sagen würde, dass sich 100 FG FPS recht gleich zu 80 nativen FPS anfühlen, etwas schlechter vielleicht, aber immer noch deutlich besser als z.B. native 60.
Geht mir auf dem 4090 Rechner genau so.

Auf dem Laptop wie gesagt..ich ging davon aus, dass ich von 80 weg FG aktiviere und somit einen guten Boost vermerken kann. Aber fühlt sich halt shitty an.
 
Caramelito schrieb:
Denke in CP, als Shooter, ist es auch bitter nötig.

Kanns nur von meinem Laptop sagen (RTX 4070 + 13700 HX) --> Dort ist FG quasi unbrauchbar in Cyberpunk, egal welche Settings und "native FPS"...
Hmm ist einer von beiden oder gar beide Monitore also auch der Laptopmonitor G-Sync kompatibel?
Wenn ja schalte das bitte mal im Treiber aus, ich hatte ab und an ein vergleichbares Problem wenn ich zwei Monitore an meiner 4090 hängen hatte und das Spiel keinen Fullscreen-Modus angeboten hat sondern nur einen borderless windowed.
 
ich weiß nicht genau welche Techniken die heute bei der Grafik verwenden, aber mir gefällt das nicht. Es flimmert leicht, es ist unscharf, leichtes ghosting. Und ansonsten relativer Standard. Wird halt alles von RT berechnet.

Ich bin kein Spieleentwickler, aber es scheint so als wenn die Grafik keine echte Polygongrafik mehr ist, sondern irgendwas eingescanntes und dann manches von einer Ki erstellt.. Sieht einfach nicht mehr handgemacht aus. Ich weiß nicht mal wie ich das anders erklären soll als Leie.

Und was genau braucht denn da jetzt so viel Power? Ich verstehs nicht. Das ist doch absolut gar nichts anspruchsvolles. Ich spiele zur Zeit Assassins Creed Syndicate und das sah schon mindestens genauso gut aus.
Brauchen die Spiele wirklich nur noch Filter über Filter damit es nach was aussieht oder wie? Ich hab unten mal ein paar Bilder von AC Syndicate und Unity hochgeladen, das kommt ganz ohne Filter aus und sieht irgendwie rein objektiv besser aus.
Ich meine das ehrlich, Alan Wake 2 läuft auf einer modernen GPU nicht richtig flüssig? Wie kann das denn sein??

Hat jemand Insiderwissen, der mal erklären kann WAS da so viel Rechenleistung braucht? Oder sollen die Leute einfach nur neue Grafikkarten kaufen um den Markt anzukurbeln?
 

Anhänge

  • 20231027092801_1.jpg
    20231027092801_1.jpg
    1,1 MB · Aufrufe: 136
  • 20231027092812_1.jpg
    20231027092812_1.jpg
    1,1 MB · Aufrufe: 137
  • 20231027092831_1.jpg
    20231027092831_1.jpg
    1,2 MB · Aufrufe: 140
  • Unbenannt.png
    Unbenannt.png
    7,2 MB · Aufrufe: 137
  • Unbenanrnt.png
    Unbenanrnt.png
    6,5 MB · Aufrufe: 132
  • Unbendrangrnt.png
    Unbendrangrnt.png
    7 MB · Aufrufe: 132
  • Unbendranrnt.png
    Unbendranrnt.png
    4,6 MB · Aufrufe: 150
Angiesan schrieb:
Hmm ist einer von beiden oder gar beide Monitore also auch der Laptopmonitor G-Sync kompatibel?
Wenn ja schalte das bitte mal im Treiber aus, ich hatte ab und an ein vergleichbares Problem wenn ich zwei Monitore an meiner 4090 hängen hatte und das Spiel keinen Fullscreen-Modus angeboten hat sondern nur einen borderless windowed.
Hatte CP in Fullscreen gespielt.
Gsync war aber an.
Müsste ich mal testen.
 
Sobald ich Ratchet & Clank durch hab, werde ich mir das Spiel auch anschauen.
 
Manegarm schrieb:
ich weiß nicht genau welche Techniken die heute bei der Grafik verwenden, aber mir gefällt das nicht. Es flimmert leicht, es ist unscharf, leichtes ghosting. Und ansonsten relativer Standard. Wird halt alles von RT berechnet.
Flimmern sehe ich eher bei dir in den Screenshots. Sämtliche Kanten sind hart und ausgefranst.
Funfact: Schärfe wird durch unscharfe Kanten erreicht. Schau dir mal ein digitales Foto einer sauteuren Spiegelreflex an. Dort wirst du auch keine harten Kanten sehen, sondern leichtes aliasing.

Hier dein als scharf empfundenes Bild:

Screenshot.jpg


Und hier zum Vergleich ein Foto einer Dame:
Screenshot 2023-10-27 101257.jpg


Siehe zum Beispiel die Nase, welche nicht ansatzweise so ausgefranst ist, wie dein Screenshot. Genau das haben Anti Aliasing Verfahren als Ziel. Schärfe durch unscharfe Kanten/weiche Übergänge.

Manegarm schrieb:
Und was genau braucht denn da jetzt so viel Power? Ich verstehs nicht. Das ist doch absolut gar nichts anspruchsvolles. Ich spiele zur Zeit Assassins Creed Syndicate und das sah schon mindestens genauso gut aus.
Trollst du? Falls nicht, verklage bitte deinen Augenarzt. Alleine die Texturqualität ist in Syndicate unter aller Kanone. Mal ganz ab von den Gesichtern.

Screenshot 2023-10-27 095511.jpg
Fw7Is0sWAAAOoIC.jpg


Hast recht, absolut null Unterschied :freak:

Manegarm schrieb:
Hat jemand Insiderwissen, der mal erklären kann WAS da so viel Rechenleistung braucht? Oder sollen die Leute einfach nur neue Grafikkarten kaufen um den Markt anzukurbeln?
Dafür braucht es kein Insiderwissen.
  • Höher aufgelöste Texturen
  • Höhere Polygonanzahl (siehe die beiden Screenshots)
  • Mehr/bessere Effekte
  • Ray Tracing/Path Tracing
  • Komplexere/detailiertere Szenen
Darauf hättest du auch selbst kommen können.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Fallout667, bluna, Grundgütiger und 4 andere
Manegarm schrieb:
Ich spiele zur Zeit Assassins Creed Syndicate und das sah schon mindestens genauso gut aus.
Brauchen die Spiele wirklich nur noch Filter über Filter damit es nach was aussieht oder wie? Ich hab unten mal ein paar Bilder von AC Syndicate und Unity hochgeladen, das kommt ganz ohne Filter aus und sieht irgendwie rein objektiv besser aus.
Du meinst wohl eher subjektiv, denn objektiv sehe ich da nichts was 2023 grafisch hervorsticht. Da schaut ja das letzte Tomb Raider besser aus.
Grafische Referenz ist für mich Cyberpunk2077 oder GOTG. Alan Wake 2 schau ich mir heute Nachmittag an und dem Footage nach zu urteilen spielt es ganz oben mit.
 
  • Gefällt mir
Reaktionen: bluna
Nolag schrieb:
Bei mir ist es genau andersherum. Nach über 20 Jahren habe ich die Nase voll von Rasterisierungstricks und Screenspace-Artefakten. Moderne Rasterization ist ja im Prinzip auch nur schlecht approximiertes Raytracing, aber mit Screenspace-Artefakten und schlechterer temporaler Stabilität. Rasterisierung ist für mich nur noch ein Immersionskiller.
Ich finds etwas schade, wenn man sich durch solche Dinge den Spaß an Spielen rauben lässt.
Letztendlich kommt es aber auch auf die Impementierung und das Einfallsreichtum der Entwickler an, um drawbacks von verwendeten Techniken zu kompensieren. Siehe z.B:

 
  • Gefällt mir
Reaktionen: mibbio
Zurück
Oben