• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

News Alan Wake 2: Nvidias Benchmarks vs. erste Eindrücke der Redaktion

Mcr-King schrieb:
Ja nur DirectStorage wird wie HDR am PC enden und wieder verschwinden oder eine nische sein.

Naja zum Spiel Epic only dann können sie es behalten. 😉
Mit DirectStorage meinte ich ebenfalls die herstellereigene Lösung von Nvidia und AMD, falls das einen Unterschied für dich ausmacht. In der Unreal Engine 5 ist das eine zentrale Funktion für die Spiele der Zukunft: rasante Ladegeschwindigkeiten, offenenere Levelarchitekturen (Worldstreaming), hochaufgelöste Texturen. Das weißt du ja. Daher denke ich, dass die Technologie auf jeden Fall bei PCs Einzug halten wird. Vermutlich liegt es noch an der fehlenden Verbreitung von NVMe SSDs im Mainstream.
 
Zuletzt bearbeitet:
Smartbomb schrieb:
@Serk
Wie hast du deine Abstürze behoben?
@Smartbomb Ich hatte mir schon gedacht, dass das ein typisches Verhalten dafür ist, wenn die Auslagerungsdatei falsch eingestellt ist. Also bin ich in die erweiterten Systemeinstellungen und habe das neu eingestellt, auf "von System verwaltet". Nach dem Neustart ging ich davon aus, dass Windows das korrekt übernommen hat, aber das Spiel stürzte weiterhin im Minuten-Takt ab. Ich bin dann heute nochmal in die Systemeinstellungen gegangen und habe gesehen, dass die Änderung doch nicht angewendet wurde und die Auslagerungsdatei ausgeschaltet war. Also habe ich sie noch einmal neu gesetzt, auf eine feste Größe, neugestartet, kontrolliert, ob es nun passt, und seitdem stürzt das Spiel auch nicht mehr ab. Allgemein wird empfohlen, an dieser Einstellung nichts zu ändern und normalerweise ist sie auch bei mir nicht deaktiviert (denn in der Regel weiß ich aus Erfahrung schon, was ich mache).

Mit Frame-Generation komme ich mit maximierten Einstellungen und DLAA auf ~60 FPS und ich muss sagen, dass es damit selbst mit Maus erstaunlich gut spielbar ist, anders als Cyberpunk 2077, wo man meiner Meinung nach Frame-Generation komplett vergessen kann, da man da sofort die Latenz negativ merkt, zumindest empfinde ich das so.
 
TigerherzLXXXVI schrieb:
Darüber hinaus bin ich mir sicher, dass AMD niemals von sich aus FG herausgebracht hätte. Wie gesagt: es ist keine Technologie, die einen klaren technischen Fortschritt beim Gaming bedeuten, sondern es ist nur ein nettes Gimmick, eine halbgare Technikspielerei.
Du hast deine Ansichten in drei Absätzen fast wortgleiche wiederholt ohne etwas genauer zu erklären warum FG denn deiner Meinung nach so daneben ist.

Nur zu behaupten das FG kein technischer Fortschritt wäre, ist als Argumentation nicht ausreichend.

Ein klitzekleines bisschen Fakten und etwas weniger Meinung wären echt hilfreich.

Btw nutze ich FG in jedem Spiel das es unterstützt. Und ich finde es super das AMD FMF entwickelt und für alle GPU freischaltet. Damit wird FG eine noch höhere Marktdurchdringung erreichen.

Oder mit anderen Worten: Frame Generation ist genauso wie Upscaling gekommen um zu bleiben.
 
pacifico schrieb:
Ein klitzekleines bisschen Fakten und etwas weniger Meinung wären echt hilfreich.
1. Zwischenberechnete Bilder können wie bereits beim Fernseher einen Seifenopern-Effekt zur Folge haben. Besonders bei eingebauten Spielsequenzen, wo die Bildrate fest ist, kommt es zu der Erscheinung. Das gefällt nicht jeden.
2. Die Synchronisation zwischen Befehlseingabe und Bildausgabe stimmt nicht mehr, was subjektiv störend wirken kann. Ich weiß nicht, ob sich jeder Betroffene daran gewöhnen kann. Zumindest kann es das persönliche Spielerlebnis durchaus stören.
3. FG setzt bereits eine relativ hohe Bildrate voraus. Es sollten schon mindestens 60 FPS nativ sein, damit der von Punkt 2. beschriebene Effekt nicht noch schlimmer wird. Außerdem wären mit einer niedrigeren Bildrate fehlerhafte Zwischenbilder (die immer wieder vorkommen) deutlich auffälliger im Spiel.
4. Die Qualität der Zwischenbilder wird im Spielgeschehen immer etwas schwanken (je nachdem, was gerade die Kamera macht) und kann im Extremfall zu kurzzeitig auffälligen Bildfehlern führen.
5. FG wird in keinem unterstützten Spiel auf Anhieb perfekt laufen, besonders bei Nvidias KI-gestützten Technik. Man bekommt als Gamer also eine unterschiedliche Qualität, je nachdem, wenn man das Spiel anfängt. Bei einem frisch erschienen Titel ist noch mit deutlichen Bildproblemen zu rechnen.
6. Es kann immer wieder mal zu unerwarteten Problemen beim Frame-Pacing kommen und damit zu einem unrund wirkenden Spielerlebnis. Das wird sich technisch niemals komplett vermeiden lassen.

Zusammengefasst lässt sich sagen:
Aufgrund des interaktiven Mediums Videospiele ist es ausgeschlossen, dass die Erzeugung künstlicher Zwischenbilder jemals problemfrei ablaufen kann. Dafür ist gerade ein modernes Spiel viel zu komplex. Auftretende Probleme bei FG sind in jedem modernen Spiel also vorprogrammiert. Diese können sich in nervigen Bildfehlern, Seifenopern-Effekten oder ein unrund wirkendes Gameplay äußern.
 
@TigerherzLXXXVI

Sag doch einfach, dass du FG nicht nutzen willst.

Wie man sich nur so viel Zeug zusammenkonstruieren kann....

FG läuft hier einwandfrei und sorgt für ein flüssiges Bild. Dass mindestens 60 FPS notwendig sind stimmt einfach nicht. Genauso mit deinem "Sefenoper" effekt... Wie kommst du überhaupt darauf, dass sowas auftritt?

90 FPS mit FG sehen absolut identisch zu 90 echten FPS aus. Der Unterschied ist mit bloßem Auge nicht zu erkennen. In Edgecases kann man mit FG mehr Artefakte provozieren.
Aber in Alan Wake kommen fast alle Artefakte die man mit bloßem Auge wahrnimmt entweder vom Upscaling/AntiAliasing oder vom Spiel selbst (Motion Blur).
 
  • Gefällt mir
Reaktionen: Quidproquo77 und dr.betruger
TigerherzLXXXVI schrieb:
5. FG wird in keinem unterstützten Spiel auf Anhieb perfekt laufen, besonders bei Nvidias KI-gestützten Technik. Man bekommt als Gamer also eine unterschiedliche Qualität, je nachdem, wenn man das Spiel anfängt. Bei einem frisch erschienen Titel ist noch mit deutlichen Bildproblemen zu rechnen.
Den Zusammenhang musst du mal erklären. Weder DLSS (seit 2.0) noch FG nutzen eine KI, die für das jeweilige Spiel vortrainiert werden muss. Nur bei DLSS 1 musst die KI für ein Spiel vortrainiert werden, damit es funktioniert. Und auch das war kein fortlaufender Prozess, sondern einmalig von Nvidia selber trainiert und dann mit dem Spiel oder per Treiberupdate ausgeliefert. Da hat sich die Qualität in einem Spiel nicht mit der Zeit verbessert indem es genug Leute gespielt haben.

Und bei Frame Generation von KI sprechen, ist seitens Nvidia auch etwas übertrieben. Das ist schlicht ein Algorithmus, der die Bildinformationen und vom Spiel gelieferten Bewegungsvektoren der letzen Frames nimmt und daraus das nächste Zwischenbild ableitet. Es läuft zwar auf den KI-Kernen, ist selber aber genau genommen keine KI bzgl. des Algorithmus. Bei den neueren DLSS-Verfahren ist das ähnlich. Dort wird kein KI-Modell vortrainiert, sondern es werden vereinfacht gesagt nur die letzten x Frames miteinander verrechnet.
 
  • Gefällt mir
Reaktionen: Quidproquo77 und 0ssi
Mein damaliger Samsung LCD TV von 2009 hatte auch schon eine Zwischenbildberechnung (Motion Plus).
Wie du schon sagts sind das einfache Berechnungen auf Basis von vorhandenen Bildinformationen statt KI.
 
0ssi schrieb:
Ab wie viel FPS setzt der ein ? Wie können E-Sportler Den ertragen wenn die mit 240 oder 360FPS zocken ? :o
E-Sportler spielen nicht mit FG ;)
Ergänzung ()

mibbio schrieb:
Und bei Frame Generation von KI sprechen, ist seitens Nvidia auch etwas übertrieben. Das ist schlicht ein Algorithmus, der die Bildinformationen und vom Spiel gelieferten Bewegungsvektoren der letzen Frames nimmt und daraus das nächste Zwischenbild ableitet. Es läuft zwar auf den KI-Kernen, ist selber aber genau genommen keine KI bzgl. des Algorithmus. Bei den neueren DLSS-Verfahren ist das ähnlich. Dort wird kein KI-Modell vortrainiert, sondern es werden vereinfacht gesagt nur die letzten x Frames miteinander verrechnet.
Ich habe dazu anderes gehört, aber es kann natürlich ebenfalls wie DLSS 2 funktionieren. Dennoch bleibt das gleiche Problem wie bei DLSS 2: der Algorithmus ist zu Release eines Spiels zumeist noch sehr fehlerhaft. Erst mit der Zeit werden Bildfehler korrigiert. Es werden aber niemals sämtliche Bildfehler im Spiel korrigiert werden können, dafür ist ein modernes Spiel in der Regel viel zu groß.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Mcr-King
pacifico schrieb:
Oder mit anderen Worten: Frame Generation ist genauso wie Upscaling gekommen um zu bleiben.
Ja leider so ist es, aber Konsolen Feeling am PC ist doch klasse nicht vergessen NV hat Upscaling nicht erfunden sondern Sony mit Checker-Board PS4/PS4 NV hat nur KI noch dazu gemacht.

FG glaube ich geht bei vielen E-Sport Games gar nicht wäre ja nicht grade fair wie andere Funktionen von NV. ;)
 
  • Gefällt mir
Reaktionen: TigerherzLXXXVI
TigerherzLXXXVI schrieb:
Aufgrund des interaktiven Mediums Videospiele ist es ausgeschlossen, dass die Erzeugung künstlicher Zwischenbilder jemals problemfrei ablaufen kann. Diese können sich in nervigen Bildfehlern, Seifenopern-Effekten oder ein unrund wirkendes Gameplay äußern.
Stimmt. Aber du musst FG auch positiv sehen für Leute - vielleicht sogar die Masse an Leuten (weltweit betrachtet) - die nicht das Geld für High-End Hardware haben, oder keine Lust auf den ständigen Upgrade-Wahn. Vielen Leuten reicht es aus wenn ein Spiel "irgendwie" (mit Ach und Krach) läuft. Und die wären dann auch froh um Frame Generation, selbst wenn sie dafür Artefakte in Kauf nehmen müssten.

Leute die sich schon bei Crysis 1 mit 20 FPS durchgekämpft haben, würden sich gewiss nicht von FG-Artefakten abschrecken lassen. Und es gibt viele Leute, die würden lieber mit FG-Artefakten spielen als überhaupt nicht.

Ich glaube auch, dass FG bei den immer besser werdenden iGPUs an Relevanz gewinnen wird. Natürlich muss FG dann für alle Grafikchips möglich sein (was aber mit AMDs FSR3 FG möglich wäre). Und damit könnte man vielen Leuten, auch aus ärmeren Verhältnissen, schon mit Office-PCs halbwegs akzeptables Gaming ermöglichen.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: dr.betruger
Spiele Alan Wake 2 @ wqhd max. Details (DLSS Q, FG) mit meiner 4070 um die 60fps.
Und ich muss sagen einen Unterschied zu real nativen FPS merke ich fast gar nicht.
Cyberpunk Phantom Liberty habe ich auch so gespielt mit um die 60fps.

In SinglePlayer Spielen wos um nichts geht sind diese Techniken ein Segen, und ich freue mich diese Pathtracing Spiele in höchster Qualität zu zocken! Muss dazu sagen, dass ich mit Singleplayer Games die um die 45 real fps haben schon zufrieden bin.
Noch positiv ist, dass FG den CPU Bottleneck umgehen kann. Ohne FG hätte ich in CP 2077 nur diese 45fps im worst case weil meine CPU zu langsam ist.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: pacifico
Wenn man genau hinschaut, sieht man den Unterschied durch Frame-Generation, aber wie ich bereits erwähnt hatte, finde ich es trotzdem gut spielbar damit. Und da das Spiel jetzt auch kein sonderlich schnelles ist, fallen die Artefakte, die durch Frame-Generation auftreten, auch nicht wirklich störend auf, ebenso wenig die höhere Latenz. Allerdings muss ich schon sagen, dass das nie eine Ausrede für die Entwickler sein darf, das Spiel nicht besser zu optimieren.
 
  • Gefällt mir
Reaktionen: Mcr-King
Manegarm schrieb:
Genau. Control und Quantum Break.
Wirklich gefeiert hab ich nur Max Payne 1 und 2 und Alan Wake 1.
MP 3 dann nicht mehr so. Sehe gerade, MP3 ist von Rockstar

neWworld schrieb:
Max Payne 3 ist von Rockstar!

Hat er kurz nach dem ersten Post eh längst geschrieben 😉
Post #595 und nicht hinterher bearbeitet
 
Mcr-King schrieb:
Ja leider so ist es, aber Konsolen Feeling am PC ist doch klasse nicht vergessen NV hat Upscaling nicht erfunden sondern Sony mit Checker-Board PS4/PS4 NV hat nur KI noch dazu gemacht.
Ich finde Upscaling und Frame Gen richtig gut.

Erkläre dochmal anhand von belastbare Fakten warum das alle so ein Rotz sein soll?

Bisher wurde diese Frage nie mit fakten beantwortet. Statt Fakten wurden nur sehr diffuse Vermutungen geäußert bzw FUD verbreitet das solche Technologien die Devs faul machen würden.

Das ist völliger Quatsch, wie man an den guten Benchmarks von AW2 auf lower end Karten sehen kann die ich weiter oben gepostet habe.

Schau dir mal #616 an. Dort wird sehr gut erklärt warum Frame Gen dringend empfohlen werden sollte.
 
13gb Dedicated vram usage mit 4k + dlss quality max settings :=)
 

Anhänge

  • Alan wake 2 Vram.png
    Alan wake 2 Vram.png
    8,4 MB · Aufrufe: 101
Sicher ohne Pathtracing, also nicht maximale Qualität. Ohne Frame Generation stemmt das in 4k nichtmal eine 4090 mit 60fps. 12GB sollen laut Tests für max. Quality 4k auch reichen.
LG
 
  • Gefällt mir
Reaktionen: Gagapa
dr.betruger schrieb:
Sicher ohne Pathtracing
Ja klar ohne Pathracing, wofür auch, kostet abnormal performance, raytracing war nie mein ding, kostet in jedem game locker 70% performance :=), für reflektionen, shadows, mir reichen hohe texturen , gutes licht, manchmal wird mit reshade in games nachgeholfen :=)

mfg
 
Gagapa schrieb:
13gb Dedicated vram usage mit 4k + dlss quality max settings :=)
Ja und?

Wir haben Ende 2023.

High End Settings benötigen halt High End Hardware.

Früher war die Community hier immer bestens ausgerüstet.

Wenn man so schaut was die anwesenden Nörgler in ihren PC verbaut haben, komme ich mir vor als wenn ich ein Computermuseum besuche....

AW2 läuft auf einer 3060 mit Medium/Low Settings mit 60fps. Das ist eine drei Jahre alte GPU die unter 300 Euro abverkauft wurde.


TigerherzLXXXVI schrieb:
Alles darunter wirkt sicherlich arg verwaschen, da selbst DLSS Quality schon das Bild merkbar weichzeichnet

Diggi, zieh mal bidde den Reglor für die Schärfe nach rechts bis dir das Bild scharf genug ist.

Das ihr Nörgler nicht mal so simple Settings wie Schärfe einstellen könnt....

Ihr habt wahrscheinlich auch alles auf Ultra und wundert Euch das es ruckelt
 
Zurück
Oben