News Alan Wake 2: Nvidias Benchmarks vs. erste Eindrücke der Redaktion

Also ist mir neu das Motion-Blur und Depth of Field sehr viel leistung fressen.
Aber das man beim abschalten der beiden genannten Leistung verliert ist schon komisch.
Von anderen Spielen kenne ich es nicht.
Bei CP77 zb. habe ich keine einbußen wenn ich es einschalte oder abschalte.

Aber ich weiss auch nicht wie die Engine programmiert wurde. Kann natürlich sein das die Engine versucht schärfer zu rendern wenn es abgestellt ist. Kann auch mit Upscaling zu tun haben.

Wie gesagt ich kann nur vermuten. Also bitte ich darum meine Aussage nicht auf die Goldwage legen.

Edit: Taxxor war schneller :D
 
Startet bei mir nicht, krieg ne Fehlermeldung und bisher keine Ahnung wieso

Jemand ne Idee?
 

Anhänge

  • IMG_20231027_135713.jpg
    IMG_20231027_135713.jpg
    5,9 MB · Aufrufe: 128
Taxxor schrieb:
nichts an der Qualität ändert, die bereits gerendert wurde
Ja, vl wurde eben full quality noch nicht gerendet. Niedrigere Auflösung, niedrigere Texturqualitätsstufe, eben weil mans durchs verschmieren eh nicht sieht und wenn der Bereich dann das Sichtfeld verlässt, hätte man die Qualität an den betroffenen Stellen umsonst gerendert.
Man muss nur schauen, dass wenn der Spieler stehen bleibt bzw die Drehung zum Stehen kommt, das Bild schnell genug in Full Quality erscheint, damit das nicht negativ auffällt, wie zB nachladende Texturen bei schnellen Drehungen.
Aber genau darum gehts doch: mach beim schnellen Drehen das Bild unscharf damit man den Sekundenbruchteil verschleiert was die high res texturen brauchen um nachgeladen zu werden.
Fertig ist der Zauber.
Wie die Engine das handhabt wissen halt nur die Entwickler und evtl die GPU Treiber entwickler selber.
Ergänzung ()

Roach13 schrieb:
Startet bei mir nicht, krieg ne Fehlermeldung und bisher keine Ahnung wieso

Jemand ne Idee?
Soll ma jetzt raten welche Fehlermeldung du bekommen hast oder verrätst du uns diese gleich?
Gegoogelt hast du diese schon selbst?
Alles aktualisiert und AEG gemacht?
 
Smartbomb schrieb:
Aber genau darum gehts doch: mach beim schnellen Drehen das Bild unscharf damit man den Sekundenbruchteil verschleiert was die high res texturen brauchen um nachgeladen zu werden.
Bewegungsunschärfe dient dazu, niedrige Bildraten zu kaschieren und hat nichts mit der Texturqualität zu tun.

Genau das was du beschreibst ist Variable Rate Shading und hat nichts mit Tiefenunschärfe oder Bewegungsunschärfe zu tun, die beiden Dinge werden wie gesagt erst am ende eingefügt.
 
  • Gefällt mir
Reaktionen: Fallout667, Cohen und Smartbomb
Bild war noch nicht oben, sry

Musste afterburner bzw riva tuner statistics Server schließen, hab ich zum fps Anzeigen laufen.

Hat bisher noch kein game gestört 🙄

Edit

Raus tabben, riva tuner aktivieren und wieder ins game und fps Anzeige geht 👍😁
 
Zuletzt bearbeitet:
@Taxxor
Ah, vielen Dank, wieder was gelernt 🙂
 
  • Gefällt mir
Reaktionen: SweetOhm
Puh, also in Brigth Falls sind die Stromleitungen schon ne harte Nuss für DLSS Quality und FSR2 Quality versagt hier auf Entfernung komplett.
Ich würde ja auf DLAA gehen und die 80FPS allein durch FG holen, aber das funkltioniert auch nur in der Stadt, wo die Performance vergleichsweise gut ist^^

Und nicht mal das bringt was, weil sie dann zwar aus der ferne nicht mehr so flimmern, wenn man näher ran kommt aber gegen den Himmel schmieren, egal ob DLAA, DLSS, RR On oder RR Off.

Hier hat FSR2 im Gegenzug überhaupt kleine Probleme, sobald man nah genug dran ist, sehen die Kabel alle gut aus, auch in Bewegung
 
Zuletzt bearbeitet:
@Twisterstift
Netter Kindergarten von dir. Hab dich mal gemeldet.
 
  • Gefällt mir
Reaktionen: Fallout667, MrHeisenberg und Cohen
Optisch ist das game mega 😍

Und gut spielbar mit allem auf Anschlag
 
Atnam schrieb:
Und deswegen machen AMD und Intel exakt das gleiche was Nvidia macht...
Intel setzt ähnlich wie Nvidia stark auf Raytracingperformance, AMD räumt dem Ganzen noch keine Priorität ein. Das heißt aber nicht, dass AMD das Thema Raytracing egal wäre. Sie gehen eben einen gemäßigteren Weg. Wohingegen Nvidia mit der Brechstange Raytracing in Spielen etablieren möchte, was auch deutliche Nachteile in der Gamingindustrie und natürlich auch für Gamer mit sich bringt (Upscalingzwang, gestiegene GPU-Preise, propritäre Strukturen, extreme einseitige Optimierung, Ausschluss von Besitzern mit einer schwächeren GPU)

Darüber hinaus macht AMD den Quatsch mit FG nur mit, weil sie marketingtechnisch dazu gezwungen sind. Der größte Vorteil hierin liegt nämlich nicht im Nutzen für den Spieler, sondern bei der Produktvermarktung (Stichwort: längere FPS-Balken in Diagrammen). FG ist für mich ein typisches Beispiel einer netten Technikspielerei, die anstatt echten technologischen Fortschritt nur eingeschränkte Vorteile für Gamer bringt und ohne Mehrwert für jeden.

DLSS ist allein aus der Notwendigkeit heraus entstanden, weil qualitativ hochwertiges Raytracing viel zu aufwendig für aktuelle Hardware ist. Ansonsten wäre beispielsweise Path-Tracing in CP2077 oder jetzt Alan Wake 2 überhaupt nicht flüssig darstellbar gewesen. Es hat sich aber darüber hinaus als führende Upscaling-Technologie beim Gaming im Allgemeinen etabliert. Auch hier musste AMD reagieren, um ein entsprechendes Konkurrenzprodukt bieten zu können. Und das ist ihnen als OpenSource-Lösung mit FSR 2 meiner Meinung nach relativ gut gelungen. Besonders mit Hinblick auf die Spielekonsolen bietet sich FSR 2 in Verbindung mit 4K bestens an.

In Sachen KI sind alle drei GPU-Hersteller involviert. Bei Intel weiß ich es nicht genau, aber AMD ist bei KI wie im Gamingbereich technologisch ähnlich gut aufgestellt beim Duell mit Nvidia. Ob AMD und Intel hier abermals Nvidia-Technologien "kopieren" oder eigene Wege gehen bleibt abzuwarten.

Eine Sache sollte bei diesem Thema aber klar sein: Weder ist Nvidia der Erfinder von Raytracing, Upscaling, Frame Generation oder KI. Das heißt auch AMD und Intel hätten, in einer Welt ganz ohne Nvidia, genau die gleiche Richtung eingeschlagen. Raytracing hätte also so oder so in Spielen Einzug gehalten, genau so KI-Technik. Durch Nvidias kleinen technischen Vorsprung (1 bis 2 Jahre) waren sie als erster Hersteller in der Lage, die genannten Technologien am Markt anzubieten. Hätten sie es nicht gemacht, wäre Intel oder AMD der Pionier gewesen. Das sollten alle Nvidia-Jünger wissen, auch wenn sie es sicherlich nicht hören wollen...
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: SweetOhm, Smartbomb, Vigilant und eine weitere Person
Diese Übertreibungen immer gleich, wie zuvor bei Starfield, jetzt ist AW2 das grafisch bestausehendste Spiel das es je gab, wenigstens hatte Starfield noch eine gewisse Sichtweite, auch wenn oft nicht viel zu sehen war, aber das ist ja bei AW2 noch weniger.^^

Dies dann mit CP2077 vergleichen zu wollen was mit einem riesigem Stadtpanorama aufwartet ist einfach nur noch lächerlich.^^
 
Taxxor schrieb:
Irgendwie finde ich es aber ziemlich unscharf, egal ob DLSS Quality oder DLAA, alles was mehr als 2-3m vor einem ist, wirkt verschwommen.
Die/Deine 4090 ist einfach "zu schwindelig" ... :freaky:
 
pitu schrieb:
3 Threads die sich nur mit der Grafik beschäftigen. Geht es wirklich nur noch darum?
Du findest auf yt auch fast nichts anderes mehr.
 
  • Gefällt mir
Reaktionen: Mcr-King
Bei mir stürzt das Spiel aus nicht nachvollziehbaren Gründen alle paar Minuten ohne Fehlermeldung ab. Was ich so wirklich schon sehr lange Zeit bei keinem einzigen Spiel mehr hatte und ich habe nicht gerade wenige Titel. 32 GB RAM sowie eine RTX 4090 sollten in Verbindung mit dem i9-12900K ebenso wenig das Problem sein, wie die Samsung 980 Pro, auf der das Spiel liegt (alles unter Windows 11). Die pure Performance ist dann noch das andere Thema. Ich komme auf circa ~60 FPS in 3840x1600 mit maximalen Einstellungen, nur DLSS steht auf "Qualität", mit DLAA wären es schon recht wenige ~30 FPS, was man dem Spiel dann auch sofort anmerkt. Allerdings bin ich aufgrund der sehr schnell auftretenden Abstürze noch nicht weit gekommen und da es so keinen wirklichen Sinn macht, leider, muss ich wohl einen Patch abwarten oder auf einen Tipp hoffen, vermutlich bin ich nicht der einzige mit dem Problem.
 
Zuletzt bearbeitet:
So habe mir jetzt stundenlang Letsplay angeguckt. Das Spiel ist die reinste Lens Flare Show. Wenn man das alles ausmachen würde,bliebe da nich mehr viel. Ich weiß nicht wie man sowas als Bahnbrechend bezeichnen kann.



Herr Heisenberg wird wieder gleich seinen Senf dazugeben, und sagen dass es nicht so ist.

Und spielerisch kann das überhaupt nicht mit dem ersten Teil mithalten.
 
  • Gefällt mir
Reaktionen: SweetOhm
Taxxor schrieb:
Irgendwie finde ich es aber ziemlich unscharf, egal ob DLSS Quality oder DLAA, alles was mehr als 2-3m vor einem ist, wirkt verschwommen.
Versuche es einfach mal nativ ;)

Andernfalls könnten die niedrig aufgelösten Texturen im Spiel dafür verantwortlich sein. Ich bin ja im Jahr 2023 klar für HD-Texturen, aber Nvidia geht da bekanntlich einen eigenen Weg.

Pathtracing? Ja!!!!!
Videospeicher? Nein!!!!!

Cyberpunk ist das beste Beispiel. Wenn ich schon eine AMD-Grafikkarte besitze, dann möchte auch zusätzlich noch das Hi-Res-Texturpaket haben ;)
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: SweetOhm und Smartbomb
Twisterstift schrieb:
Weil DLSS die neue Wunderwaffe ist. Nativ war früher heute werden die Pixel künstlich dazu gerechnet.
Irgendwann wird dann nur noch ein Polygonengerüst auf den Markt kommen, da die KI es lösen wird.
Das liest sich so als würdest du glauben, dass DLSS die Pixel generiert. Das war bei DLSS 1.0 der Fall, aber nicht mehr mit DLSS 2.0. DLSS 2.0 basiert auf einem Super-Resolution Verfahren, das etwa vor 40 Jahren zum ersten Mal öffentlich dokumentiert wurde. Es wird bestimmt auch seit 40 Jahren von NASA und DOD verwendet um die Auflösung von Bildern zu verbessern. Die zusätzlichen Information werden dabei aus vorherigen Bildern rekonstruiert. Da es keinen Algorithmus gibt, der alle Probleme, die dabei auftreten, zufriedenstellend löst, hat Nvidia sich entschieden das mit DL zu lösen. Der Einsatz von DL dafür ist aber auch nicht neu. Das wurde im medizinischen Bereich auch schon Jahre zuvor verwendet.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: ComputerJunge, .Sentinel., mibbio und eine weitere Person
Nolag schrieb:
Die zusätzlichen Information werden dabei aus vorherigen Bildern rekonstruiert. Da es keinen Algorithmus gibt, der alle Probleme, die dabei auftreten, zufriedenstellend löst, hat Nvidia sich entschieden das mit DL zu lösen. Der Einsatz von DL dafür ist aber auch nicht neu. Das wurde im medizinischen Bereich auch schon Jahre zuvor verwendet.
Und anders als bei den genannten Anwendungszwecken muss das bei Spielen in Echtzeit passieren. Das geht zwangweise mit Kompromissen bei der Fehlerfreiheit des Ergebnisses einher. Im medizinischen Bereich oder bei Aufnahmen des Weltraumes stört es nicht weiter, wenn der Algorithmus je nach gewünschter Qualität ne Stunde oder zwei oder gar Tage am finalen Bild rechnet.
 
  • Gefällt mir
Reaktionen: SweetOhm
Zurück
Oben