• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

News Alan Wake 2: Nvidias Benchmarks vs. erste Eindrücke der Redaktion

Randnotiz schrieb:
Artefakte und Bildfehler vermeiden werden zumindest teils als Argumente geführt.
Mit welchen anderen Kantenglättung geht das?
Weil Nativ mit TAA ebenfalls Ghosting und für Artefakte sorgt.
Ohne AA Methode geht nativ 2160p ab 22" Aufwärts nicht wirklich ohne starkes Kantenflimmern.

Bisher haben alle Methoden ihre Vor- und Nachteile und hängt immer von Engine und der Implementierung ab.

Egal ob Nativ+TAA oder Upscaling/DLSS/FSR wird man kein fehlerfreies Bild erhalten.

Zumal bedenken muss das "Nativ" ein Spiel nie überall berechnet wird. Setzt sich immer aus verschiedenen Elementen zusammen die anderes skaliert werden.
 
LGTT1 schrieb:
Das ist völlig richtig, aber der FSR/XESS Ansatz wird meist eher Stiefmütterlich implementiert (und ist auch noch nicht auf dem gleichen Qualitätsniveau, zumindest was Tests so her geben, selber kann ich ja DLSS nicht live beurteilen)

Vielleicht wird der Ansatz auch gar nicht stiefmütterlich implementiert. Vielleicht geht es einfach nicht besser mit einem recht starren Algorithmus ohne KI dahinter und ohne Hardwareeinheiten.

LGTT1 schrieb:
Auch ist dieser Multi TAA ANsatz auch mist für die Entwickler, 3 Technologien mit unterschiedlichen Eigenheiten Qualitativ und Leistungstechnisch "fair" einzubinden ohne das der Aufwand explodiert halt ich für schlecht machbar und eigentlich unsinnig.

Dafür gibt es bereits eine Lösung. Die nennt sich nVidia Streamline, ist als Open Source auf Github verfügbar, und sie wird von den Mods benutzt die DLSS in Starfield bringen. DLSS und XeSS können so über eine einheitliche Schnittstelle in einem Rutsch in ein Spiel implementiert werden. Leider weigert sich AMD ihr FSR auch dort als Plugin einzubinden. Sosnt wären alle 3 Varianten verfügbar, und falls es in Zukunft noch mehr solcher Techniken geben sollte, könnten die dort auch eingebaut werden.

LGTT1 schrieb:
Also bleibt meiner Meinung nach nur der Opensource Ansatz, damit sind bis auf NVIDIA vermutlich alle Happy.

Falls mein erster Punkt zutrifft, kann mit diesem Ansatz eigentlich keiner Happy sein.
 
LGTT1 schrieb:
Trotzdem kann es nicht sein das Spiele nur damit vernünftig laufen.
Tun sie doch auch nicht. Außer du hast den Anspruch das Spiele Entwickler immer mindesten 60fps in Ultrasettings in 4K mit einer 4090 darstellen müssen. Der Unterschied zwischen Ultra /hoch oder sehr ist mehr als häufig minimal. Auch der Unterschied zwischen sehr gut implementieren Raytracing und Pathtracing lohnt den Leistungs Verlust nicht. Zumindest in Cyberpunk.

Dazu kommt die jeweilige Engine. Die vieleicht vieles kann aber manchen Sachen einfach noch nicht gut genug.


Der Entwickler will sein Spiel oder Kunstwerk verkaufen. Und wenn dieser nur die teuren Karten anwisiert dann, sry, ist das einfach so.

Höhere Qualität/Komplexität kostet mehr Leistung mit immer weniger optischer Verbesserung. Wenn du das gleiche Spiel in UE4 und UE5 programmierst(nur ein Beispiel) heißt es noch lange nicht das es mit UE5 besser läuft.
 
Was soll der Schwachsinn eigentlich? Momentan kommen mehrere spiele raus oder sind angekündigt, die eigentlich echt interessant sind, aber auf die Performance habe ich jetzt schon keine Lust mehr. Ich zahle mehrere Tausend Euro für einen PC, um dann doch das ruckeln zu erleben?
Vorallem sind wir momentan wieder bei 60fps als höchste der gefühle angekommen, in der Mittelklasse sogar wieder bei absolut starken 30 FPS. Vorallem für welchen Markt wird das denn entwickelt? Die meisten Spieler haben nur 3070 Leistung oder darunter, wer soll denn das kaufen, am Ende wird dann wieder der Preis erhöht, da Einnahmen fehlen aufgrund von fehlenden Kunden, die das Spiel aus ersichtlichen gründen nicht kaufen. Wäre Alan wake die Ausnahme, wäre es ja nicht so schlimm, aber das ist es eben nicht.

Ich werde dann also mit mit dlss3, FG und fast max settings spielen, um in 3840 x 1600 relativ stabile 60-70 FPS habe, na super.
Nvidia testet mit dlss Performance, haben die sich das mal angesehen? Wer soll freiwillig dlss Performance nutzen, dann kann ich auch gleich die Auflösung runter stellen oder fsr nutzen.
Die Geschichte wiederholt sich, dlss war ursprünglich eine Technologie um schwachen Karten eine vernünftige Performance zu bieten oder eben um über die 60 FPS hinaus zu kommen, gleiches bei FG, am Anfang hieß es man Bräuche 60fps, damit die ki genug Infos hat, um frames zu generieren, jetzt soll man FG bei 40fps aktivieren, um 60 zu bekommen? Das kann garnicht funktionieren.
Ich finde die CPU Anforderungen aber überraschend gering, wenn da man kein Fehler drinne steckt
eRacoon schrieb:
gute Grafik macht ja noch lange kein gutes Game, dafür haben wir ja dutzende Beweise der letzten Jahre.
Es kann aber eben fast die hälfte der Niete sein, niemand spielt ein Spiel lange wegen der Grafik, aber ich spiele hin und wieder Games wegen der Grafik, wo man dann wieder sieht was aktuell machbar ist und einfach Mal die schicke Spielwelt genießt ;) als Beispiel Cyberpunk, Spiderman remastered, msfs,... Dabei muss das Game selbst natürlich auch einigermaßen spaß machen, die Grafik ist aber in manchen spielen nicht unwesentlich wichtig. (So jedes 3 Spiel, darf gerne eine sehr gute Grafik besitzen)
Chilisidian schrieb:
Sieht man sich mal ein Skylines 2 oder Starfield an, die für sich genommen viel zu hohe Anforderungen für die gebotene Qualität haben, passt Leistung/Qualität bei AW2 definitiv
Passen tut das nicht, aber dennoch mehr als bei cs2 oder starfield, da hast du Recht. Wo gehen in Aw2 bitte 80 terraflops Rechenleistung hin?
GreatEvil schrieb:
Und RDR2 lief in FHD problemlos auf ner 6GB GTX 1660.
Ist auch nicht vergleichbar, rdr2 ist unfassbar gut optimiert und war seinerzeit ein Paradebeispiel, wie ein Triple A Titel sein soll. Sowas gibt es inzwischen nicht mehr.
 
  • Gefällt mir
Reaktionen: SweetOhm
GreatEvil schrieb:
Und RDR2 lief in FHD problemlos auf ner 6GB GTX 1660.
In kastrierten medium Settings, ja. Wollte man RDR2 optisch schön spielen mit der 1660, waren das 30-40 fps.
"Problemlos" kann man das nennen, klar, je nach Anspruch.

Die Realitätsverklärung mancher hier ist urkomisch :D
 
  • Gefällt mir
Reaktionen: Fallout667 und Quidproquo77
Ben_computer_Ba schrieb:
Passen tut das nicht, aber dennoch mehr als bei cs2 oder starfield, da hast du Recht. Wo gehen in Aw2 bitte 80 terraflops Rechenleistung hin?
Pathtracing

Ohne Pathtracing sollten die Anforderungen deutlich sinken.
 
ryul schrieb:
FG schön und gut, aber ich kann es z.B. bei Cyberpunk 2077 nicht einsetzen, da trotz Nvidia Reflex die Latenz vom PS5 / XBOX Controller (ja, Controller ^^) + erzwungenem vSync unspielbar ist.
Ohne vSync ist es für mich mit einem 65" TV widerrum auch nicht spielbar.
Der TV hat 120Hz aber kein VRR/G-Sync ? Hast du mit V-Sync+FG immer 120FPS ? Schaffst du denn ohne FG
120FPS damit V-Sync smooth läuft ? Oder 60Hz+V-Sync=60FPS ? Das ist doch auch Gummiband Gameplay !?

cypeak schrieb:
ich finde z.b. das häufig native auflösung mit dlaa besser aussieht...
In welchem Spiel und bei wie viel FPS ? DLAA ist für mich bisher eine einzige Enttäuschung. :(
 
  • Gefällt mir
Reaktionen: SweetOhm
Der grafik leap ist hier nur ein offensichtlich völlig anderer. RDR2 war olles Raster mit für den PC gebauten Ultra Settings abseits der limitiserten Konsolen.
Das gabs kein Raytracing und nicht Level 2, Pathtracing.

RDR2 und AW2 trennen quasi mehrere Technologie und feature Generationen.
Man Vergleiche machen halt wenig Sinn.
 
  • Gefällt mir
Reaktionen: Fallout667
MrHeisenberg schrieb:
Warum sollte man krampfhaft ohne DLSS spielen wollen, wenns mit besser aussieht und besser läuft?
Weil es erstmal nur auf RTX40er läuft und AMD und Intel aussen vor sind da Nvidia ja RTX 40er verkaufen möchte.

Zweitens wenn 720p zocken will nehme ich die Konsole. 😉
 
  • Gefällt mir
Reaktionen: SweetOhm
Mcr-King schrieb:
Zweitens wenn 720p zocken will nehme ich die Konsole. 😉

Das macht das Upscaling und die Rekonstruktion ja zum Zauberwerk, dass die Bildquailität von 720p mit der sog. wesentlich höheren nativen konkurriert. Danke an Nvidia und AMD (und Intel) für diese Technologie!

Anders formuliert, das zeigt wie sehr klassisches Raster und Resolution am Ende angelangt sind und umfunktioniert werden. Win Win für alle von low end bis high end.

DLSS 3.5 in Cyberpunk macht deutlich, wie weit abgeschlagen eine PS5 bereits ist. Die kann sich nicht mal mehr dem 1:1 Vergleich stellen, weil sie die Features gar nicht bedient und die Puste fehlt.

Für limitierte , aber mit dem Vorteil der einheitlichen streamlined, last gen Technik und um Geld zu sparen bleibt die Konsole doch ideal ;)
(die btw ja auch heavy upscaling nutzen)

Mit FSR4 und DLSS4 hat sich die Debatte um "nativ" sowieso erledigt, so meine Prognose.

DLAA ("Upscaling AI trainiertes AA mit nativ") zeigt ja deutlich, wie krass der Unterschied wird.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Fallout667, Grundgütiger und MrHeisenberg
Heißt: Als interne Auflösung wird nicht eine niedrigere genommen sondern deine eingestellte. Ergo: WQHD eingestellte Auflösung aber Schärfe wie UHD.
 
  • Gefällt mir
Reaktionen: Laphonso

Könnte für einige interessant sein, die ggf. das GRANDIOSE Control nicht gespielt haben ^^
Ergänzung ()

GreatEvil schrieb:
hat @Chilisidian gut pointiert.

Siehe auch

https://www.howtogeek.com/901716/what-is-nvidia-dlaa-and-when-should-you-use-it/

https://www.rockpapershotgun.com/nvidia-dlaa-how-it-works-supported-games-and-performance-vs-dlss

Es ist kein Upscaling, sondern AI Algorithmen für AA, das hatte ich oben selbst falsch geschrieben.

DLAA>DLSS>=natives AA
 
  • Gefällt mir
Reaktionen: SweetOhm
engineer123 schrieb:
Auf der anderen Seite gleich werksseitig DLSS miteinzubeziehen, damit es überhaupt jemand spielen
kann, zeigt wie wenig das Game aktuell optimiert ist.

Das kann man nicht daraus schließen.
Natürlich ist es möglich dass deswegen DLSS genutzt wird, aber es ist genauso möglich dass das Spiel super optimiert ist und die grafische Qualiät nur mit DLSS möglich wird.

Wenn man sich die Vergangenheit des Studios ansieht ist letzteres wahrscheinlicher als ersteres.
Aber egal was es nun ist, nur weil DLSS mit einbezogen wird kann man nicht schließen dass das Spiel nicht opimiert ist.
 
Madcat69 schrieb:
32 fps in 4k nativ mit der 4090, Respekt ... und ein Performance-Profil zum Vergleich ranziehen, ist klar. Wenn, dann bitte auf Quality. Ohne DLSS dann ab 6090 spielbar.
DLSS Performance kommt allerdings verdammt nah an Nativ heran, ergo keinerlei Problem.
 
DocWindows schrieb:
Vielleicht wird der Ansatz auch gar nicht stiefmütterlich implementiert. Vielleicht geht es einfach nicht besser mit einem recht starren Algorithmus ohne KI dahinter und ohne Hardwareeinheiten.



Dafür gibt es bereits eine Lösung. Die nennt sich nVidia Streamline, ist als Open Source auf Github verfügbar, und sie wird von den Mods benutzt die DLSS in Starfield bringen. DLSS und XeSS können so über eine einheitliche Schnittstelle in einem Rutsch in ein Spiel implementiert werden. Leider weigert sich AMD ihr FSR auch dort als Plugin einzubinden. Sosnt wären alle 3 Varianten verfügbar, und falls es in Zukunft noch mehr solcher Techniken geben sollte, könnten die dort auch
DocWindows schrieb:
Dafür gibt es bereits eine Lösung. Die nennt sich nVidia Streamline, ist als Open Source auf Github verfügbar, und sie wird von den Mods benutzt die DLSS in Starfield bringen. DLSS und XeSS können so über eine einheitliche Schnittstelle in einem Rutsch in ein Spiel implementiert werden. Leider weigert sich AMD ihr FSR auch dort als Plugin einzubinden. Sosnt wären alle 3 Varianten verfügbar, und falls es in Zukunft noch mehr solcher Techniken geben sollte, könnten die dort auch eingebaut werden.
Danke für die Erklärung wusste ich gar nicht. Dann versteh ich allerdings nicht warum nicht überall auch gleich XeSS verfügbar ist.
Das mit der KI ist ja wenn das einmal "angelernt" ist kein wirkliches Thema. Die Tensor Kerne sind ja im Prinzip nur Spezialisierte Mathekerne, deswegen vermutlich auch die Ähnlichkeiten zu XeSS (dort läuft es auf Intel Karten deutlich besser als auf anderen, aber verwenden können es alle) aber in dem Punkt bin ich sowieso nicht zu überzeugen. Das hat NVIDIA schon damals mit Physx so durchgezogen. Alles lässt sich nachbauen genug Ressourcen das zu kopieren und auf die Eigene Hardware anzupassen hätten auch AMD, und Intel schon lange. Und es gibt Abseits vom PC noch andere Fälle wo ein offener Ansatz der scheinbar besten Technologie in dem Bereich gut wäre. Spielekonsolen (notfalls mit Zusatzchips für die Vektorberechnung) Adreno oder Apple mit ihrem M1 bis X. Properitäres zu verteidigen, ist meinen Augen wie Protestbewegungen für Steuererleichterungen für Mineralölkonzerne, kann man machen danken wirds dir keiner und was davon haben hat auch nur der Konzern. Aber ich zieh mich damit aus der Diskussion raus, ist mir zu Ideologisch aufgeladen die Thematik.
 
  • Gefällt mir
Reaktionen: daknoll
DocWindows schrieb:
Leider weigert sich AMD ihr FSR auch dort als Plugin einzubinden.
So ein Unfug. FSR ist komplett Open source unter MIT Lizenz, das kann jeder nach Gutdünken überall selbst als Plugin einbinden, vollkommen egal was AMD macht.
 
  • Gefällt mir
Reaktionen: SweetOhm und Mcr-King
Ben_computer_Ba schrieb:
Ist auch nicht vergleichbar, rdr2 ist unfassbar gut optimiert und war seinerzeit ein Paradebeispiel, wie ein Triple A Titel sein soll. Sowas gibt es inzwischen nicht mehr.
Die schnellste Grafikkarte packte keine 30 FPS in 1080p in RDR2 maxed out.
Alan Wake packt 30 FPS nativ auf der schnellsten Karte in 4K max Settings.

Unbenannt.png

Mit MSAA war es selbst auf der 2080 TI ne Diashow.

Hier nochmal in 4K ohne MSAA:
Screenshot 2023-10-25 184841.jpg


Das eine Spiel bezeichnet ihr als unfassbar gut optimiert, das andere nicht. Passt irgendwie nicht.
RDR 2 lief zum Release auch alles andere als gut. Sowohl der Launcher als auch das Spiel crashten ziemlich oft. Das haben hier wohl viele mal wieder verdrängt.
Und dabei war das nurn popliger Konsolenport.

Hier dürft ihr euer Wissen gern auffrischen:
https://www.pcgameshardware.de/Red-...ate-fuer-den-Rockstar-Games-Launcher-1336391/
https://www.pcgameshardware.de/Red-...massig-Grafikoptionen-Crashes-und-Co-1336343/
https://www.computerbase.de/2019-11/read-dead-redemption-2-probleme/
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Fallout667, SweetOhm, Ben_computer_Ba und 7 andere
Zurück
Oben