• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

News Alan Wake 2: Nvidias Benchmarks vs. erste Eindrücke der Redaktion

schM0ggi schrieb:
Schon irgendwie, ist der 4070 da im Video der Speicher ausgegangen nach dem ganzen Path Tracing Tests, weil den Benchmarks die man hier und anderswo sieht, entspricht das dann doch so gar nicht. Oder liegt es an der Szene?
Ergänzung ()

Roach13 schrieb:
Max Details kann man also mit dlss nicht haben... Wieder was gelernt. 😅

DLAA ist doch im Grunde DLSS, nur halt eine höhere Qualitätsstufe.

Nvidia Deep Learning Anti-Aliasing (DLAA) is an anti-aliasing feature that uses the same pipeline as Nvidia's Deep Learning Super Sampling (DLSS) ...
 
  • Gefällt mir
Reaktionen: SweetOhm und Mcr-King
Apocalypse schrieb:
Schon irgendwie, ist der 4070 da im Video der Speicher ausgegangen nach dem ganzen Path Tracing Tests, weil den Benchmarks die man hier und anderswo sieht, entspricht das dann doch so gar nicht. Oder liegt es an der Szene?
Variiert sicherlich auch je nach Situation, in ruhigen Momenten liegt man bei 60-70.


Sehe auf den ersten Blick, vor allem da hier zunächst ohne RT etc. getestet wird, keine Probleme wege Speicher und co.
Ich wünsch echt allen Spaß mit dem Spiel, die potente Hardware haben. Aber ich sehe die aktuelle (und zukünftige?) Situation rund um PC echt kritisch. Man schaufelt sich hier selber ein Grab wo am Ende keiner mehr wirklich durchblickt. Frame Generation, Upscaling, 2.0, 3.0, DLAA nativ etc. Und dann wird sich darauf ausgeruht seitens Entwickler, wie man nun immer öfter sieht. Vor allem bei so Dingen wie künstliche Frames kann ich meist nur den Kopf schütteln. Ist ja nett, wenn das Bild auf den ersten Blick smoother wirkt, ist aber scheisse wenn der Input lag aufgrund von low base frames bleibt und das Endergebnis sich einfach mies anfühlt.
 
  • Gefällt mir
Reaktionen: SweetOhm, daknoll, Falc410 und eine weitere Person
Apocalypse schrieb:
DLAA ist doch im Grunde DLSS, nur halt eine höhere Qualitätsstufe.
Jo, DLAA ist im Endeffekt native Auflösung mit Deep learning anti-aliasing 😊
 
  • Gefällt mir
Reaktionen: Apocalypse
DLSS 3.5 ist ungleich Frame Generation. Sorry aber die Benchmarks sind mega verwirrend bezeichnet. Nvidias gekrabbelt hilft auch nicht viel, I know. =)

Cool das ihr sie habt und dann gleich so fix, aber die CB Redaktion sollte sich wirklich etwas besser ausdrücken - ganz besonders hier in solchen Fällen. Denn DLSS 3.5 ist der Upscaler Part, der nicht zwangsläufig mit FrameGen einhergeht. Digital Foundry macht's ja seit langem gut vor.

Danke für den Artikel!
 
  • Gefällt mir
Reaktionen: Mcr-King
Soll das dort rechts am Boden Laub darstellen? Ich bin mir nicht ganz sicher, ist nicht so leicht zu erkennen. :freak:

1-1080.f1ec40ba2.jpg
 
  • Gefällt mir
Reaktionen: FLCL und Mcr-King
.Sentinel. schrieb:
Ohne diese Entwicklung wäre an RTRT bzw. Realtime Pathtracing nicht zu denken gewesen.
Und was wäre daran so schlimm gewesen? Dann wäre halt Pathtracing halt erst 1-2 Hardwaregenerationen später eingeführt worden und Niemand hätte es bis dahin vermisst. Bevor Raytracing mit den RTX 2000ern "einfaches" Raytracing gebracht hat, war das für Spieler doch auch kein Thema und neue Spiele könnten auch ohne RT regelmäßig bessere/detailiertere Grafik liefern. Raytracing als größerer Sprung hätte auch ohne Pathtracing noch ein paar Jahre gereicht für Potential bei der Grafik von Spielen.

Zumal mir einige Jahre Pause bis zum nächsten großen Schritt in Form von PT auch lieber wäre, weil man dann DLSS/FSR und Frame Generation erstmal dafür nutzen kann, um auch abseits der sauteuren Highend-Grafikkarten genug FPS für eine 144+ Hz Monitor zu bekommen statt die Techniken zu brauchen, um überhaupt über 60 FPS zu kommen, wenn man nicht gerade eine 4090 hat.
 
  • Gefällt mir
Reaktionen: daknoll, 0x8100 und Mcr-King
mibbio schrieb:
Raytracing mit den RTX 2000ern "einfaches" Raytracing gebracht hat, war das für Spieler doch auch kein Thema und neue Spiele könnten auch ohne RT regelmäßig bessere/detailiertere Grafik liefern. Raytracing als größerer Sprung hätte auch ohne Pathtracing noch ein paar Jahre gereicht für Potential bei der Grafik von Spielen.
Eben,zumal RT nicht immer gut aussieht,und 80% interesiert das auch einfach nicht ausserhalb der HW bubble.

Ist ja schön das es sowas gibt aber wenn man auf biegen und brechen gerade mal so spielbare FPS raus bekommt mit,dann verzicht ich lieber drauf.
 
  • Gefällt mir
Reaktionen: SweetOhm und Mcr-King
mibbio schrieb:
Und was wäre daran so schlimm gewesen? Dann wäre halt Pathtracing halt erst 1-2 Hardwaregenerationen später eingeführt worden und Niemand hätte es bis dahin vermisst.
Bei Crysis ist den Leuten die Kinnlade runtergefallen, man hat gestaunt und es genossen. Auch trotz des Umstandes, dass es auf keinem damals aktuellen Rechner vernünftig spielbar war.

Und heute? Statt Grafikpracht zu genießen wird darauf rumgeritten, dass es nicht mit xy fps (oder nur mit Upscaler) läuft und man ist der Meinung, es hätte noch warten müssen, bis es Grafikkarten gibt, die leistungsstark genug sind.

Ist mir ein völliges Rätsel, was man mit dieser Einstellung bezwecken will und warum das in der heutigen Zeit derart weit verbreitet ist. Es ergibt einfach keinen Sinn oder das kommt von Leuten, die vor >10 Jahren noch nicht selbst ausgiebig am PC gezockt haben.
 
  • Gefällt mir
Reaktionen: CueSystem, Fallout667, H6-Mobs und 7 andere
Atnam schrieb:
Jo, DLAA ist im Endeffekt native Auflösung mit Deep learning anti-aliasing 😊
Nicht ganz. Mit Deep learning hat das nur bedingt zu tun.
Das ist ein Supersampling Verfahren und damit erhöht sich dann nochmal die Zahl der Pixel aus denen das Bild berechnet werden kann.
 
  • Gefällt mir
Reaktionen: Mcr-King
Ich nehme dann mal die fsr zu xess Mod. Wenn sie kommt hoffentlich. Wieso haben die eigentlich nicht auch ihr eigenes 'upscaling' :)
aus Control verwendet? Das fand ich gar nicht so schlecht.
 
  • Gefällt mir
Reaktionen: SweetOhm und Mcr-King
Trelor schrieb:
Nicht ganz. Mit Deep learning hat das nur bedingt zu tun.
Das ist ein Supersampling Verfahren und damit erhöht sich dann nochmal die Zahl der Pixel aus denen das Bild berechnet werden kann.
Ich blicke bei diesem ganzen neumodernen Zeug nichtmehr durch.
DLSS, XESS, DXR, DSR, Frame Generation, Frame Pacing, Path Tracing, Fake Frame Insertion, etc.

Alter, ich kenne noch Kantenglättung MSAA und SSAA and that's it!
Ein paar Grafikregler min-med-max.
Statt Downsampling gibts jetzt Upscaling von den Konsolen.
Den ganzen anderen Firlefanz… braucht man den?
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Beatmaster A.C., SweetOhm, Mcr-King und 2 andere
Das ist mir persönlich auch zuviel mittlerweile.
 
  • Gefällt mir
Reaktionen: Smartbomb, SweetOhm und Mcr-King
schM0ggi schrieb:
. Man schaufelt sich hier selber ein Grab wo am Ende keiner mehr wirklich durchblickt. Frame Generation, Upscaling, 2.0, 3.0, DLAA nativ etc. Und dann wird sich darauf ausgeruht seitens Entwickler, wie man nun immer öfter sieht. Vor allem bei so Dingen wie künstliche Frames kann ich meist nur den Kopf schütteln
So kompliziert ist es imho auch nicht.
Statt die Auflösung runter zu stellen, wenn ich mehr FPS haben möchte, stelle ich halt die Auflösung vom Upscaler/AA runter. Seit dem LCDs den CRT verdrängt hat, wollte man schon immer lieber Native Auflösung haben und eigentlich nur im Notfall beim Monitor selbst die Auflösung verringern.

Zwischenbilder erhöhen dann eben die schärfe des Bildes in Bewegung, weil leider LCDs das nicht so gut hinbekommen mit nur 60 FPS.
Und DLAA ist halt einfach gutes, altes Anti-Aliasing, so wie im Grunde DLSS auch. Nur halt in modern.

Viel Software Aufwand nur damit Monitore billiger und leichter werden konnten, aber manchmal läuft es halt komisch bei der technischen Evolution. Irgendwann konnte man halt keine CRTs mehr im Mediamarkt kaufen. Und dafür sind die Displays ja jetzt auch riesige geworden.
 
mibbio schrieb:
Und was wäre daran so schlimm gewesen? Dann wäre halt Pathtracing halt erst 1-2 Hardwaregenerationen später eingeführt worden und Niemand hätte es bis dahin vermisst.
Schlimm wäre daran garnichts gewesen. Aber natürlich hätte man es vermisst, weil es das ist, wonach man seit Jahrzehnten in Sachen Realtime- Grafik strebt.
Und leider fangen Entwicklungen immer erst dann an sich zu entfalten, wenn sie in der Praxis umgesetzt werden.

Allen Unkenrufen bei der großen Einführung von GPU RTRT zum Trotz ist die Entwicklung so rasant vorangeschritten, dass man inzwischen an das erst in Jahrzehnten erwartete Pathtracing hinschnuppern kann.
Und das (im aktuellen Fall lt. PCGH) mit geradezu irrwitzigen 104,2FPS in UHD unter Nutzung aller dafür entwickelten Komplementärtechnologien, die unter Anderem auch den Raster Sektor massiv entlasten bzw. in der Effizienz steigern können.

Was sollte das also für einen Sinn ergeben, die Entwicklung in Richtung des Ziels gezielt zu verlangsamen oder auszusetzen?
Weil sich dann ein par User besser fühlen, weil sie nicht befürchten müssen, eine Entwicklung zu verpassen?
Oder weil sie kein Geld ausgeben wollen?
Muss man deswegen alle anderen ausbremsen, die die Entwicklung gutheissen?
 
  • Gefällt mir
Reaktionen: Fallout667, FLCL und Apocalypse
Linmoum schrieb:
Und heute? Statt Grafikpracht zu genießen wird darauf rumgeritten, dass es nicht ...
Also auf Raytracing kann ich schon mal getrost verzichten.
Gefällt mir nicht, das ist mit zuviel des guten.
 
  • Gefällt mir
Reaktionen: SweetOhm
Wenn DLSS von den Entwicklern so integriert ist wie es von Nvidia vorgegeben ist dann ist es eines der besten Features überhaupt, man braucht kein Antialiasing mehr und hat mehr Frames ohne einen sichtbaren Verlust an Bildqualität.^^

Problem ist nur wenn es nicht so integriert ist wie vorgesehen dann wird einfach nur ein Schärfefilter genutzt und dies kann dann u. a. zu Ghosting führen.^^

Es gibt ja noch zusätzlich die Möglichkeit mit DLLS-Tweaks selbst nachzuhelfen:
https://github.com/emoose/DLSSTweaks

Aber das ist mir zumindest bis jetzt auch noch zu viel des guten, ich hoffe einfach das die Entwickler wieder mehr Fokus darauf legen DLSS wie vorgesehen zu implementieren.^^
 
  • Gefällt mir
Reaktionen: Apocalypse
Hier stand Quatsch, hab mich geirrt
 
Zuletzt bearbeitet:
Trelor schrieb:
Nicht ganz. Mit Deep learning hat das nur bedingt zu tun.
Das ist ein Supersampling Verfahren und damit erhöht sich dann nochmal die Zahl der Pixel aus denen das Bild berechnet werden kann.
Also nennen sie es Deep Learning Anti-Aliasing anstelle von Deep Learning Supersampling aber es soll trotzdem ein Supersampling Verfahren sein obwohl keinerlei upscaling betrieben wird und es auch keine performance Vorteile gibt?
Ernst gemeinte Frage 😉 ich hab es so verstanden das DLAA immer in der nativen Auflösung läuft und "nur" das anti-aliasing ersetzt und das rechenmodall dahinter halt auf Basis von AI Training erstellt wurde.
 
Zurück
Oben