• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

News Alan Wake 2: Nvidias Benchmarks vs. erste Eindrücke der Redaktion

Kann hier Heisenberg nur zustimmen - vollkommen unabhängig davon, ob man DLSS nun besser oder schlechter findet - zeigt hier ein Video mit Bewegtbildern, die verdeutlichen, dass es schlechter ist und ihr könnt weiter diskutieren! So bleibts bei 1:0 Heisenberg!

Jemand anderes zeigt hier das NVIDIA Werbevide zu Alan2 und verwies auf 0:40 Minuten, um zu zeigen, dass es selbst in DLSS Performance besser aussieht: sorry, ich musste es auf volle 34 Zoll UQWHD Größe stellen, pausieren, zurückspulen, pausieren und habe den Unterschied am Schild immer noch nicht gesehen :daumen:
Schönes Beispiel dazu, worüber genau hier diskutiert wird: Firlefanz, der KAUM auffällt - erinnert mich an den Blindtest von PCGH zu den Hz am Monitor - kaum einer war in der Lage, 120 Hz von 60 Hz zu 240 Hz zu unterscheiden - genau so isses bei DLSS zu nativ auch...

edit: finde DLSS btw super, genau wie FG und alles andere auch, nutze es bei Cyberpunk gern!
 
  • Gefällt mir
Reaktionen: Daddi89, H6-Mobs, Sirhaubinger und 2 andere
MrHeisenberg schrieb:
Es gibt aber nur TAA. Das nativ, was du meinst, gibt es fasst nie. CyberPunk bietet bspw. nur TAA, FSR oder DLSS.
Du kannst TAA per ini deaktivieren, aber dann sieht das grausam aus und flimmert extremst. So will das niemand spielen.

Und natürlich verliert DLSS gegen DLAA. DLAA ist DLSS mit einer höheren Initialauflösung.
Dann ist’s aber die falsche Aussage.

Sollte dann eher heißen: Ich bevorzuge DLSS Quality gegenüber Nativer Auflösung mit TAA, da das entwicklereigene TAA so unscharf und schlecht ist, dass DLSS trotz niedriger Auflösung besser aussieht. Das würde dann auch jeder als Aussage verstehen und dem vermutlich zustimmen. Würde vermutlich die ganze Diskussion bei DLSS gegen Nativ sofort beenden.

Was das Schimmern in der Bewegung angeht, geht es nämlich in eine ähnliche Richtung. Kann das interne TAA das besser oder DLSS. Je nach implementierung kann nämlich Beides dabei herumkommen.

Vielleicht sollte man sich dann auch mal in Erinnerung rufen, dass DLSS auch nur ein ML getunetes TAA ist.
 
  • Gefällt mir
Reaktionen: Tevur und SweetOhm
MrHeisenberg schrieb:
Das streitet auch niemand ab, aber es kommt von Usern wie dir nie irgendein Beweis, über den man dann diskutieren könnte. Es heißt (überspitzt gesagt aber oft auch genau so) immer nur: "DLSS sieht scheiße aus, nativ ist viel besser".
Dem kann ich nicht zustimmen und zu diesem Ergebnis kommt auch kein einziger unabhängiger Tester (CB, PCGH und wie sie alle heißen).

In Standbildern sieht DLSS vielleicht gut aus, aber bei Bewegungen ohne Motionblur wird das Bild dennoch verschwommen, was auch zu Ghosting führt, usw. Das Internet ist doch voll mit den Krankheiten.

Einfaches Beispiel:

1698239418183.png


Gerade bei schnellen Bewegungen ist selbst DLSS 3 völlig überfordert.
 
  • Gefällt mir
Reaktionen: SweetOhm
Mayima schrieb:
Das ist halt mit aktueller Hardware tatsächlich nur sinnvoll nutzbar, wenn sowohl Upscaling als auch FG zum Einsatz kommen.

Wer das mangels aktueller Hardware nicht aktivieren kann, der spielt halt ohne, Problem gelöst.
100% Zustimmung.
Ist so ca. das selbe wie dieses "man braucht ne 4070 für 1080p/60fps," ja genau bei eingeschaltetem Pathtracing, ohne sieht das dann schon ganz anders aus.
Will hier aber wieder fast keinem in den Kopf.

Man kann Raytracing/Pathtracing auch einfach auschalten. Ist ja für viele eh nur ein Gimmik und überflüssig. Wo ist also das Problem?
 
cha0shacker schrieb:
Dann ists aber die falsche Aussage.

Sollte dann eher heißen: Ich bevorzuge DLSS Quality gegenüber Nativer Auflösung mit TAA, da das entwicklereigene TAA so unscharf und schlecht ist, dass DLSS trotz niedriger Auflösung besser aussieht.
Jaein. Wenn ein Spiel nur TAA bietet ist das gleichzusetzen mit nativ. Klar kannst du bei dem einen oder anderen Spiel TAA deaktivieren, aber das sieht noch schlechter aus als TAA.
Sentinel hat das mal schön aufgezeigt:
https://www.computerbase.de/forum/t...t-neuen-treibern.2155934/page-6#post-28496918

Wenn TAA hier also besser als nativ ist und DLSS besser als TAA, ist DLSS folgerichtig auch besser als nativ.
Da brauch ich dann nicht extra erwähnen, dass nativ = TAA ist. Du hast eh nur die Auswahl zwischen dem und Upscaling.

shoKuu schrieb:
Einfaches Beispiel:

Anhang anzeigen 1412727

Gerade bei schnellen Bewegungen ist selbst DLSS 3 völlig überfordert.
Das ist Spiderman, oder?
Sprechen wir hier noch vom Upscaling oder von FG? Dass FG Fehler verursachen kann, habe ich nie abgestritten und man muss auch Fair bleiben, denn das war der erste Titel mit FG. Das hat sich mittlerweile enorm verbessert.
@Elektrolyt so diskutiert man. Daran solltest du dir mal ein Beispiel nehmen.
 
Ich zitiere mich mal vom Lords of the Fallen Test:

"Hmm extra sauteures Raytracing einbauen für besser Bildqualität, damit man schon in 1080p upsampling nutzen muss, das dann wieder scheiße aussieht mangels Bildinfos. Genau mein Humor."

Und hier wird sogar noch Performance upscaling genutzt. Ouch.

Ich fürchte diesen Satz werde ich in Zukunft noch öfter nutzen können.
 
  • Gefällt mir
Reaktionen: SweetOhm, Blood011 und Demon_666
Das Grundproblem bleibt, sich auf eine gemeinsame "offene" standardisierte Technik zu einigen wäre, irgendwann wenn gut ausgebaut deutlich besser Vgl. wieder G-sync vs. Adaptive Sync.
Es ist für den Nutzer mittlerweile eine eigene Wissenschaft, herauszufinden welche Regler das beste Bild darstellen, nur weil AMD und Nvidia jeweils ihre eigene Suppe kochen. Und nur alles auf rechts, das war Mal. Denn die Regler beeinflussen sich gegenseitig.

Je nachdem welche Softwareschmiede von den entsprechenden GK Herstellen Geld in den Rachen geschoben bekommt, ist das Ergebnis entsprechend "künstlich" Mal besser und Mal schlechter.
 
Demon_666 schrieb:
Sollten die Konkurrenztechniken fehlen oder nur halbherzig integriert sein, hat NVidia bestimmt nichts damit zu tun .... /s
Zu Ray Reconstruction gibt es keine Konkurrenztechnologien.

DrFreaK666 schrieb:
DLSS Performance soll besser aussehen? Really?
Ein sehr wichtiger Aspekt bei dem Spiel ist hier ist aber auch die Ray Reconstruction Technologie, die viele Probleme beim Raytracing löst. Das Upscaling ist da eigentlich nur zweitrangig bzw. in Kombination mit dem Raytracing von Bedeutung.
 
  • Gefällt mir
Reaktionen: Daddi89 und Galatian
MrHeisenberg schrieb:
https://www.computerbase.de/forum/t...t-neuen-treibern.2155934/page-6#post-28496918
Wenn TAA hier also besser als nativ ist und DLSS besser als TAA, ist DLSS folgerichtig auch besser als nativ.
Da brauch ich dann nicht extra erwähnen, dass nativ = TAA ist. Du hast eh nur die Auswahl zwischen dem und Upscaling.
Niedrigere Auflösung mit besserer Kantenglättung sieht besser aus als höhere Auflösung mit schlechter oder keiner Kantenglättung also.

Und doch, du musst es extra erwähnen weil sonst viele davon Ausgehen das du Müll von dir gibst, weil es nicht sein kann.
 
shoKuu schrieb:
Einfaches Beispiel:
das ist aber Frame Generation und nicht das Upscaling um das es hier geht.

Zumal genau das ein Beispiel ist welches in Bewegung nicht auffällt weil das interpolierte Bild viel zu kurz sichtbar ist. Diese Art von Artefakten lässt sich nur in Standbildern oder stark verlangsamten Videos zeigen.

Und DLSS Upscaling kann ebenfalls bei reinen Standbildvergleichen nicht komplett zeigen was es kann, weil der Vorteil der besseren Bildruhe hier nicht sichtbar ist.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Fallout667, DaHell63, Sirhaubinger und eine weitere Person
cha0shacker schrieb:
Niedrigere Auflösung mit besserer Kantenglättung sieht besser aus als höhere Auflösung mit schlechter oder keiner Kantenglättung also.
Ja, richtig, aber das wird von einigen nativen Verfechtern ja massiv dementiert.

@Taxxor Und es war eines der ersten Spiele mit FG. Dass das nicht perfekt ist, ist okay. Es gibt mittlerweile bessere Beispiele für FG.
 
Elektrolyt schrieb:
Wir sind bei "(under) state of the Art "der Optimierung. Das Visuelle spiegelt imho nicht das was an Leistung rauskommt.

Das stimmt für manche Games wie z.B. Starfield. Aber sicherlich nicht für Alan Wake 2.
Das was du hier unter Optimierung verstehst ist für mich Wunschdenken. "Weil die Grafikkarte 1500 Euro gekostet hat muss sie das auch können. Nativ, 60FPS, 4k, alles aufgedreht". Ich sehe da weder Kausalität noch irgendwelche Ansprüche dass das so sein muss.

Elektrolyt schrieb:
Ja auch ich habe Tests gesehen, wo der Lag nicht so hoch war, aber ich frage mich was die Tester für Systeme haben, dass der Basis Input Lag bei denen so hoch ist. Das ist verwässerung des Standards.

Und ich frage mich wie man sich so am Input Lag aufhängen kann. Gerade bei Spielen wo es darauf gar nicht ankommt. Außerdem frage ich mich welcher Standard hier verwässert wird. Da wäre mir keiner bekannt.
 
  • Gefällt mir
Reaktionen: Fallout667, Daddi89 und Cohen
noxon schrieb:
Zu Ray Reconstruction gibt es keine Konkurrenztechnologien.
NVIDIAs Marketing ist echt wieder sau gut dieser Tage.

Ray Reconstruction ist ein ML gestützter Denoiser. Und die gibts wie Sand am Meer.


Also es gibt Konkurrenz, nur keine, die an die Qualität herankommt.
Ergänzung ()

MrHeisenberg schrieb:
Ja, richtig, aber das wird von einigen nativen Verfechtern ja massiv dementiert.
Weil viele halt nicht verstehen, was du eigentlich hier vergleichst.
 
  • Gefällt mir
Reaktionen: SweetOhm
Ich verstehe sowieso nicht was dieser hate gegen FSR/DLSS/Xess immer soll.
Es ist die Zukunft, daran wird sich nichts mehr ändern.

Es gibt hier ein paar Leute die selbst aktive Entwickler sind die sehr gut erläutert haben warum Rasterizing an seine Limits kommt und welche Schwächen es hat. Das hat einfach nichts mehr mit "lol die GPU Hersteller sind einfach zu faul mehr Rohleistung einzubauen und ruhen sich auf Supersampling aus".

Mehr ginge natürlich, aber nur mit der Brechstage.
4k ist das Ende der Fahnenstange für Rasterizing und 4k ist jetzt schon nichtmal mehr das Maximum was man machen kann. Ich persönlich möchte keine Grafikkarte die vielleicht 1500 Watt durch die Leitung zieht nur damit ich dann nativ auf 4k mit 100 FPS spielen könnte.

cha0shacker schrieb:
Ray Reconstruction ist ein ML gestützter Denoiser. Und die gibts wie Sand am Meer.
Und warum nutzt die niemand wenn es sie gibt?
Hast du Beispiele für ML trainierte Denoiser?
 
Würde vorschlagen, wir warten erstmal die ersten Tests ab. Das DLSS mehr Frames bei guter Qualität liefern kann glaub ich den "Kennern" der Technologie hier ohne weiteres. Trotzdem kann es nicht sein das Spiele nur damit vernünftig laufen. Es ist nunmal eine Properitäre Technolgie, wenn NV die OpenSource macht von mir aus. Aber solange das nicht der Fall ist finde ich die Verteidigung, der aktuellen Entwicklung mindestens fragwürdig. Das man mit einer GTX 10XX nach so vielen Jahren am Ende angekommen ist bestreiteten ja die wenigsten. Aber bei der Framerate bin ich mal auf die neusten AMD Karten gespannt von mir auch Intel ARC, oder sogar die RTX 30XX Serie die ist noch nicht alt, weit verbreitet und ein Sprung auf die 4000er Reihe lohnt (meiner Meinung nach) eigentlich nur bei deren Top Modellen im Mittelfeld und dem Einstieg ist der Leistungsgewinn viel zu gering.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: daknoll und MrHeisenberg
Atnam schrieb:
Und warum nutzt die niemand wenn es sie gibt?
Hast du Beispiele für ML trainierte Denoiser?
Tun sie doch. Jedes Spiel mit RT nutzt irgendeinen Denoiser.
 
  • Gefällt mir
Reaktionen: cha0shacker
Elektrolyt schrieb:
Nein wir sind nicht bei state of the Art! Wir sind bei "(under) state of the Art "der Optimierung. Das Visuelle spiegelt imho nicht das was an Leistung rauskommt.
Grafische Verbesserungen sind leider nicht linear. Je näher du an den Fotorealismus ran kommst, desto überproportional mehr Leistung wird benötigt. Deshalb fühlt es sich so an als würde die Optimierung abnehmen.

Die Entwicklung der Grafikhardware wird langsamer, aber es wird trotzdem mehr und mehr Leistung für die immer realitätsnähere Grafik gefordert.

EDIT: Und weil wir dem Fotorealismus näher und näher kommen bemerken wir auch die Unterschiede weniger und weniger, weil die grafischen Sprünge kleiner werden.
Ergänzung ()

LGTT1 schrieb:
Würde vorschlagen, wir warten erstmal die ersten Tests ab. Das DLSS mehr Frames bei gutes Qualität liefern kann glaub ich den "Kennern" der Technologie hier ohne weiteres. Trotzdem kann es nicht sein das Spiele nur damit vernünftig laufen. Es ist nunmal eine Properitäre Technolgie, wenn NV die OpenSource macht von mir aus. Aber solange das nicht der Fall ist finde ich die Verteidigung, der aktuellen Entwicklung mindestens fragwürdig. Das man mit einer GTX 10XX nach so vielen Jahren am Ende angekommen ist bestreiteten ja die wneigsten. Aber bei der Framerate bin ich mal auf die neusten AMD Karten gespannt von mir auch Intel ARC, oder sogar die RTX 30XX Serie die ist noch nicht alt weit verbreitet und ein SPrung auf die 4000er Reihe lohnt (meiner Meinung nach) eigentlich nur bei deren Top Modellen im Mittelfeld und dem Einstieg ist der Leistungsgewinn viel zu gering.
Zur Verteidigung spezifisch zu Remedy, dem Entwickler. Die haben schon seit über 10 Jahren schönere Bilder mit Upscaling bevorzugt gegenüber höherer Auflösung.

Man denke mal an die Performance von Alan Wake 1 oder Quantum Break, wenn man versucht hat, die in nativer Auflösung laufen zu lassen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Daddi89, JohnWickzer und MrHeisenberg
Im Gegensatz zu vielen anderen Spielen ist der hohe Hardwarehunger auf jeden Fall gerechtfertigt. Ich weiß nicht, warum hier so heiß diskutiert wird. Sieht man sich mal ein Skylines 2 oder Starfield an, die für sich genommen viel zu hohe Anforderungen für die gebotene Qualität haben, passt Leistung/Qualität bei AW2 definitiv. Im Übrigen auch bei Lords of the Fallen. Es gab dieses Jahr so viele Negativbeispiele, Jedi Survivor, nicht zu vergessen, wo Hardwarehunger und visuelle Qualität nicht passten. LotF und AW2 gehören auf jeden Fall nicht dazu.
 
  • Gefällt mir
Reaktionen: Fallout667, H6-Mobs, Sirhaubinger und 2 andere
Zurück
Oben