• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

News Alan Wake 2: Nvidias Benchmarks vs. erste Eindrücke der Redaktion

Gamefaq schrieb:
Nun kommt jedoch ein Alan Wake 2 heraus das keinerlei Grafik-Engine Altlasten wie Starfield hat und schafft das noch zu unterbieten? Bitte wie geht das?
Indem es wahrscheinlich zehnmal so gut aussieht, eventuell? Was auch nicht sonderlich schwer sein wird, da Starfield irgendwo auf 2015-Niveau (wobei, schon The Witcher 3 von 2015 sieht besser aus...) liegt.

Performance ohne Optik zu betrachten, ist relativ sinnfrei. Ohne DLSS bzw. Upscaling könnte man mit heutiger Hardware schlicht (noch) kein Ray-/Pathtracing erleben. Keine Ahnung, warum man das immer negativ konnotieren muss. "Nativ" ist schlicht tot, weil es komplett ineffizient ist. Man muss sich langsam davon lösen, sich ständig an irgendwelche fps-Zahlen in nativer Auflösung zu klammern. Das ist überholte Vergangenheit.
 
  • Gefällt mir
Reaktionen: Fallout667, Daddi89, Quidproquo77 und 2 andere
Hallo zusammen,

ich freu mich Drauf. DLSS Quality in 4K und das Gruseln kann beginnen.
 
MrHeisenberg schrieb:
Warum sollte man krampfhaft ohne DLSS spielen wollen, wenns mit besser aussieht und besser läuft?

Weil das einfach nicht stimmt was Du sagst. Auch wenn es immer wiederholt wird, es ist faktisch schlicht falsch.

Das mag vielleicht in der 4K Zielauflösung manchmal gelten, und in ganz wenigen Ausnahmefällen noch in 1440p, ansonsten ist es eben nicht wahr. Wenn dann auch noch TAA als Vergleichsgrundlage genommen wird, da gehört nun nicht viel dazu, um besser als das zu sein.

Davon kann sich jeder selbst ein Bild machen, auch ohne entsprechende Hardware. Tests dazu mit Bildmaterial gibt es bspw. bei HWU.
 
  • Gefällt mir
Reaktionen: DMK-81, SweetOhm, MalWiederIch und 2 andere
Mich wundert ja das sich in den letzten Threads zu diesem Spiel noch niemand darüber aufgeregt hat dass das Spiel ein Epic Store Exclusive ist, das triggert ja auch viele Leute :lol:
 
  • Gefällt mir
Reaktionen: Fighter1993 und MalWiederIch
Herdware schrieb:
Es kommt aber auch auf das Spiel an.
Z.B. im MS Flight Simulator 2020 ist FG für mich eine deutliche Verbesserung. Ich komme damit in kritischen Situationen (z.B. Tiefflug über Manhattan oder London) von instabilen 30-50 auf durchweg flüssige 60-80 FPS, ohne nennenswert Qualität opfern zu müssen und Latenz/Input-Lag ist bei dem Spiel komplett unkritisch.
Jo stimmt, es gibt auch Ausnahmen. Bei FS sehe ich das auch so. Im VR Modus spielen das ja auch viele mit "Reprojection", teils sogar 2 Frames dazwischen.
 
mckobain schrieb:
30 fps nativ in UHD mit ner ach so tollen 4090 😂
Der Lacher auf jeden Fall. Und bitte nein kein Neid überhaupt nicht...
 
Budimon schrieb:
30 FPS in 4k mit einer 4090 wenn man den KI Klimmbimm weglässt ? Bitte was ?
Für Pathtracing ist das eigentlich ziemlich gut.
 
  • Gefällt mir
Reaktionen: Fallout667, Iconoclast, Fighter1993 und 6 andere
Gamefaq schrieb:
--Bitte die Zitierregeln beachten--
Genau das ist eine der berechtigten Kritiken. DLSS/FG/FSR bügelt alles weg. Die Gefahr besteht dass sich der Entwickler gar nicht mehr die Mühe macht zu Optimieren. Es wird also ein Feature was von "geil das game läuft mit DLSS sogar noch besser" zu einem "ohne DLSS nicht spielbar, weils über all nur zuckelt".
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: Tritom73, Olli1977, SweetOhm und 4 andere
Bei aller "Kritik" zu den GPU Anforderungen:
Wenigstens mal eine sinnvolle Angabe zur CPU: "Quad Core, wenn du es unbedingt versuchen willst. Sonst nehm nen modernen 8 Kerner und gut ist."
 
  • Gefällt mir
Reaktionen: rumpeLson und Randnotiz
Grafik ist maximal hübsch, rechtfertigt aber keine so hohen Anforderungen meiner Meinung nach.
 
  • Gefällt mir
Reaktionen: SweetOhm und mckobain
Ferran schrieb:
Weil das einfach nicht stimmt was Du sagst. Auch wenn es immer wiederholt wird, es ist faktisch schlicht falsch.
Nö, ist es nicht. DLSS hebt Details hervor, die du selbst in nativem 4K stellenweise nicht siehst:
Mechwarrior 5 nativ:
Mechwarrior-5_DLSS-off_cr-pcgh.png


DLSS Q:
Mechwarrior-5_DLSS-Quality_cr-pcgh.png

Quelle: https://www.pcgameshardware.de/Nvid...rior-5-DLSS-Test-Control-DLSS-Test-1346257/2/

Das viele Lob bedeutet nicht, dass DLSS perfekt ist, denn zaubern können selbst Nvidias KI-Spezialisten und Supercomputer nicht. Mit jeder Iteration wird DLSS jedoch besser und das Feedback der Spieler fließt in die kontinuierliche Weiterentwicklung. Was beispielsweise einst starkes Schmieren war, ist seit Version 2.3 deutlich weniger auffällig. Und wer weiß, vielleicht überrascht uns Nvidia schon bald mit DLSS 3.0, das mit tadelloser Bildqualität endgültig den Ruf des Verfahrens zementiert, nicht von dieser Welt zu sein? Wie es auch kommt, selbst standhafte "Ich spiele nur nativ"-Verfechter sollten spätestens jetzt ihren Standpunkt überdenken, denn wirklich "nativ" laufen moderne Spiele schon lange nicht mehr.
Das ist über 2 Jahre alt und DLSS 2.3:
https://www.pcgameshardware.de/Deep...ch-mit-anderen-Upscaling-Verfahren-1385215/4/

Sämtliche Tests kommen zu dem Ergebnis, dass DLSS grundsätzlich dem nativen vorzuziehen ist.
Zeig mir einen Test, der deine Meinung untermauert (grundsätzlich! Keine Ausnahme mit schlechter Implementation) und wir können darüber diskutieren, ansonsten ist es mir ehrlich gesagt egal, wie du DLSS findest. Wir kommen so auf keinen Nenner und ich vertraue da eher den unabhängigen Tests, welche meine Meinung dazu stärken/bestätigen, anstatt irgendeinem random Forenuser, der krampfhaft das Haar in der Suppe sucht.

Ferran schrieb:
Das mag vielleicht in der 4K Zielauflösung manchmal gelten, und in ganz wenigen Ausnahmefällen noch in 1440p, ansonsten ist es eben nicht wahr. Wenn dann auch noch TAA als Vergleichsgrundlage genommen wird, da gehört nun nicht viel dazu, um besser als das zu sein.
Hier ist von 4K die rede und dort ist es nicht nur manchmal so, sondern in den meisten Fällen. Ausnahmen bestätigen die Regel und wenn es nicht so ist, ist die Diskussion auch hinfällig, weil hier niemand ernsthaft 3 cm vom Oled Pixel zählt. Wenn du das machst, dann werd damit glücklich. Ich genieße währendessen das Spiel.
Nativ gibt es in den meisten Spielen auch nicht. Dort bedeutet nativ dann TAA und TAA ist nicht besser als DLSS. Wie auch? Es hat genau wie DLSS ne temporale Komponente und somit genau so mit ghosting und co. zu kämpfen.
 
  • Gefällt mir
Reaktionen: Fallout667, Daddi89, Sirhaubinger und eine weitere Person
Elektrolyt schrieb:
Es wird also ein Feature was von "geil das game läuft mit DLSS sogar noch besser" zu einem "ohne DLSS nicht spielbar, weils über all nur zuckelt".

Ne, anders herum.

Nvidia hat DLSS entwickelt, weil es damals notwendig war, um Raytracing in echtzeit lauffähig zu bekommen.
DLSS war also nur ein Nebenprodukt.

Heute genau das gleiche mit Pathtracing. Das braucht eben DLSS Superresolution + Frame Generation + Ray Reconstruction.
Alles Schlüsseltechnologien, die Pathtracing überhaupt erst flüssig ermöglichen.


Dass die Techniken auch nützlich sind, um die FPS in anderen Spielen zu erhöhen ist natürlich logisch. Das war aber nicht der Anlass für die Entwicklung.
 
  • Gefällt mir
Reaktionen: Daddi89
DocWindows schrieb:
Nice.
130 FPS mit voller Kapelle auf WQHD für meine 4070Ti auf Intel Plattform. Mehr als ich überhaupt haben will.
Und das bei einem ausgewiesenen Next-Gen Titel. The Future is now!



Weil es mehr FPS bei quasi unerheblich schlechterer Bildqualität bringt. Wenn es überhaupt schlechter aussieht.
Das ist mir persönlich lieber, und ich finde es auch intelligenter, als nochmal 1000 Shaderprozessoren und 100W Strom auf das Problem zu werfen.
Das Problem ist aber dass der Standard wieder sinkt. Es ist nur wenige Jahre her, dass sich Entwickler endlich Gedanken um den Input Lag machen (Competitiv Games ausgenommen), FOV, höhere FPS Limits etc.
Jetzt bei seinen Games auf ein Feature zu setzten (FG), welches Input Lag und sichtbar schlechtere Bilddarstellung bring, ist der Falsche weg. Wenn ich an der Grenze bin ok. Aber nicht wenn ich state of the art Komponente verbaut hab und dann gerade so mit FG normal zocken kann. Ausserdem DLSS und auch FG setzten bestimmte Hardware voraus. 3090 TI tja Pech gehabt...
 
  • Gefällt mir
Reaktionen: MalWiederIch
johnieboy schrieb:
Mich wundert ja das sich in den letzten Threads zu diesem Spiel noch niemand darüber aufgeregt hat dass das Spiel ein Epic Store Exclusive ist, das triggert ja auch viele Leute :lol:
Och glaub mir, das ist auch weiterhin Dreck und meiner Ansicht nach versagt Sweeny damit den PC-Markt nochmals, aber am Ende hast Du die Hardware-Debatte auch, wenn das Spiel auf Steam erscheint.
 
Randnotiz schrieb:
Artefakte und Bildfehler vermeiden werden zumindest teils als Argumente geführt.
Du vermeidest sie aber in Summe nicht. Du tauschst die Artefakte nur gegen andere Artefakte aus.
Eines der größten Probleme ist, dass viele technisch nicht begreifen, wie Rasterizing funktioniert und wie die einzelnen Pixel zu ihren Farbwerten gelangen.
Das erkennt man daran, dass Leute immer von einer "Basisauflösung" sprechen, mit der DLSS seine Bilder erzeugt. Oder man von Upscaling spricht und nicht von Supersampling.

Heutzutage läuft auch beim Brute- Force Rastern ohne DLSS, FSR und Konsorten alles über Sampling, also das Sammeln von Farbwertinformation.
Und es ist nunmal so, dass man bei DLSS durch die temporale Kumulation, Jitter & co. für das Ausgangsbild erheblich mehr Samples für das Zielpixel zur Verfügung hat, als nativ.
Der "native warrior" nimmt sich also nur immer einen Teilaspekt der Bildgenerierung heraus (Anzahl der Samples des Basisrasters) und blendet das, worauf die Technik von DLSS fußt und was sie überlegen macht, einfach vollständig aus.

eRacoon schrieb:
Ich Tippe drauf dass das wieder so ein Game mit einem gigantischen Technik Hype ist wo das Game an sich am Ende maximal Durschnitt ist und daher komplett irrelevant wird.
Daher einfach mal Kirche im Dorf lassen und mal schauen was das Game an sich abliefert... gute Grafik macht ja noch lange kein gutes Game, dafür haben wir ja dutzende Beweise der letzten Jahre.
Gab solche Spiele immer wieder. Ändert aber nichts daran, dass auch solche Spieler schon aufgrund der Freude an der Technik, die dort manche Empfinden, dann doch den entsprechenden Spielspaß liefern können.
Paradebeispiel: Defender of the Crown auf dem Amiga.
Spielmechaniken zum davonlaufen. Aber nie dagewesene Technik und Atmosphäre zum Niederknien.
Jeder wollte es spielen und man hatte seinen Spaß damit.
Und sei es alleine aus der Vorfreude, was derlei technische Entwicklungen für die Spielezukunft bedeuten kann und dass man es den Freunden vorführen kann, um deren Kinnlade ob des technisch Gebotenen nach unten klappen zu sehen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Fallout667, rumpeLson, Randnotiz und 2 andere
MrHeisenberg schrieb:
Zeig mir diese Artefakte und Bildfehler doch mal und selbst wenn, würde das niemanden auffallen.
Woher willst du denn wissen, ob das aktuell gerenderte Bild falsch ist, wenn du keinen Vergleich hast?
DLSS hat vielleicht Ghosting, aber Artefakte habe ich noch nie gesehen. Das Problem hatte FG am Anfang, aber merken tust du das auch nicht wirklich.

Schön das es dir nicht auffällt, aber es soll eben Menschen geben die das ganze anders wahrnehmen.
Ich finde DLSS auf meiner 4080 bspw. auch nicht besser. Kann nicht nachvolziehen warum alle immer davon schwärmen...
Weder DLSS noch FSR haben für mich ein ruhigeres Bild als nativ.
 
  • Gefällt mir
Reaktionen: SweetOhm, MalWiederIch, AxelStu und 2 andere
Und auch hier wieder für mich bleibt DLSS als auch FSR kein Allheilmittel. In Starfild, Cyberpunk haben beide Techniken gezeigt, das sehr wohl Fehler produziert werden v.a dann wenn es um viel Bewegung und Berechnung geht. Bei Nvidia Darstellungsfehler, Artefakte und besonders das Flackern. Und FSR kämpft generell mit der Leistung.

Und generell finde ich bisher kein Spiel ausgesprochen "Schön" im Sinne Grafik 2023. Bis auf Baldurs Gate 3
Und das ein exklussiver Nvidia Titel besondere Features unterstützt versteht sich von selbst. Immerhin ist bald Weihnachten und es muss doch einen künstlichen Grund geben um für nur ab 1800€ eine fiebende RTX 4090 zu kaufen.

Und wer argumentiert das DLSS etwas produziert was sonst nicht da wäre, unterstützt im Grunde den Nvidiafanboy sprech. Warum programmiert man ein Spiel nicht gleich so, das alles da ist was im Sinne des Designers da ist. Zumal es keine Referenz mehr gibt. D.h. Alles was nativ dargestellt wird ohne KI Berechnung ist im Sinne des Künstlers. Die FPS werden dann mit falscher Darstellung und den kenannten negativen Effekten erzwungen. Und nur weil ein paar Fans etwas besonders hoch loben, macht es zum technischen Stand heute die Dinge nicht automatisch besser. Nvidia ist schon mit G-Sync auf die Nase gefallen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: SweetOhm, MalWiederIch, MiroPoch und eine weitere Person
MrHeisenberg schrieb:
Warum sollte man krampfhaft ohne DLSS spielen wollen, wenns mit besser aussieht und besser läuft?
Dahin wird die Reise ja ohnehin gehen.

Nvidia hat bereits offiziell bestätigt, dass man DLSS 3.x und Features wie Frame Generation zukünftig als Standard und gegeben ansieht.

Mittlerweile ist auch die Bildqualität zumindest in 4K mit DLSS Quality zumeist besser als nativ. Für Nvidia macht das also absolut Sinn.

Ältere Generationen, wie jetzt schon GTX 1000 und RX 5000, werden zukünftig immer häufiger rausfliegen, aber das ist nicht das Problem von Nvidia.

Sonst rufen ja auch immer alle nach „echter“ Next-Gen-Grafik. Irgendeinen Tod muss man nun einmal sterben.
 
  • Gefällt mir
Reaktionen: Daddi89, DaHell63, H6-Mobs und eine weitere Person
d3nso schrieb:
Schön das es dir nicht auffällt, aber es soll eben Menschen geben die das ganze anders wahrnehmen.
Ich finde DLSS auf meiner 4080 bspw. auch nicht besser. Kann nicht nachvolziehen warum alle immer davon schwärmen...
Weder DLSS noch FSR haben für mich ein ruhigeres Bild als nativ.
Das streitet auch niemand ab, aber es kommt von Usern wie dir nie irgendein Beweis, über den man dann diskutieren könnte. Es heißt (überspitzt gesagt aber oft auch genau so) immer nur: "DLSS sieht scheiße aus, nativ ist viel besser".
Dem kann ich nicht zustimmen und zu diesem Ergebnis kommt auch kein einziger unabhängiger Tester (CB, PCGH und wie sie alle heißen).
 
  • Gefällt mir
Reaktionen: Daddi89 und Sirhaubinger
MrHeisenberg schrieb:
Nö, ist es nicht. DLSS hebt Details hervor, die du selbst in nativem 4K stellenweise nicht siehst:
Mechwarrior 5 nativ:
Anhang anzeigen 1412709

DLSS Q:Anhang anzeigen 1412710
Quelle: https://www.pcgameshardware.de/Nvid...rior-5-DLSS-Test-Control-DLSS-Test-1346257/2/


Das ist über 2 Jahre alt und DLSS 2.3:
https://www.pcgameshardware.de/Deep...ch-mit-anderen-Upscaling-Verfahren-1385215/4/

Sämtliche Tests kommen zu dem Ergebnis, dass DLSS grundsätzlich dem nativen vorzuziehen ist.
Zeig mir einen Test, der deine Meinung untermauert (grundsätzlich! Keine Ausnahme mit schlechter Implementation) und wir können darüber diskutieren, ansonsten ist es mir ehrlich gesagt egal, wie du DLSS findest. Wir kommen so auf keinen Nenner und ich vertraue da eher den unabhängigen Tests, welche meine Meinung dazu stärken/bestätigen, anstatt irgendeinem random Forenuser, der krampfhaft das Haar in der Suppe sucht.


Hier ist von 4K die rede und dort ist es nicht nur manchmal so, sondern in den meisten Fällen. Ausnahmen bestätigen die Regel und wenn es nicht so ist, ist die Diskussion auch hinfällig, weil hier niemand ernsthaft 3 cm vom Oled Pixel zählt. Wenn du das machst, dann werd damit glücklich. Ich genieße währendessen das Spiel.
Nativ gibt es in den meisten Spielen auch nicht. Dort bedeutet nativ dann TAA und TAA ist nicht besser als DLSS. Wie auch? Es hat genau wie DLSS ne temporale Komponente und somit genau so mit ghosting und co. zu kämpfen.
Alter du musst bewegt Bilder vergleichen!
DLSS hebt die Details hervor und macht das Bild schärfer (meistens, nicht immer). Das bedeutet doch nicht dass n game besser aussieht. Es kann zu störenden Artefakten kommen und zu Shimmering.

DLSS sieht oft besser aus, aber es sieht auch oft schlechter aus. Du musst halt selbst wissen was Prio hat.
Zu behaupten es sieht immer besser aus ist nicht korrekt.

Und selbst wenn du und ich damit leben können und Performance bevorzugen, gilt das eben nicht für alle.
 
  • Gefällt mir
Reaktionen: SweetOhm, MalWiederIch, McTheRipper und eine weitere Person
Zurück
Oben