• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

News Alan Wake 2: GTX 1000 und RX 5000 sind außen vor, Spieler außer sich

Habs im anderen Thread schon geschrieben, aber ich finde hier ist es auch nochmal gut platziert:

https://www.nvidia.com/en-us/geforce/news/alan-wake-2-dlss-3-5-full-ray-tracing-out-this-week


1698220798091.png


1440p
1698220805865.png

1080p
1698220886427.png


Hier zum Vergleich die Benchmarks aus Cyberpunk mit Pathtracing:
1698220923548.png


1698220935347.png


1698220980088.png

Ist natürlich alles mit DLSS Super Resolution + Frame Generation + Ray Reconstruction.
Man sieht hier gut, dass mit Pathtracing Alan Wake 2 ein ordentliches Stück besser performt als Cyberpunk mit identischen DLSS Settings.

4090 134 vs 102 FPS in 4K (+31%)
4080 104 vs 85 FPS in 4K (+22%)
4070 92 vs 71 FPS in 1440p (+29%)


Und bevor die Benchmarks angezweifelt werden, da von Nvidia: Die Cyberpunk Werte kann ich bei der 4080 bestätigen. Kommt im Schnitt ziemlich gut hin.

Pathtracing ist damit also nicht nur den High End AdaLovelace Karten vorbehalten. Funktioniert auf allen RTX4000 Karten damit ziemlich gut. Zumal das Maximale Settings sind. Man kann ja die pathtracing Einstellung auch nochmal ne Stufe runter stellen. Das ging bei Cyberpunk nicht.

Und ja, Pathtracing ist natürlich ein RTX4000 Showcase. Wäre traurig wenns auf den karten nicht läuft. Trotzdem finde ich es gut, dass man damit Pathtracing mit ziemlich smoother Darstellung nutzen kann und für Pathtracing nicht den 30 FPS kompromiss machen muss. Früher war das für "next-gen" effekte ja durchaus normal. Die hat man kurz aktiviert, um zu sehen wie es aussieht und dann zum Spielen wieder runtergedreht. Lief dann eh erst in 1-2 GPU Generationen wirklich flüssig.

Ich bin auf die Raster only Benchmarks gespannt. Angesichts dessen, dass das Spiel mit Pathtracing besser performt als Cyberpunk erscheint es komisch, dass dann die Anforderungen ohne RT/PT so hoch sein sollen. Wenn PT so "gut" läuft kann das Spiel ja generell nicht so schlecht optimiert sein. Irgendwie passt das noch nicht so ganz zusammen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Pesky_ und Grundgütiger
Hab mir mal einen Artikel zu diesem DirectX12.2 "Killerfeature" MeshShaders/Meshlets durchgelesen, und es hörte sich ähnlich an wie "Octrees", die schon im Jahr 2000 in Spielen verwendet wurden - nur dass die Meshlets wohl größere "Flecken" umfassen können. Eigentlich müsste sowas auf jeder popeligen Grafikkarte funktionieren, oder treibermäßig nachgereicht werden können. Ich glaube auch nicht, dass dieses Feature wirklich notwendig wäre für das Spiel.
 
Zuletzt bearbeitet von einem Moderator:
MrHeisenberg schrieb:
Weil du jetzt ne Stelle gefunden hast, die schwächelt, sind die anderen Szenen nicht mehr Fotorealistisch?
Ich hatte das Video zuvor schon hier verlinkt mit einem anderen Beispiel:
https://www.computerbase.de/forum/t...ler-ausser-sich.2166279/page-11#post-28740736
MrHeisenberg schrieb:
Ach komm, lass es doch einfach.
Nö, wieso sollte ich? :D
MrHeisenberg schrieb:
Dann schau dir mal links den aufgeplatzen Asphalt direkt von Ellis Füßen an.
Ich habe auch nicht behauptet das die Texturen besser aussehen, allerdings wenn man schon zwei Spiele grafisch miteinander vergleicht dann sollte man sowas wie Sichtweite schon mit berücksichtigen, besonders bei einer so deutlichen Diskrepanz.^^
 
MrHeisenberg schrieb:
Das ist ein PS4 Spiel.
Grafisch hat sich da aber nicht sehr viel getan. Es ist immer noch Polygonarm und hat miese Texturen.

Sehr viele scheinen verdrängt zu haben, was in den letzten 20 Jahren so passiert ist und leben in einer Fantasiewelt.

Was eigentlich total egal ist, da wir hier über PC-Grafik und PC-Grafikkarten reden.
Aber ok, dann hol ich mal meine Schaufel...

Dann vergleichen wir die TLOU PS4 Grafik mit der CP2077 PS4 Grafik. CP2077 ist ja Original auch für die PS4 Veröffentlicht wurden.

Und lachen CDRed und Nvidia kräftig für absolute Unfähigkeit aus. So beschissen wie diese CP2077 Version aussah, kann man sich das nicht mal mit "Prima Sprit" schönsaufen.
 
Mimir schrieb:
Habs im anderen Thread schon geschrieben, aber ich finde hier ist es auch nochmal gut platziert:

https://www.nvidia.com/en-us/geforce/news/alan-wake-2-dlss-3-5-full-ray-tracing-out-this-week


Anhang anzeigen 1412612

1440p

1080p


Hier zum Vergleich die Benchmarks aus Cyberpunk mit Pathtracing:


Man sieht hier gut, dass mit Pathtracing Alan Wake 2 ein ordentliches Stück besser performt als Cyberpunk.

4090 134 vs 102 FPS in 4K (+31%)
4080 104 vs 85 FPS in 4K (+22%)
4070 92 vs 71 FPS in 1440p (+29%)


Und bevor die Benchmarks angezweifelt werden, da von Nvidia: Die Cyberpunk Werte kann ich bei der 4080 bestätigen. Kommt im Schnitt ziemlich gut hin.

Pathtracing ist damit also nicht nur den High End AdaLovelace Karten vorbehalten. Funktioniert auf allen RTX4000 Karten damit ziemlich gut.

Ich bin auf die Raster Only Benchmarks gespannt. Angesichts dessen, dass das Spiel mit Pathtracing besser performt als Cyberpunk erscheint es komisch, dass dann die Anforderungen ohne RT/PT so hoch sein sollen. Wenn PT so "gut" läuft kanns ja generell nicht so schlecht optimiert sein. Irgendwie passt das noch nicht so ganz zusammen.

Hoffen wir das passt so, dann wirds bei mir auf 1440p mit dlss super laufen 👍😊
 
bad_sign schrieb:
Vor 2023 gab es nur wenige Spiele die so schlechte Optik/Performance-Verhältnisse lieferten
Beim Einsatz der neuen Rendertechniken steht nicht unbedingt die Optik im Mittelpunkt, sondern die Möglichkeit Szenen in Realtime physikalisch (fast) korrekt dargestellt dynamisieren zu können.
Physik, Erweiterung der Möglichkeiten der Gameplay- Mechanik, aufheben der Einschränkungen in Sachen Leveldesign.
Leider schlägt hier das Marketing voll zu, welches den Aspekt Realtime- Raytracing nur von der grafischen Seite beleuchtet.

Nur ist es so, dass bei RTRT die Grafik gegenüber im Voraus kalkulierten Systemen SCHLECHTER ausfällt, da in prerendered Szenen erheblich mehr Präzision und Rechenzeit fließen kann.
Der Nachteil- Je mehr prerendered ist, umso weniger Dynamik, Physik, Zerstörung ist in diesen Szenen möglich, ohne den Aufwand und den benötigten Speicherplatz explodieren zu lassen.
Bei Spiderman 2 nimmt die vorausberechnete Beleuchtung lt. Entwickler 1/3 des benötigten Speicherplatzes ein. Das ist einer nebst vielen anderen Nachteilen.

Warum soll man mit neuer Technik also keine Experimente wagen? Und man kann ja viel behaupten, aber nicht dass das bis jetzt von AW2 gezeigte schlecht aussehen würde....
 
  • Gefällt mir
Reaktionen: Quidproquo77, Maggolos und Grundgütiger
Ich habe DX v12.2 von daher
 
GreatEvil schrieb:
Was eigentlich total egal ist, da wir hier über PC-Grafik und PC-Grafikkarten reden.
Aber ok, dann hol ich mal meine Schaufel...
Was willst du von mir? Ich habe das Fass nicht aufgemacht. Diskutier das mit @Gaugaumera.
 
Mimir schrieb:
Ich bin auf die Raster Only Benchmarks gespannt. Angesichts dessen, dass das Spiel mit Pathtracing besser performt als Cyberpunk erscheint es komisch, dass dann die Anforderungen ohne RT/PT so hoch sein sollen. Wenn PT so "gut" läuft kanns ja generell nicht so schlecht optimiert sein. Irgendwie passt das noch nicht so ganz zusammen.
Es kann schon sein, dass der Performancegewinn von reiner Rastergrafik ggü. Pathtracing nicht so hoch wie erwartet ausfällt, da auch mit reiner Rasterisierung hübsche Beleuchtung, Schatten, Reflektionen und Umgebungsverdeckung viel Leistung kosten können. Und das umso mehr je komplexer die dargestellten Szenen sind. Ab einem gewissen Punkt ist Pathtracing dann sogar performanter, aber an diesem Punkt sind wir noch nicht angekommen. Wir bewegen uns aber unweigerlich darauf zu.
 
GreatEvil schrieb:
So beschissen wie diese CP2077 Version aussah, kann man sich das nicht mal mit "Prima Sprit" schönsaufen.
Man musste ja auch unbedingt einen Port für die alten Konsolen bringen.

Wo ist jetzt der Unterschied zu PC-Hardware, mag man sich da fragen und das ist ein sehr guter Punkt, anders als Konsolen, von denen weit mehr Leute die ältere Technik oft noch Jahre benutzen, da viele auch erstmal auf Revisionen warten, ein PC auch mit alten Karten funktioniert.

Doch wenn diese alten Karten auch gerade mal die halbe Lebensspanne einer typischen Konsolen-Generation hinter sich haben (wie die vier Jahre bei Navi und die 1080Ti scheinbar heute noch gut dabei ist), dann lasst gerade auf PC den Leuten doch einfach die Optionen drin und lass sie sehen, wie bescheiden das Produkt mit ihrer Technik läuft.

Das Upgrade kommt so wohl eher, als wenn einem das Upgrade quasi aufgezwungen wird.

Und ja, es ist ein Zwang, wenn man grundlos etwas abwürgt, von dem bekannt ist, dass viele Leute es noch verwenden und für diese noch ausreichend ist.
 
MoinWoll schrieb:
Es kann schon sein, dass der Performancegewinn von reiner Rastergrafik ggü. Pathtracing nicht so hoch wie erwartet ausfällt, da auch mit reiner Rasterisierung hübsche Beleuchtung, Schatten, Reflektionen und Umgebungsverdeckung viel Leistung kosten können. Und das umso mehr je komplexer die dargestellten Szenen sind. Ab einem gewissen Punkt ist Pathtracing dann sogar performanter, aber an diesem Punkt sind wir allerdings noch nicht angekommen. Wir bewegen uns aber unweigerlich darauf zu.

Da hast du recht. Irgendwann ist Raytracing oder Pathtracing natürlich effizienter. Liegt ja in der Natur der Sache.

Trotzdem sind wir gerade erst an dem Punkt angekommen wo Pathtracing überhaupt sinnvoll machbar ist. Wir haben hier ja immernoch relativ wenige Strahlen und wenige Bounces. Der Fotorealismus wird wohl irgendwann durch Steigerung dieser beiden Parameter erreicht werden.
Jedenfalls lässt sich pathtracing aktuell kaum weiter nach unten skalieren, um großartig mehr performance rauszuholen. Da geht man dann eben direkt auf normales RT zurück bzw. hybrid RT.

Bei Rastergrafik hingegen würde ich erwarten, dass es ziemlich einfach möglich ist die performance zu steigern. Wir sind schließlich langsam am Ende der Fahnenstange angekommen. Am Ende dessen was mit Rastergrafik möglich ist. Man könnte also zumindest theoretisch die Performance fast beliebig nach unten skalieren. Warum das nicht gemacht wird, erschließt sich mir nicht ganz. Klar ist das mit Arbeit verbunden, aber wenn das dann z.B. auf Konsolen nur in 720p upscaled auf 4K oder so läuft ist doch auch keinem geholfen. Dann lieber ein paar mehr Kompromisse bei der Optik und dafür passable Bildqualität.

Vermutlich sind da ein paar Grafik Artists sehr erpicht darauf, das spiel mit einer bestimmten Optik auszuliefern und nicht bereit, da Kompromisse zu machen.
 
Mimir schrieb:
Vermutlich sind da ein paar Grafik Artists sehr erpicht darauf, das spiel mit einer bestimmten Optik auszuliefern und nicht bereit, da Kompromisse zu machen.
Ich denke das ist der Knackpunkt. Ab einem gewissen Grad der Skalierung ist die tatsächliche Grafik so weit entfernt von der ursprünglichen Vision davon wie das Spiel aussehen sollte, dass man sich dagegen entscheidet weiter runter zu gehen. Wann dieser Punkt erreicht ist, entscheidet dann natürlich jedes Studio selbst. Bei Remedy ist es erfahrungsgemäß so, dass sie diesen Punkt eher früher erreichen als andere Studios.
 
Wer mich als Kaeufer nicht haben will, hat anscheinend schon.

Wenn die genannten Einschraenkungen offen und klar kommuniziert werden, habe ich kein Problem damit.
Ein zusaetzliche Herstellung von diversen Kompatibilitaeten ist vermtl. auch eine kaufmaennische Entscheidung. Kann man nix gegen sagen.

Ich gehe auch davon aus, dass klar kommuniziert wurde, ab W10 aufwaerts...
 
Ich bin auch wütend, da neue PS5 Spiele nicht mehr auf meiner PS4 laufen :grr:
Ist doch ganz normaler Fortschritt. Bis es DX9.0C gab wurde etwa jährlich eine neue DX Version veröffentlicht und man brauchte alle 1-2 Jahre auch eine neue Karte um aktuelle Spiele zoggen zu können.
 
Die RX 5700 XT war zum Release im Sommer 2019 noch eine klassische Rasterizing-Grafikkarte mit älteren Featureset, gemessen an RTX 2000. Mittlerweile sind mehr als 4 Jahre vergangen und ich kann schon verstehen, wenn ein Spieleentwickler irgendwann einmal einen "Schlussstrich" zieht. Inwiefern diese Entscheidung technisch auch nachvollziehbar ist, kann ich nicht beurteilen. Hier fehlt mir das Fachwissen. Hoffentlich ist es gerechtfertigt, denn die RX 5700 XT ist leistungstechnisch immer noch eine ziemlich gute Einsteiger-GPU mit der Leistung einer RX 6600 XT.
 
Mimir schrieb:
Ich bin auf die Raster only Benchmarks gespannt. Angesichts dessen, dass das Spiel mit Pathtracing besser performt als Cyberpunk erscheint es komisch, dass dann die Anforderungen ohne RT/PT so hoch sein sollen. Wenn PT so "gut" läuft kann das Spiel ja generell nicht so schlecht optimiert sein. Irgendwie passt das noch nicht so ganz zusammen.
Für mich passt das eigentlich sehr gut zusammen, was an RT/PT in Alan Wake 2 (zumindest von dem bisher gezeigten) ist denn im Vergleich zu ohne RT/PT optisch so viel besser dass es deshalb überhaupt starke Einbußen in der Performance rechtfertigen würde?^^
 
Das ein Spiel "aktuelle" Hardware benötigt und Karten die dies nicht unterstützen außen vor sind, ist nicht neu und so alt wie die Grafikkartenbranche selbst.

Was ich viel schlimmer finde ist, dass das Spiel offensichtlich auch mit Team Grün erst so richtig gut läuft wenn FG, DLSS 3.5 oder was auch immer dazugeschaltet wird. Sorry aber eine "2000€" Grafikkarte die nativ mit allem auf Anschlag nur 30FPS schafft. Come on... Wenn ich so viel Geld ausgebe dann erwarte ich auch Premium Gaming , zumindest in der current Gen in der wir uns bewegen. Nur meine Meinung.
 
"Spieler außer sich"

Die Clickbait-Saga wird erfolgreich fortgeführt 😂

Ist das eigentlich eine Anweisung vom Chef, oder denken sich die Autoren wirklich selber so etwas aus (ohne sich dabei in Grund und Boden zu schämen).
 
  • Gefällt mir
Reaktionen: Cohen und daknoll
Clayman79 schrieb:
Das ein Spiel "aktuelle" Hardware benötigt und Karten die dies nicht unterstützen außen vor sind, ist nicht neu und so alt wie die Grafikkartenbranche selbst.

Was ich viel schlimmer finde ist, dass das Spiel offensichtlich auch mit Team Grün erst so richtig gut läuft wenn FG, DLSS 3.5 oder was auch immer dazugeschaltet wird. Sorry aber eine "2000€" Grafikkarte die nativ mit allem auf Anschlag nur 30FPS schafft. Come on... Wenn ich so viel Geld ausgebe dann erwarte ich auch Premium Gaming , zumindest in der current Gen in der wir uns bewegen. Nur meine Meinung.
Exakt das.

Die Hardwareverschwendung heutzutage ist eine Frechheit. Wenn man dazu die "Optimierung" der Performance zugunsten einer Partei dreht (und man sieht, was EIGENTLICH möglich ist), muss man dann nicht von einem Monopolisten sprechen? Einem Wirtschaftsverbrechen, wenn hier klar ein Produkt bevorteilt wird - in diesem Maße natürlich nur!

(kommtmir keiner mit Starfield und FSR/AMD, die "Vorteile" dort: lächerlich.

Wie gut das sich viele schon Epic Games Konten mit zahlreichen, kostenlosen Spielen angeschafft haben. Können ihre Seele nun endgültig verkaufen.
 
  • Gefällt mir
Reaktionen: Innocience und Clayman79
Chismon schrieb:
War es nicht, das habe ich oben erklärt, da wurde nicht so bewusst kurz vor Spielveröffentlichung so ausgegrenzt, daß Karten die während der Entwicklungszeit aktuell waren bzw. in diese involviert waren ausgeschlossen wurden.

Es hat allerdings wenig Sinn das mit Dir weiter zu diskutieren, denn Du und andere scheinen es ja vehement nicht anzunehmen und haben Ihre eigenen an den Haaren herbei gezogenen Argumente für diesen Einzelfall, der aber leider zur Regel werden könnte und PC Gaming noch unerschwinglicher für viele und (auch technisch) kaputter werden lassen könnte.

Na denn viel Spaß noch damit, wenn Du unterstützend dabei mitwirken willst.

Doch war es schon immer. Auch ein gutes Beispiel war World of Tanks (Free to Play).
Als man sich 2018 entschied eine neue Engine einzuführen, fielen viele Grafikkarten aus dem Raster, weil diese einfach zu alt waren. Oder man erinnere sich an Zeiten, als man "plötzlich" den Pixel Shader "Version 1.3" benötigte und viele Karten daraufhin "raus" waren.
 
  • Gefällt mir
Reaktionen: MrHeisenberg
Zurück
Oben