• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

Test Alan Wake 2 im Technik-Test: Sehr schicke Grafik – mit einer schnellen RTX 4000

Kiy schrieb:
Gibt es evtl. die Möglichkeit mit dem AMD Treiber 23.20.17.05 zu testen?
Der wurde verwendet für die GPU Benches.

Screenshot_20231031-135652.png


Lediglich die 7900 XTX im RT Vergleich ganz oben im Artikel wurde noch mit dem 23.10.2 gebencht, wie dem Text darunter zu entnehmen ist.
 
CBaseForum schrieb:
und wieder weniger bock auf meine 7900xtx :D

der gedanke sie gegen eine 4080 zu tauschen reift und reift.
du hast zu viel geld augenscheinlich.^^ Frage mich wo da der Gedanke reift, bis zum nächsten Spiele-Release wenn die AMD-Karte wieder schneller ist?

Selbst eine 4090 ist ja nicht wirklich zufriedenstellend bei dem Spiel
 
@.Sentinel.

Das ist in diesem Thread wirklich mein letzter Kommentar zu diesem Thema. Danach kannst du dich zurücklehnen.

Hier sind ganz konkret Nachteile, welche eine zu schnelle (gehetzte) Entwicklung von Raytracing im Gaming mit sich bringt:

• gestiegene GPU-Preise bei Nvidia seit RTX 2000
• eine große Abhängigkeit von DLSS, FG und RR
• generell recht hohe Performanceeinbrüche in einem RTX-Titel
• extrem schneller Werteverfall älterer (hochpreisiger) Raytracing-Hardware
• die Notwendigkeit von propritären Technologien zum Erreichen des gesteckten Ziels (Nvidia Ökosystem)
• das Fehlen von "günstigen" (weniger anspruchsvollen) RT-Effekten in neuen RTX-Titeln für RX 6000/ RX 7000
• die Notwendigkeit einer extremen Optimierung für RTX-GPUs/ große Benachteiligung für AMD-Hardware in RTX-Titeln (CP2077, Witcher 3, AW2, ...)
• permanent erhöhter Entwicklungsaufwand in Spielen durch kaum vorhandene Erfahrungswerte mit RT/PT (technisches Neuland)
• nach wie vor geringe Attraktivität von Raytracing für den Mainstream-Gamer (seit 2018)

Nicht alle von mir genannten Punkte sind deutliche Nachteile oder haben den Anspruch auf dauerhafte Gültigkeit. Es ist eine Momentaufnahme.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: schM0ggi und C0rteX
Ich hab FMF/FG in Forspoken ausprobiert. Mir fehlt bisher der Sinn dieser Zwischenbildberechnung. Wenn ich mehr als 60 FPS hab ist doch gut. Unter 60 FPS passt dann wieder der Input Lag mit der Framerate nicht überein. Ich glaube da muss noch eine Software nachhelfen.
 
Sqrt(-1) schrieb:
Man erkennt in UE-Spielen noch immer, dass die Komplexität interaktiver Elemente unter teils enormen Einschränkungen leiden.
Was hat das mit Alan Wake 2 zu tun? Laut Remedy wurde doch die Northlight Engine verwendet.
 
  • Gefällt mir
Reaktionen: Pro_Bro
TigerherzLXXXVI schrieb:
Zumindest haben sie im Grafikkartentest direkt Nvidia-Karten mit FG gegen AMD-Karten (ohne FG) antreten lassen. Und das sollte man als seriöse Hardwareredaktion eigentlich nicht tun, schließlich sind die zusätzlichen FPS mit Hilfe von FG qualitativ nicht das Gleiche wie nativ gerenderte Bilder. Dabei hat @Wolfgang vor kurzem noch gesagt, dass er so seine Probleme mit FG hat. Es wirkt also so, als wollte man bewusst Nvidia-Karte besser für Alan Wake 2 da stehen lassen.

Auch das CB Preview zu Alan Wake 2 wirkte auf mich wie eine Nvidia Werbeveranstaltung, schließlich hat man extra die offiziellen Benchmarkwerte von Nvidia präsentiert. Und ich war vor einiger Zeit noch CB Pro Abonnent, um die freie Berichterstattung von CB zu unterstützen... Das ist nicht schön.
Erstmal die Frage: Welche Preview zu Alan Wake 2? Wir haben keine eigene Preview zu dem Spiel.

Und zu ersterem:
Ich habe mehrmals im Text erwähnt, dass FG so seine Probleme in dem Spiel mit sich bringt und das ganze nicht mit "normalen" Frames vergleichbar ist. Das tue ich schlicht jedes mal, wenn irgendwo FG benutzt wird. Wüsste nicht, dass es eine andere Redaktion gibt, die das jedes Mal erwähnt.

Im selben Diagramm ist es schlicht deswegen, da AW2 + Pathtracing ohne FG quasi generell nicht spielbar ist. Bei Pathtracing machen wir daher auch in Zukunft eine Ausnahme, das ergibt ohne FG einfach überhaupt keinen Sinn.
Kiy schrieb:
Mit dem Treiber haben wir doch getestet?
 
  • Gefällt mir
Reaktionen: TigerherzLXXXVI und W4RO_DE
Taxxor schrieb:
Stimmt @Wolfgang
Wenn ich mir das Duell 6950XT vs 7900XTX ansehe , der Abstand im RT Niedrig Preset ist immer höher als ohne RT, außer in 1080p wo er etwas schrumpft.


1080p : +39%
1080p RT : +32%
1440p : +42%
1440p RT : +45%
4K : +47%
4K RT : +57%


Und da kommt noch dazu, dass ohne RT FSR Quality und mit RT FSR Balanced benutzt wurde, wodurch man eine niedrigere Renderauflösung bei RT hat, was den Abstand der Karten verringert. Das dürfte auch der Grund sein, warum der Abstand dann in 1080p bei RT nicht mehr größer ist.
Hätte man FSR Quality auch bei RT benutzt, wäre der Abstand noch mal größer
Einfach kurz und knapp; mal abseits von 1080p ist die 6950xt in Raster immer um die 10% schneller als eine 7800xt. Mit rt ist plötzlich die 7800xt um 2-5% schneller.

ohne Rt ist die 7900xt ca 20 % schneller als die 6950, mit rt sind es dann 30%

Ergo, rdna 3 ist was rt angeht schon fitter als rdna2
 
TigerherzLXXXVI schrieb:
Allerdings glaubst du doch selbst nicht, dass das Spiel nicht bereits mit Hinblick auf die neue Grafikkartengeneration (zumindest für RTX 3000) entwickelt wurde. CDPR hat bereits vor Release von Ampere in Zusammenarbeit mit Nvidia die technischen Weichen für die neue Grafikkartengeneration gestellt.
Dann müsstest du doch jetzt AW2 feiern ? Hier sind die Weichen mit Hinblick auf die neue GPU Gen gestellt. Und tadaaa es passt dir nicht. Wie mans macht ists falsch. :daumen:
 
  • Gefällt mir
Reaktionen: Quidproquo77, MrHeisenberg und bluna
.Sentinel. schrieb:
Die technischen Limitationen wieviele Texturen ein Spiel darstellen kann sind enginetechnisch so gut wie nicht gegeben.
Der Grund für Limitierungen sind ja auch nicht die 3D Engines an sich sondern im Endeffekt schlicht der VRAM.^^

Also das es da keine Begrenzungen gäbe wäre schön, aber jeder der Erfahrungen mit sehr großen Spielwelten gemacht hat müsste bemerkt haben das je größer die Sichtweite ist desto geringer werden auch sämtliche Details sehr weiter Entfernung dargestellt.

Deshalb hab ich bzw. bin ich immer noch auf der Suche nach einer Mod für Elden Ring.^^

Da gibt es "leider" nur eine "better LOD" Mod.^^

Der Veröffentlicher dieser Mod hatte beispielsweise geschrieben das er versucht hatte mehr Details in der Entfernung darstellen zu lassen aber es ist zu fest in der Engine verankert wenn ich mich nicht irre.^^

Was aber auch nicht verwunderlich ist bei dem Abwechslungsreichtum und der gleichzeitig riesengroßen Spielwelt, ich hoffe trotzdem das es jemand schafft die Sichtweite stark zu erweitern.^^

Man sieht in die Ferne und weiß was da eigentlich zu sehen sein müsste aber sieht es leider nicht da viel zu weit weg.^^
 
Gravlens schrieb:
Der Grund für Limitierungen sind ja auch nicht die 3D Engines an sich sondern im Endeffekt schlicht der VRAM.^^
Virtual Texturing, Sampler Feedback Streaming usw.
Gibts alles schon seit X- Jahren. Von ID Software mit Megatextures umgesetzt z.B.
Da wird der VRAM als Framebuffer und nicht mehr als Texturspeicher genutzt. Da kommst Du dann mit 4 Gigabyte VRAM für 16k Texturen hin.

Somit nein- VRAM ist schon lange keine Ausrede mehr dafür, wenn Texturen nicht passen. Der User lässt es hier halt einfachmit sich machen und entscheidet auch hier in Sachen Feedback zu den Herstellern, dass sie mehr VRAM reinpacken sollen. Den Entwickler freuts, weil er billig VRAM verballern kann. Und keine moderne Technik einsetzen muss....
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Fallout667 und ThirdLife
Hier ein ganz netter "Optimized Settings" Guide für das Game. 56 Prozent bessere Performance erreichbar. FSR ist derzeit in nativer Auflösung nicht richtig funktionstüchtig. Es wird die Einstellung Qualität empfohlen.

 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: cosmo45
Wolfgang schrieb:
Erstmal die Frage: Welche Preview zu Alan Wake 2? Wir haben keine eigene Preview zu dem Spiel.

Und zu ersterem:
Ich habe mehrmals im Text erwähnt, dass FG so seine Probleme in dem Spiel mit sich bringt und das ganze nicht mit "normalen" Frames vergleichbar ist. Das tue ich schlicht jedes mal, wenn irgendwo FG benutzt wird. Wüsste nicht, dass es eine andere Redaktion gibt, die das jedes Mal erwähnt.

Im selben Diagramm ist es schlicht deswegen, da AW2 + Pathtracing ohne FG quasi generell nicht spielbar ist. Bei Pathtracing machen wir daher auch in Zukunft eine Ausnahme, das ergibt ohne FG einfach überhaupt keinen Sinn.

Mit dem Treiber haben wir doch getestet?
Oh sorry hab ich nicht richtig gelesen …
 
Wolfgang schrieb:
Und zu ersterem:
Ich habe mehrmals im Text erwähnt, dass FG so seine Probleme in dem Spiel mit sich bringt und das ganze nicht mit "normalen" Frames vergleichbar ist. Das tue ich schlicht jedes mal, wenn irgendwo FG benutzt wird. Wüsste nicht, dass es eine andere Redaktion gibt, die das jedes Mal erwähnt.

Im selben Diagramm ist es schlicht deswegen, da AW2 + Pathtracing ohne FG quasi generell nicht spielbar ist. Bei Pathtracing machen wir daher auch in Zukunft eine Ausnahme, das ergibt ohne FG einfach überhaupt keinen Sinn.
Ich habe genau diese Stelle in deinem Artikel überflogen. Das war ganz allein mein Fehler. Entschuldigung.
AW2 ist schon ein wenig undankbar für einen Hardwaretester, wenn Pathtracing nur mit zusätzlich aktivierten FG spielbar ist. Für mich hat man daher bei Remedy technisch etwas gemogelt.

Hoffentlich bleibt dieser Umstand bei zukünftigen Spielen eher die Ausnahme. Diese Entwicklung mit ausufernden Featurezwang gefällt mir gar nicht. Ich wünsche mir für jedes Spiel eine vernünftige Basis-Performance.
Ergänzung ()

Ich hatte in einem anderen Thread zuvor FG als neues Grafikfeature scharf kritisiert und ihm einen sinnvollen Nutzen für Gamer beinahe abgesprochen. Hier war ich zu abwertend gegenüber der Technologie gewesen.

FG ist erst einmal keine schlechte Funktion und wird auch in Zukunft eine Rolle beim Gaming spielen. Allerdings habe ich ein Problem damit, wenn man FG offensiv als Must-Have Feature vermarket. Denn das ist es dann wiederum auch nicht. Für mich sollte FG von der Bedeutung her nicht auf der selben Stufe wie DLSS bzw. FSR stehen. Dafür muss man gegenüber nativ gerenderten Bildern zu große qualitative Abstriche machen.
 
Zuletzt bearbeitet:
TigerherzLXXXVI schrieb:
Für mich sollte FG von der Bedeutung her nicht auf der selben Stufe wie DLSS bzw. FSR stehen. Dafür muss man qualitativ gegenüber nativ gerenderten Bildern zu große Abstriche machen.
Kommt ganz auf die Implementierung an.
DLSS selbst kann auch oftmals für deutlich mehr Artefakte verantwortlich sein als FG, sodass man, wenn man nur eines von beiden nutzen dürfte, auch mal mit Nativ+FG bessere Bildqualität bekommt.

Funktioniert hier natürlich nicht sehr gut, wenn man FG auf 25 Base-FPS drauflegen will.


Apropos Artefakte, mittlerweile sind mir auch hier wieder viele Smearing Stellen von Ray Reconstruction aufgefallen. Alleine die leichten links-rechts Idle-Bewegungen, die Saga beim rumstehen macht, ziehen je nach Untergrund deutliche Schmieren nach sich.
1698770775500.png


Ohne RR sind diese im Gegensatz zu Cyberpunk aber nicht nur schwächer, ich sehe sie so gut wie gar nicht.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Fallout667, TigerherzLXXXVI und ThirdLife
Taxxor schrieb:
Apropos Artefakte, mittlerweile sind mir auch hier wieder viele Smearing Stellen von Ray Reconstruction aufgefallen.
Ich hab da mal ein par Tests dazu gemacht. Es ist da leider (vielleicht auch zum Glück, da einfache Ursache) so, dass der Denoiser dann doch noch zu oft danebengreift, was die Bewertung anbelangt, ob nun grade temporal oder spatial kumuliert bzw. geglättet werden soll.

Das gibt dann Artefakte, die durch TAA oder DLSS noch verstärkt werden, da Du hinter den Artefakten natürlich keine validen Motion- Vektoren hast. Früher hat man da einfach geclampt. Macht man jetzt nicht mehr, um eben das High- Frequency- Material nicht zu verwässern.

Noch arg kompromissbehaftet das ganze.
Ich bin gespannt wie NVIDIA das auflösen wird. Oder sie lösen es garnicht auf und optimieren den KI Datensatz so lange oder blähen ihn auf, bis die Erkennungen zuverlässiger laufen. Wird allerdings dann wieder auf die Performance gehen.

Hab da leider auch von keiner Stelle bis jetzt genauere Infos einholen können.
 
  • Gefällt mir
Reaktionen: TigerherzLXXXVI und Fallout667
.Sentinel. schrieb:
Oder sie lösen es garnicht auf und optimieren den KI Datensatz so lange oder blähen ihn auf, bis die Erkennungen zuverlässiger laufen. Wird allerdings dann wieder auf die Performance gehen.
Naja auch in AW2 ist es ja so, dass RR einem aktuell zusätzlich noch 5-10% Performance beschert.
Ich hätte nichts dagegen, wenn es bei 0% oder gar -5% landet, wenn man dafür die Probleme beheben kann.
Ergänzung ()

.Sentinel. schrieb:
Hab da leider auch von keiner Stelle bis jetzt genauere Infos einholen können.
Nachdem es in Cyberpunk ja nun schon ne Weile zu sehen ist, hätte ich auch gehofft, dass mittlerweile irgendein Statement von Nvidia dazu kommen müsste, ob und wie man das angehen kann.
 
  • Gefällt mir
Reaktionen: TigerherzLXXXVI und Fallout667
Taxxor schrieb:
Naja auch in AW2 ist es ja so, dass RR einem aktuell zusätzlich noch 5-10% Performance beschert.
Ich hätte nichts dagegen, wenn es bei 0% oder gar -5% landet, wenn man dafür die Probleme beheben kann.
Ich fürchte, dass das derzeit noch teurer wäre (zumindest für die kleineren Karten der 4xxx Serie). Die Pixelstrecke in Relation zur Bildfrequenz der Idle Animationen ist nicht unbedingt hoch. Wenn selbst die ein Smearing aufweisen müsste man die temporale
Kumulation halbieren oder vierteln, um dort auf ein akzeptables Ergebnis in allen Lebenslagen zu kommen.
Das geht dann doch entweder wieder sichtlich auf die Qualität oder deutlich auf die Performance.

Vielleicht wäre da ein zwischenschritt Sinnvoll, wo man als Entwickler die Chance hat per Attributierung/Flags das für eine Szene optimale Verhalten zu beeinflussen. Die Schwächen sind ja inzwischen bekannt.
Und auch, dass gewisse Szenen über den temporalen Einfluss stark entgleisen können.
 
  • Gefällt mir
Reaktionen: Fallout667
Zurück
Oben