Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsAlan Wake 2: Nvidias Benchmarks vs. erste Eindrücke der Redaktion
Jetzt kommen endlich mal wieder richtige Grafik-Monster. Auch wenn wahrscheinlich ein Großteil der Forenteilnehmer da noch zu jung war, aber früher war es normal, dass Spiele in maxed out erst auf der Folgegeneration richtig spielbar waren.
Auf meiner Möhre mit mittlerweile RX6700XT werde ich es mir aber wahrscheinlich nicht antun, sondern entspannt vor dem Fernseher auf der Playstation.
Bis auf Sam Lakes Gesicht/Haut in Screenshot #2 sieht’s großartig aus, bin gespannt, wieviel Spaß ich damit ab morgen auf der 7900 XT haben werde 🤓. Freu mich jedenfalls sehr drauf!
Aber das hier sieht wirklich äähhh irgendwie unschön/unnatürlich aus 😁:
Danke vielmals für diese Entwicklung. Genau dies ist es was wir uns gewünscht haben, wieder zurück zu der Zeit als Hersteller sich in Benchmarks Vorteile verschaft haben durch veränderte (sprich: niedrigere) Grafikqualität. Ich dachte ernsthaft diese Zeiten seien vorbei.
Solange nicht aufgrund exakt gleichen rendertargets Performance vergleiche durchgeführt werden können, ist der Vergleich hinfällig, weil eben nicht gleich. Noch dazu bin ich an das Upscaling des jeweiligen Herstellers gebunden, mit allen Vor- und Nachteilen welche das mit sich bringt. (Fiktives Bsp: DLSS wird ab näschster Generation nur noch ab Ada unterstützt, GFE updated driver automatisch. Alle Ampere Besitzer können sich das Game dann schenken)
Als User könnte mir das ja egal sein, doch wenn ich selbst mit Highend Karten inklusive Upscaling nur 30FPS schaffe in Full HD, dann ist das Grafik target schlicht und einfach zu hoch. Der Titel ist für 90%+ der Zielgruppe nicht ausführbar, keine Ahnung was die Proeduktmanger bei Remedy da geraucht haben, das Game kann nur floppen.
Hmmm. Und welche Spiele mit Path Tracing hast du bisher gespielt, nur so aus neugierde. Also aktuelle und nicht RTX Quake?
Ohne Raytracing schafft die 3080 ja auch in Alan Wake 2 ganz bequem die 60fps in 1440p. Und natürlich ist die 3080 eine alte Karte und nimmer High-End, besonders bei Raytracing nachdem Nvidia ja bei Raytracing nochmal ordentlich drauf gelegt hatte.
Würde ich ja mitgehen, aber man kann docha uf nativer Auflösung spielen. DLSS und FSR übernehmen dann nur noch die Rolle als AA-Lösung und das finde ich ok. Selbst eine TAA-Lösung entwickeln würde am Ende auch nicht besser aussehen.
Generell finde ich die Anforderungen ja auch hart, aber hier wird teilweise auch etwas übertrieben. Das Spiel läuft auch ohne Pathtracing-Modus. Das ist halt immer noch in gewisser Hinsicht Neuland. Wär jetzt irgendwem geholfen, wenn das Spiel kein Raytracing anbietet und dadurch niedrigere Maximalanforderungen hat?
Ohne diese Entwicklung wäre an RTRT bzw. Realtime Pathtracing nicht zu denken gewesen.
Und auch nicht daran, dass man mit intelligenter Wiederverwertung bereits berechneter Pixel so viel effizienter rechnen kann.
memory_stick schrieb:
...haben durch veränderte (sprich: niedrigere) Grafikqualität. Ich dachte ernsthaft diese Zeiten seien vorbei.
Das möge mir mal einer erklären, wie in Sachen DLSS, also mit Supersampling bei technisch sauberer Implementation eine niedrigere Grafikqualität entstehen soll. Solange die Samplezahl für die Zielauflösung nicht unter der "nativen" liegt, kann es in Summe nicht schlechter aussehen.
Bereits ab Frame#2 nach Szenenwechsel hast Du durch Kumulation und Jitter mit 1/3 der Ursprünglichen Samplezahl, die für Brute- Force- Rastern benötigt wird, das Original rekonstruiert. Mit jedem Folgeframe betreibst Du bereits Supersampling.
memory_stick schrieb:
Solange nicht aufgrund exakt gleichen rendertargets Performance vergleiche durchgeführt werden können, ist der Vergleich hinfällig,
Ja- So wie Du bei unterschiedlichen Grafikkartentypen, Konsolen oder sonstiger Hardware an entsprechende Hersteller und deren Featuresets gebunden bist.
memory_stick schrieb:
(Fiktives Bsp: DLSS wird ab näschster Generation nur noch ab Ada unterstützt, GFE updated driver automatisch. Alle Ampere Besitzer können sich das Game dann schenken)
Wie wahrscheinlich soll denn dieses fiktive Beispiel sein? Das ist doch völlig an den Haaren herbeigezogen.
memory_stick schrieb:
Als User könnte mir das ja egal sein, doch wenn ich selbst mit Highend Karten inklusive Upscaling nur 30FPS schaffe in Full HD, dann ist das Grafik target schlicht und einfach zu hoch.
Indem das Spiel erst nach 100 Stunden Spielzeit für die meisten in der Stadt Baldur's Gate ankommt und damit die meisten Tester gar nicht berücksichtigen konnten wie CPU Hungrig das Spiel ist? ;-)
@.Sentinel.
Nochmal zu Last of Us, eigenartig wenn der Titel so super ist, das die Bewertung auf Steam nur ausgeglichen erscheint!
Von der Stimmung und der Atmosphäre sicherlich sehr schön, doch der Sprung auf den Nvidia Train hat das Spiel ebenfalls in die Ecke gedrängt (Sale).
Genau dies ist es was wir uns gewünscht haben, wieder zurück zu der Zeit als Hersteller sich in Benchmarks Vorteile verschaft haben durch veränderte (sprich: niedrigere) Grafikqualität. Ich dachte ernsthaft diese Zeiten seien vorbei.
Ich dachte eigentlich eher, dass im Jahr 2023 endlich die Zeit vorbei ist, in der man sich noch an Relikte aus der Vergangenheit (=sprich native Auflösungen) klammert und mittlerweile zumindest bei DLSS SR jeder verstanden hat, warum das schlicht und ergreifend die bessere (und vor allem deutlich effizientere!) Wahl vergleichen mit nativ ist. Unterstützt ein Spiel DLSS (bei FSR hat AMD noch viel zu tun), dann sollte man das immer der nativen Möglichkeit vorziehen. Nicht nur aufgrund der oftmals besseren (oder mindestens gleichwertigen) Bildqualität, sondern auch wegen der massiv höheren Performance, die damit einhergeht - ohne, dass man auf irgendetwas verzichten muss. Es hat also schlicht keinen Nachteil.
Und da geht die Verblödung ja weiter. 10 Jahre altes Konsolengame schlecht portiert mit Nvidia Siegel drauf. Und kostet massiv GK Leistung wofür? Ist das dann High End Grafik, die ich mir einreden lassen soll?
Na wenn das nichts ist!
Ja,schonmal gespielt?
Die Grafik wurde massiv umgekrempelt.
Guck dir doch den Test hier auf CB an.
"The Last of Us Part I ist mit den entsprechenden Einstellungen auf dem PC ein Grafik-Knaller, anders kann man es nicht ausdrücken. Aktuell gibt es kein schöneres Spiel, TLoU ist Referenz."
Noch nicht, ist jedoch auf meiner Merkliste rein wegen der Story.
Die Test's und Videos zum GK Dilemma halten mich noch davon ab. Als nächstes kommt erstmal Frostpunk bei mir dran und dann BG3.
Noch nicht, ist jedoch auf meiner Merkliste rein wegen der Story.
Die Test's und Videos zum GK Dilemma halten mich noch davon ab. Als nächstes kommt erstmal Frostpunk bei mir dran.
Ich habe The Last of Us Part 1 vor kurzem erst durchgezockt samt dem DLC. Und ja das Spiel hat sehr gute Grafik. Nicht zu vergleichen mit damals. Ich bin froh gewesen es jetzt auf dem PC zocken zu können. Für mich eins der besten Spiele überhaupt. Die Patches haben das Spiel völlig verändert. Nichts von den Problemen ist mehr zu erkennen. Ich habe vor dem ersten Start des Spiels 10 min lang die Shadererstellung abwarten müssen und danach läuft das Spiel einfach Butterweich. Kein einziger Absturz oder sonstige Probleme. Mittlerweile muss man sagen das es fantastisch läuft.
Story Top, Grafik Top, Sound Top, Spielgefühl Top.
Und Preislich bekommt man es mittlerweile für 32€. Das ist okay. Ich bin Dankbar das es endlich für den PC erschienen ist. Denn mit Controller kann man einfach keine Shooter zocken. Sowas gehört an den PC mit Maus und Tastatur auf einem richtig guten PC für vollsten Genuss. Am besten noch mit OLED Monitor. Dann kannst du Bauklötze staunen.
Dass "bisschen" investiert hast für Deine 4070Ti mit 12 GB wissen wir, aber dass damit alles auf max. Details zoggst kannst dem Osterhase/Nikolaus erzählen.