• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

News Alan Wake 2: Nvidias Benchmarks vs. erste Eindrücke der Redaktion

Also wenn der vRam ausgeht gibts schöne matschtexturen.


Da werden sich wieder einige freuen^^


Soll wohl aber sogar noch auf low gut aussehen,leider kann man sich vom tot kompriemirungsYoutube da kein Bild mache.
 
  • Gefällt mir
Reaktionen: Czk666, Apocalypse und Mcr-King
.Sentinel. schrieb:
Muss man deswegen alle anderen ausbremsen, die die Entwicklung gutheissen?
Dass sagt keiner nur ohne massive Kohle von Epic und Nvidia wäre dass nicht möglich und da liegt dass Problem dass Game wird nicht Profitabel sein, trotz Geldflüsse von NV und Epic Da bin ich mir sehr sicher da die USER Basis sehr klein ist auf dem PC die es wirklich zocken können und bei der Konsole naja dort ist es ausserhalb drr Xbox sehr unbekannt.
Ergänzung ()

Blood011 schrieb:
Also wenn der vRam ausgeht gibts schöne matschtexturen.


Da werden sich wieder einige freuen^^


Soll wohl aber sogar noch auf low gut aussehen,leider kann man sich vom tot kompriemirungsYoutube da kein Bild mache.
Gut dass NVIDIA soviel VRAM verbaut abseits der RTX4080. 😉
 
Natürlich nicht,aber es gibt ja auch viele spiele die den vRam anscheinend "vollstopfen" aber den garnicht nutzen am Ende,und deshalb kein matsch gibt,wollte damit nur sagen das es AW2 auch wirklich nutzt...

Mal etwas weiter denken und nicht wieder ein für blöde hinstellen.
 
Mcr-King schrieb:
Da bin ich mir sehr sicher da die USER Basis sehr klein ist auf dem PC die es wirklich zocken können
In PS5-Settings läuft es auf einer RTX 3070 50% schneller als auf der PS5! Dann wird man es auch auf einer RTX 3060 "wirklich zocken" können. RTX 3060 und besser sind über ein Viertel der Steam-Systeme... das sind zigmillionen Spiele-PCs.

Mcr-King schrieb:
und bei der Konsole naja dort ist es ausserhalb drr Xbox sehr unbekannt.
Alan Wake 1 Remastered wurde im Juli über 40 Millionen PS+ Abonnenten gegeben, sowohl die PS4-Version als auch die PS5-Version:
https://www.buffed.de/PlayStation-P...ld-War-Endling-Extinction-is-Forever-1423259/

Warum sollte es da abseits der Xbox "sehr unbekannt" sein?

Was du dir aus den Fingern saugst, nur um einem Misserfolg zu prophezeien!

Hinzu kommen natürlich noch die Spitzenbewertungen, die für ordentlich Mundpropaganda sorgen werden:

1698354675379.png
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Schattenspender, Apocalypse und .Sentinel.
Nickel schrieb:
Also auf Raytracing kann ich schon mal getrost verzichten.
Bei mir ist es genau andersherum. Nach über 20 Jahren habe ich die Nase voll von Rasterisierungstricks und Screenspace-Artefakten. Moderne Rasterization ist ja im Prinzip auch nur schlecht approximiertes Raytracing, aber mit Screenspace-Artefakten und schlechterer temporaler Stabilität. Rasterisierung ist für mich nur noch ein Immersionskiller.
 
  • Gefällt mir
Reaktionen: Schattenspender, Fallout667, lordtofu und 3 andere
@Atnam
DLSS 1 war ein Upscaler, welcher auf einem neuronalen Netz basierte.
Bei DLSS 2 ist der Ansatz rausgeflogen. Das ist technisch gesehen kein Upscaling, sondern temporäres Supersampling welches die Tensor Kerne nutzt um mehr Pixel mit in die Berechnung einbeziehen zu können.

Supersampling Verfahren wie DLSS, DLAA oder MSAA berechnen auf Basis von vorher berechneten Pixel Rastern die größer sind als die Ausgabeauflösung das ausgegebene Bild.

Upscaler arbeiten hingegen mit weniger Pixeln als Input und spucken mehr Pixel als Output aus.
 
Nolag schrieb:
Bei mir ist es genau andersherum. Nach über 20 Jahren habe ich die Nase voll von Rasterisierungstricks und Screenspace-Artefakten.
Hast du denn vor Raytracing bei jedem Spiel dagesessen und dich am technischen Stand der reinen Rasterization-Grafik und deren Näherungsverfahren gestört? Oder sind dir die Schwächen von Rasterization jetzt erst als störend bewusst geworden, nachdem du den Vergleich mit RT hast?

Gäbe es bis heute kein Echtzeit-RT oder gar Pathtracing in Spielen, wären dir die Schwächen vermutlich gar nicht bewusst negativ aufgefallen bzw. wäre es eben Stand der Technik.
 
Würdest du heute noch Fußball (bzw. Sportereignisse Allgemein) oder Streaming (Filme/Serien) in SD statt HD gucken? ;)

Letzteres kannte man "früher" auch kaum bis gar nicht und es war ganz normal, alles in SD zu gucken. Aber heute kann man sich das auch nicht mehr geben, weil der Unterschied halt eklatant ist.
 
Linmoum schrieb:
oder Streaming (Filme/Serien) in SD statt HD gucken? ;)
Nur das man HD fähige "Hardware" (Moni,tv)heute hinterhergeworfen bekommt.

Wieviel Jahre eiert RT jetzt rum unter einer 4080/90?

Und besser wirds nun nicht statt dessen kommt schon das nächste was alles gnadenlos auffrisst.
 
Twisterstift schrieb:
Das falsch zitieren scheint hier gang und gebe zu sein um ggf. eigene Inhalte unterzuschieben. Das passiert @MrHeisenberg auch des öfteren.
Triggert dich echt hart, dass du diesen Grafikknüller nicht spielen kannst und dein mimimi den meisten am Poppes vorbeigeht :smokin:
 
  • Gefällt mir
Reaktionen: Fallout667, NerdmitHerz, Roach13 und eine weitere Person
Trelor schrieb:
Supersampling Verfahren wie DLSS, DLAA oder MSAA berechnen auf Basis von vorher berechneten Pixel Rastern die größer sind als die Ausgabeauflösung das ausgegebene Bild.
Ich dachte bei dlss wird das Spiel in einer geringeren Auflösung gerendert als die Ausgabeauflösung und dann mit Hilfe von supersampling hochskaliert.
Und genau das ist doch bei dlaa nicht der Fall oder?
 
  • Gefällt mir
Reaktionen: iron_monkey
Wenn das Spiel gut ist dann dreht eben RT ab und vielleicht eine Qualistufe runter.

Man muss nicht alle Regler auf Anschlag haben.
Ergänzung ()

Trelor schrieb:
@Atnam
DLSS 1 war ein Upscaler, welcher auf einem neuronalen Netz basierte.
Bei DLSS 2 ist der Ansatz rausgeflogen. Das ist technisch gesehen kein Upscaling, sondern temporäres Supersampling welches die Tensor Kerne nutzt um mehr Pixel mit in die Berechnung einbeziehen zu können.

Supersampling Verfahren wie DLSS, DLAA oder MSAA berechnen auf Basis von vorher berechneten Pixel Rastern die größer sind als die Ausgabeauflösung das ausgegebene Bild.

Upscaler arbeiten hingegen mit weniger Pixeln als Input und spucken mehr Pixel als Output aus.
Falsch.
 
  • Gefällt mir
Reaktionen: lordtofu
Blood011 schrieb:
Nur das man HD fähige "Hardware" (Moni,tv)heute hinterhergeworfen bekommt.
Und inwiefern ist das relevant? Es ging ja nur explizit um den (visuellen) Unterschied Raster vs. RTRT und nicht, was man für eine GPU ausgeben muss, um es schon heute in UHD "flüssig" spielen zu können. ;)

In FHD geht das heute sogar mit einer 4060Ti inkl. DLSS relativ angenehm für das, was man geboten bekommt.
 
  • Gefällt mir
Reaktionen: Sirhaubinger
 
  • Gefällt mir
Reaktionen: JohnWickzer
Atnam schrieb:
Ich dachte bei dlss wird das Spiel in einer geringeren Auflösung gerendert als die Ausgabeauflösung und dann mit Hilfe von supersampling hochskaliert.
Initial wird gar kein fertiges Bild gerendert.
Die Geometrie wird ganz normal für die Zielauflösung wie in klassischer Rasterberechnung berechnet.
Ansonsten werden bei DLSS ersteinmal keine Pixel im eigentlichen Pixelraster berechnet, sondern zufällig im Zielbereich gestreut. Dabei ist der Zielbereich immer ein wenig größer als das FOV. Die Zahl dieser zufällig gestreuten Bildpunkte (Subpixel) entspricht dann der einer Auflösung, wenn diese in einem Raster angeordnet wären.

Die Bildgeometrie und die Bewegungsvektoren werden dann genutzt um die Pixel aus vorherigen Durchläufen an die richtigen Stellen an den Objekten zu ziehen. Jetzt hat man unglaublich viele Pixel (je nach Einstellungen reden wir da über ein 8K + Äquivalent an Pixeln), allerdings passen die alle nicht ins Raster der Zielauflösung. Der Alghoritmus legt dann das Raster der Ausgabeauflösung drüber und mittelt dann die Farb und Helligkeitswerte aller Subpixel, welche sich in dem zu füllenden Pixel befinden.

Bei DLAA passiert genau das Gleiche. Nur eben mit noch mehr Subpixeln über die dann drüber gemittelt wird.
Ein natives Bild hat man auch da im klassischen Sinne nie, da das Render FOV größer ist und die Subpixel zufällig verteilt sind.
 
  • Gefällt mir
Reaktionen: JohnWickzer und Atnam
Mcr-King schrieb:
Da bin ich mir sehr sicher da die USER Basis sehr klein ist auf dem PC die es wirklich zocken können
Und genau deshalb ist es nur eine Frage der Zeit, bis es auf Steam kommt ;)
 
  • Gefällt mir
Reaktionen: Beatmaster A.C., Mcr-King und Blood011
Mcr-King schrieb:
sicher da die USER Basis sehr klein ist auf dem PC die es wirklich zocken können und bei der Konsole naja dort ist es ausserhalb drr Xbox sehr unbekannt.
Dazu noch das sich teil 1 und es remake auch schlecht vk haben,bei 2 kommen halt noch die enormen anforderungen dazu.

Aber wenns auf low/mid wirklich noch sogut aussieht wie manch einer sagt,und da liefern auch schwache Karten noch gut was ab,dann kann das eventuell nochwas retten.

Aber die meisten spiele sacken soweit ab zwischen hoch und low/mid das se nicht mehr ansehnlich sind,vorallem bei den UE5 Games wo es ja schon das ein oder andere gibt ist das so.

Mal abwarten wenns hochaufgelöste vergleichbilder gibt die nicht geschönt sind.
 
Apocalypse schrieb:
Hmmm. Und welche Spiele mit Path Tracing hast du bisher gespielt, nur so aus neugierde. Also aktuelle und nicht RTX Quake?
Ohne Raytracing schafft die 3080 ja auch in Alan Wake 2 ganz bequem die 60fps in 1440p. Und natürlich ist die 3080 eine alte Karte und nimmer High-End, besonders bei Raytracing nachdem Nvidia ja bei Raytracing nochmal ordentlich drauf gelegt hatte.

Läuft doch eigentlich super, wenn 60FPS für WQHD ohne RT noch gehen.
Ich meinte natürlich ohne ray sieht zwar schön aus aber bei vielen games nicht machbar. Zb Cyberpunk. Da hatte ich dann halt nur 40-50 fps und was du mit path tracing meints ka. Ich kenne mich damit nicht aus. Wenn Games auf hoch-ultra mit 60+ FPS laufen bin ich happy. Auch mit einer uralten RTX3080...
Ergänzung ()

yamiimax schrieb:
Ist so gut wie die 4070 also noch super
Naja die 4070 ist glaube ein ticken besser. Alleine der Strom verbrauch ist nicht so hard wie bei einer RTX3080 suprime. Konnte letztes Jahr halt nicht mehr warten. Meine GTX1070 ti hat selbst in minecraft mit Stader und 2 k gekämpft. Abgesehen davon bin ich aber mit der RTX3080 zufrieden. Schön Karte.
 
Zuletzt bearbeitet:
Zurück
Oben