• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

Test Until Dawn im Test: Benchmarks mit 22 Grafik­kar­ten von Nvidia, AMD und Intel

Wolfgang schrieb:
Ich habe nochmal nachgeguckt, die Screenshots sind so korrekt beschriftet.
Dann sieht das Lumen meines Erachtens was die Plastizität und die Verschattung der Bücher betrifft besser aus.
Gut, mag vielleicht auf den zweiten Blick grobkörnig und übertrieben sein, dennoch wenn das so stimmt was du da sagst, dann kann ich HW RT hinsichtlich der Umgebungsverdeckung abschalten und auf die teils doppelten Schatten verzichten.

Muss ich mir nachher genauer inGame anschauen, richtig Bock auf das Game.
 
  • Gefällt mir
Reaktionen: 9t3ndo
Könnt ihr statt FHD/QHD/4K mit DLSS/FSR einfach in 720p 900p 1080p und 1440p nativ testen? Dann kann man das viel besser einschätzen.
 
  • Gefällt mir
Reaktionen: 9t3ndo
usb2_2 schrieb:
Könnt ihr statt FHD/QHD/4K mit DLSS/FSR einfach in 720p 900p 1080p und 1440p nativ testen?
Dann fehlt der Overhead durch die Algorithmen, was willst du denn damit dann einschätzen?

1440p nativ wird besser laufen als 4K mit DLSS Quality, aber deutlich schlechter aussehen
 
firstmad schrieb:
Das Spiel ist von 2015 😉
Dafür ist der Preis von 2024... und anscheinend auch bei der PS4/PS5 kein Upgrade-Pfad für bereits vorhandene Versionen.
 
  • Gefällt mir
Reaktionen: Crank_Sir
Neko/Arc schrieb:
Weil nativ 2024 keinen Sinn mehr macht, wie oft soll man es denn noch erklären? Das ist diesselbe Diskussion wie in jedem Test Thread...
Für wen genau sprichst du denn? Wenn so ein optisch lausiges Spiel nicht perfekt nativ mit einer 1500€ GPU läuft dann wird der Müll ignoriert. Die Tatsache dass Entwickler mit solch einer armseligen Entwicklung bei einigen Hohlbroten erfolgreich sind ist doch schlicht ein Armutszeugnis jeglicher technischen Entwicklung/Fortschritt.
 
  • Gefällt mir
Reaktionen: Zaphi und Gigaherz
Captain Mumpitz schrieb:
Weit suchen musst du nicht.
Wobei es hierbei ja vor allem um Flimmern sowie Kanten generell geht. Das könnte man ja auch bei nativer Auflösung, ohne Skalierung, nutzen. Leider wird aber auch in der höchsten Stufe (Quality) immer skaliert.

Als jemand, der viel mit Wissenschaft zu tun hat, macht mich diese Praktik einfach verrückt. Für mich gehört zu jedem ordentlichen Test IMMER die native Version dazu, ganz egal was besser aussieht. Als Baseline gehört sowas zum Standardvorgehen. Zusätzliche Faktoren, Maßnahmen etc. dürfen sehr gerne gestestet werden, aber eben niemals ohne Kontrollkonfiguration. Das ist allein deshalb schon sinnvoll, weil die verschiedenen Techniken (DLSS, FSR, XeSS usw.) nicht alle gleich bei der Performance skalieren.
 
  • Gefällt mir
Reaktionen: Houdini_13, DeZomB, Lakinator und 2 andere
Do Berek schrieb:
Wolllte grad ein Zitat zu dem Thema schreiben, bei mir sind die Einstellungsoptionen für Text plötzlich ausgegraut, wieso?
Im Editor hast du oben rechts die BBCode-Anzeige aktiviert (die eckigen Klammern [ ]). Klick da drauf und der WYSIWYG-Modus wird wieder reaktiviert.
 
  • Gefällt mir
Reaktionen: Do Berek
Taxxor schrieb:
was willst du denn damit dann einschätzen
Wie gut es in 1080p und1440p wirklich aussieht und läuft. Das kann man so mit DLSS nunmal nicht.
 
  • Gefällt mir
Reaktionen: Lakinator
Als das Spiel für die PS4 herauskam und ich nach der PS3 zum Spielen auf den PC gewechselt bin. Habe ich mir ein Let’s Play dazu angesehen, weil es so toll sein sollte und ich mir keine weitere Konsole mehr kaufen wollte. Die Idee fand ich damals originell und das Siel auch spannend, mal was Neues eben. Aber mit dem Verfolgen des Let’s Play stellte sich auch eine Ermüdung ein. Die Szenen sind aneinander aufgereiht und je nach Actionen oder Entscheidungen, die man trifft, stirbt (oder auch nicht) eine andere Spielfigur. Für eine PS4 sah das ganze recht gut aus, ist aber nicht mein Genre.

Wie seht ihr das, lohnt es sich doch mal über den „Tellerrand“ zu schauen oder nicht? Ich habe es ehrlich gesagt nicht mehr ganz in Erinnerung, aber die Charaktere kommen mir noch bekannt vor, also einige zumindest.
 
usb2_2 schrieb:
Wie gut es in 1080p und1440p wirklich aussieht und läuft. Das kann man so mit DLSS nunmal nicht.
Wie gut es in 1440p aussieht kannst du ja im Video sehen.
Und ich würde mich wundern, wenn jemand nach dem Vergleich noch daran interessiert wäre, wie gut es so läuft weil er vorhat es so zu spielen
 
  • Gefällt mir
Reaktionen: ElliotAlderson
Taxxor schrieb:
Ca 330% zoom, ohne Zoom sieht man die Strähnen links halt überhaupt nicht mehr
Macht ja auch Sinn. Auf die Entfernung würde ich im RL auch keine Strähnen erkennen.

Aber eins bleibt bei den ganzen Benchmarks festzuhalten:
Eine RTX 4060 TI ist genauso schnell wie eine RTX 4090 bei gleichen Grafikdetails-Einstellungen und Auflösung.
Kommt nur darauf an ob du bei der RTX 4060 TI DLSS und FG aktivierst oder nicht.

Das macht halt die Benchmarks so irrelevant und nur nice to have, weil du dir die Karten so schnell einstellen kannst wie du willst ohne überhaupt Grafikdetails zu verändern.
Hat für mich die selbe Aussagekraft, wie CPUs bei 4k zu benchen. Du hast einfach keine einheitliche Grundlage.

AMD und nVidia sind so schon nicht mehr vergleichbar, weil DLSS und FSR objektiv nicht das selbe Ergebnis liefern.
Wenn dann müsstest du alle Karten ausschließlich mit FSR benchen und DLSS aus dem Vergleich raus lassen und nur im Nebensatz erwähnen, das es existiert.

Einfach nativ 1440p mit testen und gut ist.

Speziell bei diesem Test, wird angemerkt, das die AMD Karten ungewöhnlich langsam (1080p) sind. Eventuell ist FSR einfach schlecht implementiert? Eventuell bringt FSR über alle Auflösungen hinweg eigentlich nur +20% Leistung und man bräuchte den Upscaler vllt. gar nicht und man könnte auf Supersampling setzen oder nVidia underperformed dafür ohne DLSS extrem in Until Dawn?
Wir werden es nie erfahren, weil wir keinen Vergleich haben.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Houdini_13, Gigaherz und Lakinator
Captain Mumpitz schrieb:
Die Ausgangsfrage war, wieso 2024 nativ keinen Sinn mehr macht.
Deine Antwort beantwortet die ja Frage nicht. Dass CB aufgrund Ressourcenmangel sich entschieden hat nativ komplett zu ignorieren ist ja eine Sache. Und weil Spiel X TAA schlecht implementiert, ist das auch kein Argument gegen nativ.
Quidproquo77 schrieb:
Na klar wurde es das, schon 100te male immer wieder.
DLSS und FSR arbeiten mit den Informationen von X-Bildern die hintereinander folgen und somit ist die Farbbestimmung eines Pixels auch in einer geringeren Auflösung genauer als in einer höheren ohne FSR/DLSS.
Insofern bei DLSS gilt für mich quasi immer. DLSSQ > Nativ, manchmal auch DLSS Balanced und seltener DLSS Performance. Niemand der versteht was DLSS tut verzichtet heute noch darauf.
Dein Kommentar ist halt aus der Technikblase heraus, out of touch. Setz dich einfach mal real vor einen 24" 1080p Display und aktiviere upsampling. Einfach nein.
 
9t3ndo schrieb:
Aber eins bleibt bei den ganzen Benchmarks festzuhalten:
Eine RTX 4060 TI ist genauso schnell wie eine RTX 4090 bei gleichen Grafikdetails-Einstellungen und Auflösung.
Kommt nur darauf an ob du bei der RTX 4060 TI DLSS und FG aktivierst oder nicht.

Das macht halt die Benchmarks so irrelevant und nur nice to have, weil du dir die Karten so schnell einstellen kannst wie du willst ohne überhaupt Grafikdetails zu verändern.
Hat für mich die selbe Aussagekraft, wie CPUs bei 4k zu benchen. Du hast einfach keine einheitliche Grundlage.
Natürlich hast du eine einheitliche Grundlage, du testest die 4090 doch ebenso mit DLSS wie die 4060Ti.

Und du änderst im Grunde auch grafikdetails wenn du die Renderauflösung veränderst, einfach weil manche Details dann gar nicht mehr sichtbar sind.

Wenn du die 4060Ti auf DLSS Performance stellst wird’s vielleicht ähnlich schnell laufen, aber halt schlechter aussehen als die 4090 mit DLSS Quality
 
Zuletzt bearbeitet:
9t3ndo schrieb:
Aber eins bleibt bei den ganzen Benchmarks festzuhalten:
Eine RTX 4060 TI ist genauso schnell wie eine RTX 4090 bei gleichen Grafikdetails-Einstellungen und Auflösung.
Kommt nur darauf an ob du bei der RTX 4060 TI DLSS und FG aktivierst oder nicht.
Quatsch mit Soße!

Die GPUs werden doch bei bei gleichen Grafikdetails-Einstellungen (maximale Einstellungen, FramGeneration = "aus") und bei gleicher Render-Auflösung getestet. "DLSS Quality UHD" = 2560x1440 Renderauflösung, "FSR Quality UHD" = 2560x1440 Renderauflösung.
 
Ein nativer Test als Baseline macht gerade im Vergleich viel mehr Sinn finde ich. Dass man mit DLSS halt mehr FPS bekommt ist ja klar, bietet aber durch Quality/Balanced etc. Settings zu viel variabilität.

Und wie soll bitte 4k mit DLSS besser aussehen als native? Bei DLSS muss die Grafikkarte mehr oder weniger raten anstatt halt "hart" die Pixel einzufärben anhand der normalen Rasterisierung. Gerade bei Bewegung sieht man das verwischen sehr.
 
  • Gefällt mir
Reaktionen: Houdini_13, Fyrex und 9t3ndo
BloodGod schrieb:
Kommt noch Silent Hill 2? @Wolfgang
Ja - morgen! :)
Moep89 schrieb:
Als jemand, der viel mit Wissenschaft zu tun hat, macht mich diese Praktik einfach verrückt. Für mich gehört zu jedem ordentlichen Test IMMER die native Version dazu, ganz egal was besser aussieht. Als Baseline gehört sowas zum Standardvorgehen. Zusätzliche Faktoren, Maßnahmen etc. dürfen sehr gerne gestestet werden, aber eben niemals ohne Kontrollkonfiguration. Das ist allein deshalb schon sinnvoll, weil die verschiedenen Techniken (DLSS, FSR, XeSS usw.) nicht alle gleich bei der Performance skalieren.
Das mag für dich zwar störend sein, aber das hier sind nunmal keine wissenschaftlichen Arbeiten. Dann würde es wahrscheinlich auch pro Monat einen Benchmark-Test geben und das wäre es :D

Eine Baseline ist zweifelsohne für verschiedene Dinge Interessant (alleine um zu schauen, wie viel Rechenzeit so Algorithmen brauchen), das ist aber schlicht nicht mehr als eine Bonus-Info, die man schlussendlich weder dazu braucht, um Grafikkarten zu testen, noch um Spiele-Benchmarks zu erstellen.
9t3ndo schrieb:
Das macht halt die Benchmarks so irrelevant und nur nice to have, weil du dir die Karten so schnell einstellen kannst wie du willst ohne überhaupt Grafikdetails zu verändern.
Hat für mich die selbe Aussagekraft, wie CPUs bei 4k zu benchen. Du hast einfach keine einheitliche Grundlage.
Wenn ich alle Grafikkarten mit denselben Einnstellungen teste hat man eine einheitliche, realitätsnahe Grundlage. Die Auflösung, die Detailstufe oder der Upsampling-Algorithmus spielt da keine Rolle.
schM0ggi schrieb:
Dein Kommentar ist halt aus der Technikblase heraus, out of touch. Setz dich einfach mal real vor einen 24" 1080p Display und aktiviere upsampling. Einfach nein.
Kommt immer ganz auf das Spiel an. In Final Fantasy willst du nicht vor nativem TAA auf einem 24 Zoller sitzen. Es ist halt vom TAA abhängig. Full HD mit gutem TAA kann (!) besser aussehen als Full HD auch mit DLSS Quality. Aber da braucht es halt gutes TAA für. Und das gibt es längst nicht immer (hier in Until Dawn auch nicht).

Generell stimme ich mit dir überein, dass es in Full HD sinnvoller ist, zusätzlich zur nativen Auflösung noch DLSS/FSR, also DLAA oder FSR Native drüber laufen zu lassen. Dazu muss man dann aber die Grafikkarte haben, die denke ich viele Full-HD-Spieler für moderne Spiele einfach nicht haben.

Und wie soll bitte 4k mit DLSS besser aussehen als native? Bei DLSS muss die Grafikkarte mehr oder weniger raten anstatt halt "hart" die Pixel einzufärben anhand der normalen Rasterisierung. Gerade bei Bewegung sieht man das verwischen sehr.
Eben nicht!
DLSS, FSR und co. sind kein raten! Das war DLSS 1. Ab DLSS 2 wird absolut nichts mehr geraten. Es wird grob gesagt analysiert wie sich Pixel in vorherigen Frames bewegt haben und daraus werden dann Informationen für einen aktuellen Frame berechnet. Man hat also gar deutlich mehr Informationen zur Verfügung als mit der nativen Auflösung. Die Krux ist nur, die Informationen korrekt in einem Frame zusammen zu fügen. Da ist DLSS der große Gewinner aktuell gegenüber dem Rest.
 
  • Gefällt mir
Reaktionen: ComputerJunge, Vitche, Celinna und 5 andere
Cohen schrieb:
Quatsch mit Soße!

Die GPUs werden doch bei bei gleichen Grafikdetails-Einstellungen (maximale Einstellungen, FramGeneration = "aus") und bei gleicher Render-Auflösung getestet. "DLSS Quality UHD" = 2560x1440 Renderauflösung, "FSR Quality UHD" = 2560x1440 Renderauflösung.
Joa und dann aktivier ich FG und habe einen genauso langen Balken wie die 4090 bei selber Bildqualität.
Und FSR und DLSS ist nicht vergleichbar. Anderer Overhead und andere Bildqualität. Da es hier um einen Benchmark geht, müssten zwangsläufig alle Karten ausschließlich mit FSR gebenched werden um eine gewisse Vergleichbarkeit herzustellen.
Deswegen sind die Benches hier mittlerweile Recht Sinnlos.

Ich freue mich schon auf die Spiele, die wie Until Dawn aussehen aber nur noch mit FG + FSR/DLSS Performance bei 1440p gerade so 60 FPS schaffen mit einer RTX 5080 und sich die Entwickler stolz auf die Schulter klopfen.
 
Lakinator schrieb:
Und wie soll bitte 4k mit DLSS besser aussehen als native? Bei DLSS muss die Grafikkarte mehr oder weniger raten anstatt halt "hart" die Pixel einzufärben anhand der normalen Rasterisierung. Gerade bei Bewegung sieht man das verwischen sehr.
Da wird nicht geraten. Bspw. enthalten sechs 1080p Bilder mehr Informationen als ein 4K Bild und das machen sich FSR und DLSS zu nutze.

Was glaubst du denn wie es dazu kommt, dass DLSS Details hervorhebt, die du selbst in 4K nicht siehst?
 
9t3ndo schrieb:
Joa und dann aktivier ich FG und habe einen genauso langen Balken wie die 4090 bei selber Bildqualität.
Und dann aktivierst du FG bei der 4090?
Ergänzung ()

9t3ndo schrieb:
Da es hier um einen Benchmark geht, müssten zwangsläufig alle Karten ausschließlich mit FSR gebenched werden um eine gewisse Vergleichbarkeit herzustellen
Es geht hier darum was man in dem Spiel erwarten kann.
Was bringen da FSR Benches auf NVIDIA Karten(oder native Benches), wenn die Nutzer sowieso DLSS nutzen werden?
 
Zurück
Oben