• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

Test Until Dawn im Test: Benchmarks mit 22 Grafikkarten von Nvidia, AMD und Intel

Hab es damals auf der Playstation gespielt und es war genial. Für den aktuellen Preis von 70€ kommt mir das Spiel sowieso nicht her. Ich warte bis es den Key bei MMOGA für nen 10er gibt, bis dahin sind auch die Bugs behoben.
 
Und wann bekommen wir mal wieder ein top programmiertes Game, was nativ in UHD läuft und ohne diesen ganzen KI-Schrott wie FSR, DLSS, …?
40 FPS mit einer 4090 … so what?!?

Gestern Silent Hill 2 Remake installiert … gleiches Trauerbild: 30 FPS in der Stadt mit einer 4090 … nativ auf UHD
 
BlackByte1 schrieb:
Leute, habt ihe euch eigentlich mal die Animationen der Charactere angesehn?, die wirken wie von 2010.
Wir sind in 2024!, das Game hat bei mir nicht mal einen einmal A Titel.
Es wurden hier beim Remake die originalen Animationsdaten verwendet. Das ist der Grund dafür.
 
Hi, habe jetzt bis her einmal mitgelesen. Ich hätte noch eine Anmerkung zu dieser "Native/DLSS,FSR"-Debatte.
[Ich weiß auch, dass sich mein Post für das Aquarium qualifiziert, aber mich würden doch gerne die Meinungen anderer dazu interessieren.]

Grundgedanke der CPU und GPU-Test ist ja, den "worst-case" der Komponenten zu simulieren.
Deswegen testet man die CPU im CPU-Limit und nimmt der GPU durch eine möglichst kleine Auflösung/Detailgrad aus der Gleichung. So sieht man die potenziellen Leistungsunterschiede der einzelnen CPUs.
Testete man alle im GPU-Limit (was vermutlich realitätsnäher wäre), würden vermutlich alle CPUs bei 4K/Ultra näherungsweise gleich performen.

[Anm.: Wobei es für den realen Gebrauch durchaus hilfreich wäre, diese CPUs auch im GPU-Limit zu testen um zu sehen, ob ein Neukauf einer CPU überhaupt sinnvoll ist. Oder, welche GPU welche CPU ausbremsen würde, etc.]

Demgegenüber nimmt man bei GPU-Tests am Besten die stärkste CPU (um ein CPU-Limit zu verhindern) und testet idealerweise im GPU-Limit (maximale Auflösung, maximale Details). Nun hat sich hier natürlich eine Unterscheidung für die jeweils gängigsten Auflösung eingebürgert.
Die GPU-Tests waren vor RT, DLSS, FSR, etcpp. grundsätzlich einfach: Auflösung einstellen, Details auf Max/Ultra, vorgefertigten und immer gleichen Benchmark (zwecks Vergleichbarkeit) im Spiel durchlaufen lassen. Ergebnisse direkt vergleichbar.
Das war größtenteils GPU-Herstellerunabhängig.

Heutzutage kommen die aktuellen Upscaler und Framegens ins Spiel.
Die grundsätzliche herstellerunabhängige Vergleichbarkeit erreicht man nur, wenn man auf gleicher Basis mit "gleichen" Einstellungen testet. Danach kann man noch die Unterschiede zwischen den einzelnen Herstellertechnologien testen.
Zudem laufen die Benchmarks mit aktivierten Upscaler dem Gedanken der maximalen Auslastung m.M.n. zuwider. Ebenso könnte man die Benchmarks unter Nativ in niedrigen Detaileinstellungen laufen lassen.
Deswegen sind m.M.n. die GPU-Benchmarks in Nativ für die Einordnung der Leistung immer noch unerlässlich.
Danach können "spielbare" Settings unter FSR/DLSS erfolgen, idealerweise zuerst unter gleichem gemeinsamen Nenner, danach evtl. noch die Leistungsunterschiede zwischen FSR/DLSS.

Mir persönlich helfen die Benchmarks mit Upscaler für die Einschätzung der Leisungspotenziale der Grafikkarten nicht so recht weiter, zumindest nicht bei einer Kaufberatung.

Upscaler sind sinnvoll für: höhere Energieeffizienz beim Spielen, mehr FPS auf Kosten der Latenz oder Optik, ggf. hübscherers, flackerfreies Bild, Raytracing. Aber mit unter stehen sie auf einer Stufe mit den ordinären Bild-/Detaileinstellungen, wenn es um Benchmarks geht.

Deswegen wäre die absolute Grundlage eines jeden Spiele- und Grafikkartentests die native Einstellung ohne Upscaler.

Das ist jetzt mal meine Meinung als Diskussionsgrundlage.


Zum Spiel: Den Inhalt kenne ich über ein LP, dass hat schon gut gewirkt. Die Grafik war damals echt hübsch, vor allem die Gesichter. Das sieht bei den aktuellen Bildern des Remakes nicht mehr so gut aus.
 
  • Gefällt mir
Reaktionen: Lakinator
speedy55 schrieb:
Und wann bekommen wir mal wieder ein top programmiertes Game, was nativ in UHD läuft und ohne diesen ganzen KI-Schrott wie FSR, DLSS, …?
40 FPS mit einer 4090 … so what?!?
Bekommst du schon die ganze Zeit, musst nur die Settings reduzieren, dann hast du auch die Optik die wir ohne diesen ganzen Schrott wie FSR und DLSS halt aktuell als höchste Settings hätten.
 
  • Gefällt mir
Reaktionen: Quidproquo77
Also diesmal spare ich mir auch das antesten auf dem PC, es läuft ja durch die Bank weg grotte. Da geb ich es mir mal eher auf der PS5 im Plus oder Sale wenn es gefixt wurde.

Bei Silent Hill 2 ist dagegen anscheinend so ein CP 2077 Fall. Das lief bei meinem Nachnarn definitiv absolut bescheiden, bei mir lief es wesentlich besser, Until Dawn Remake scheint mir das Erbe eines TLOU Part 1 anzutreten.


snickers303 schrieb:
Also einfach mal so 70 Euro gezahlt, um es dann zurück zu geben?
Dafür ist das Refundsystem ja da, damit man sich selber ein Bild machen kann. Es ist ja nicht so das man die 70€ nicht wieder bekommt. Bei Steam geht das ruckzuck.
Doof ist halt wenn man um zu sparen beim Reseller kauft, aber da sind es ja keine 70€.
 
  • Gefällt mir
Reaktionen: Captain Mumpitz
Was ist sonst DLSS? 😂
Uh … Sorry: es ist AI! 😂

Wo ist der Fehler: 70€ für ein Game; FSR, DLSS und Co zuschalten, dass halbwegs gescheite Frames rauskommen.
Einstellungen runterschrauben, um nativ zocken zu können.

Ähm ja … wie wärs mal mit OPTIMIERUNG!
Wird sowas heute überhaupt noch unterrichtet?
 
TheHille schrieb:
Zudem laufen die Benchmarks mit aktivierten Upscaler dem Gedanken der maximalen Auslastung m.M.n. zuwider.
Eben nicht. DLSS nutzt zum Teil die Tensor Cores fürs Upscaling. Das kostet ja auch Leistung und ist nicht kostenlos, gehört also zur maximalen Auslastung dazu.

TheHille schrieb:
Ebenso könnte man die Benchmarks unter Nativ in niedrigen Detaileinstellungen laufen lassen.
Könnte man, aber wieso? Das hat man nie gemacht. Es wurde immer mit max. Settings getestet, außer die waren so anspruchsvoll, dass es sinnfrei ist.
Niedrige Settings sorgen dafür, dass die CPU zum Limit wird. Du weißt also nicht, was deine Karte im Stande ist zu leisten.

TheHille schrieb:
Deswegen sind m.M.n. die GPU-Benchmarks in Nativ für die Einordnung der Leistung immer noch unerlässlich.
Von welcher Einordnung sprechen wir? Ich spiele nur noch mit Upscaler, wenn verfügbar. Wird nur nativ getestet, weiß ich nicht, was ich am Ende rausbekomme.

TheHille schrieb:
Danach können "spielbare" Settings unter FSR/DLSS erfolgen, idealerweise zuerst unter gleichem gemeinsamen Nenner, danach evtl. noch die Leistungsunterschiede zwischen FSR/DLSS.
Das ist zusätzlicher Aufwand. Laut Jan/Wolfgang ist denen das zu viel.

TheHille schrieb:
Mir persönlich helfen die Benchmarks mit Upscaler für die Einschätzung der Leisungspotenziale der Grafikkarten nicht so recht weiter, zumindest nicht bei einer Kaufberatung.
Wieso nicht? Willst du nicht mit Upscaler spielen? Ich meine, was bringt es dir, wenn da in 4K ne 4090 bei 30 FPS steht (nativ) und du mittels DLSS sogar eine bessere Bildqualität erreichst. Dann hast du zwar den nativen Wert, aber so spielt keiner, außer eben Unbelehrbare.

TheHille schrieb:
Upscaler sind sinnvoll für: höhere Energieeffizienz beim Spielen, mehr FPS auf Kosten der Latenz oder Optik, ggf. hübscherers, flackerfreies Bild, Raytracing.
Upscaler verschlechtern die Latenz nicht und auch FG (Nv) tut es nicht unbedingt. Du hast nur einen Disconnect von Latenz und FPS (höhere FPS bei gleichwertiger Latenz zu nativ). Durch DLSS und FSR wird die Optik auch nicht unbedingt schlechter. Nicht selten ist sie sogar besser, aber anders.

TheHille schrieb:
Deswegen wäre die absolute Grundlage eines jeden Spiele- und Grafikkartentests die native Einstellung ohne Upscaler.
Das war Status Quo bevor es Upscaler gab. Die Zeiten ändern sich eben.

Frage an alle Upscaler Kritik:
Was ich nicht verstehe ist, wieso so auf nativ gepocht wird, selbst wenn man die Vergleichbarkeit mal außenvor lässt. Für mich bedeutet nativ auch kein AA und das heißt ausgefranste/pixelige Treppchen an sämtlichen Kanten, wenn man nicht gerade in 4K zockt. Das ist doch nicht schön? So sah die Grafik damals schon auf dem Gameboy aus, weil die PPI und Auflösung der Displays so niedrig war, dass man die Pixel zählen konnte.

Selbst sämtliche Betriebssysteme glätten standardmäßig die Kanten von sämtlichen Schriften. Die sind auch nicht scharf, sondern weichgezeichnet. Da stört sich auch niemand dran. Das Gegenteil ist sogar der Fall.
 
Zuletzt bearbeitet:
TheHille schrieb:
Zudem laufen die Benchmarks mit aktivierten Upscaler dem Gedanken der maximalen Auslastung m.M.n. zuwider. Ebenso könnte man die Benchmarks unter Nativ in niedrigen Detaileinstellungen laufen lassen.
Auflösung reduzieren hat nicht den gleichen Effekt auf die GPU Auslastung, wie andere Grafikeinstellungen zu verändern, zumal die DLSS und FSR Algorithmen auch noch ihrerseits Last auf die GPU legen.
Und wenn ein Spiel auf 40FPS bei 100% GPU Auslastung kommt und dann mit DLSS auf 60FPS mit weiterhin 100% GPU Auslastung kommt, sehe ich da kein Problem.

Zumal es hier auch um Spieletests geht. Hier gehts nicht darum, wie gut die GPUs unter maximaler Auslastung sind, dafür gibts die separaten GPU Tests inkl Rankings.
Hier geht es darum, wie gut das Spiel in sinnvollen Settings läuft.
Ergänzung ()

speedy55 schrieb:
Was ist sonst DLSS? 😂
Uh … Sorry: es ist AI! 😂
Nein es ist kein AI. Der Algorithmus, mit dem DLSS arbeitet, wurde mit AI erstellt und verbessert, aber es laufen keine AI Aktionen auf deinem Rechner bzw deiner GPU, während du DLSS nutzt.
 
  • Gefällt mir
Reaktionen: ElliotAlderson
Bitte einen Hardware-Test zu Silent Hill 2.
Würde, glaube ich, mehrere Leute interessieren.
 
speedy55 schrieb:
Ähm ja … wie wärs mal mit OPTIMIERUNG!
Wird sowas heute überhaupt noch unterrichtet?
Wird es, die höchsten Grafiksettings kamen halt noch on Top, weil man sie dank DLSS/FSR nutzen kann.

Die Einstellungen, auf die du runterschraubst, sind diejenigen, die das Spiel ansonsten als Max Settings hätte, wenn das Spiel darauf optimiert worden wäre, kein Upsampling zu unterstützen.
 
  • Gefällt mir
Reaktionen: ElliotAlderson
Sly123 schrieb:
Bitte einen Hardware-Test zu Silent Hill 2.
Würde, glaube ich, mehrere Leute interessieren.
Da ist Wolfgang doch schon dabei.
 
  • Gefällt mir
Reaktionen: ElliotAlderson und A.Xander
@Sly123 da steht auch schonmal ein Ersteindruck zu SH 2
Wolfgang schrieb:
Silent Hill 2 dagegen ist...mal ehrlich, das ist eine Katastrophe. Das ist schlimmer als Star Wars Jedi Survivor zum Launch. Das ist einfach nur übel.
 
ElliotAlderson schrieb:
Eben nicht. DLSS nutzt zum Teil die Tensor Cores fürs Upscaling. Das kostet ja auch Leistung und ist nicht kostenlos, gehört also zur maximalen Auslastung dazu.
Ich würde davon ausgehen, dass die Karte unter nativ "maximaler" ausgelastet werden kann, als mit Upscaler.
ElliotAlderson schrieb:
Könnte man, aber wieso? Das hat man nie gemacht. Es wurde immer mit max. Settings getestet, außer die waren so anspruchsvoll, dass es sinnfrei ist.
Niedrige Settings sorgen dafür, dass die CPU zum Limit wird. Du weißt also nicht, was deine Karte im Stande ist zu leisten.
Hatte ich in meinem Originalpost ja dargelegt. Kurz gesagt ist FSR/DLSS = Detailsreduktion (Im Sinne der Leistung, nicht der Bildqualität) FSR/DLSS hilft einem, ein unspielbares Spiel spielbar zu machen. Das kann ich theoretisch auch mit Reduktion der Auflösung/Detailgrad erreichen. Nur mit FSR/DLSS habe ich keinen (großen) Verlust bei der Bildqualität.

ElliotAlderson schrieb:
Von welcher Einordnung sprechen wir? Ich spiele nur noch mit Upscaler, wenn verfügbar. Wird nur nativ getestet, weiß ich nicht, was ich am Ende rausbekomme.
Andersrum wird ein Schuh daraus. Nur bei Nativ weiß ich, wie sich die entsprechenden Karten im Verhältnis zueinander verhalten. Und du weißt, dass wenn deine Karte 60 FPS (oder deine gewünschte Ziel-FPS) erreicht, du kein FSR/DLSS brauchst. Anmachen kannst du sie dann ja trotzdem noch.
ElliotAlderson schrieb:
Das ist zusätzlicher Aufwand. Laut Jan/Wolfgang ist denen das zu viel.
Das ist schade, aber OK.
ElliotAlderson schrieb:
Wieso nicht? Willst du nicht mit Upscaler spielen? Ich meine, was bringt es dir, wenn da in 4K ne 4090 bei 30 FPS steht (nativ) und du mittels DLSS sogar eine bessere Bildqualität erreichst. Dann hast du zwar den nativen Wert, aber so spielt keiner, außer eben Unbelehrbare.
Das ist bei mir historisch gewachsen. Vor 20 Jahren gab es das nicht. War die GPU zu langsam, musste sie ersetzt werden. Heute kann FSR/DLSS die Lebensdauer einer GPU verlängern.
Mein Problem an den Techniken ist der inflationäre Gebrauch bzw. wird bei der Spieleentwicklung m.M.n. nicht mehr so optimiert, dass es unter Nativ läuft, sondern sich auf die Upscaler verlassen.
Eine Technologie, die es einem eigentlich ermöglichen soll unspielbare Spiele spielbar zu machen, wird nun zur neuen Messlatte. Jetzt bräuchten wir nur noch eine Technologie, die unspielbare FSR/DLSS-Spiele wieder spielbar macht. Verstehst du, was ich meine?
ElliotAlderson schrieb:
Das war Status Quo bevor es Upscaler gab. Die Zeiten ändern sich eben.

Frage an alle Upscaler Kritik:
Was ich nicht verstehe ist, wieso so auf nativ gepocht wird, selbst wenn man die Vergleichbarkeit mal außenvor lässt. Für mich bedeutet nativ auch kein AA und das heißt ausgefranste/pixelige Treppchen an sämtlichen Kanten, wenn man nicht gerade in 4K zockt. Das ist doch nicht schön? So sah die Grafik damals schon auf dem Gameboy aus, weil die PPI und Auflösung der Displays so niedrig war, dass man die Pixel zählen konnte.

Selbst sämtliche Betriebssysteme glätten standardmäßig die Kanten von sämtlichen Schriften. Die sind auch nicht scharf, sondern weichgezeichnet. Da stört sich auch niemand dran. Das Gegenteil ist sogar der Fall.
Der neue Status-Quo basiert auf einer "Behelfslösung". Das ist meine Kritik. Aber diese Kritik geht nicht Richtung AMD/nVidia, sondern eher Richtung Spieleentwickler/Engine-Hersteller...

Ansonsten gehst du von der Optik aus. Das ist vollkommen OK, Aber ein Leistungsbenchmark geht von der Leistung aus. Ich möchte wissen: Schafft meine GPU das Spiel X unter Auflösung Y mit Detailgrade Z. Wenn nicht, ggf. mit Upscaler, ansonsten Neukauf.


Taxxor schrieb:
Auflösung reduzieren hat nicht den gleichen Effekt auf die GPU Auslastung, wie andere Grafikeinstellungen zu verändern, zumal die DLSS und FSR Algorithmen auch noch ihrerseits Last auf die GPU legen.
Und wenn ein Spiel auf 40FPS bei 100% GPU Auslastung kommt und dann mit DLSS auf 60FPS mit weiterhin 100% GPU Auslastung kommt, sehe ich da kein Problem.
Ja OK, trotzdem wäre der erste Fall über alle Hersteller besser vergleichbar. Bei letzterem Beispiel weiss ich ja nicht, wie sich eine Karte mit FSR einordnet.
Taxxor schrieb:
Zumal es hier auch um Spieletests geht. Hier gehts nicht darum, wie gut die GPUs unter maximaler Auslastung sind, dafür gibts die separaten GPU Tests inkl Rankings.
Hier geht es darum, wie gut das Spiel in sinnvollen Settings läuft.
Ergänzung ()
Das sehe ich ein.
 
  • Gefällt mir
Reaktionen: Lakinator
TheHille schrieb:
Ich würde davon ausgehen, dass die Karte unter nativ "maximaler" ausgelastet werden kann, als mit Upscaler.
Ja und nein. Wenn eine Karte nativ gerade so ausgelastet wird, sorgen Upscaler natürlich dafür, dass sie es nicht mehr wird.
Das ist bei den Tests aber nicht der Fall, weil Spiele mit Upscaler meistens so anspruchsvoll sind, dass du sie sowieso immer brauchst. Damit relativiert sich das ganze.

TheHille schrieb:
Das kann ich theoretisch auch mit Reduktion der Auflösung/Detailgrad erreichen. Nur mit FSR/DLSS habe ich keinen (großen) Verlust bei der Bildqualität.
Genau das ist ja der Punkt. Mehr Leistung bei gleichwertiger/besserer Bildqualität. Warum soll ich die Bildqualität runterdrehen, nur um nativ nutzen zu können, wenn ich Upscaler nutzen kann? Mal aus Sicht des Users, welcher jetzt vor dem Spiel sitzt und spielen möchte.

Wir wollen doch alle die höchst mögliche Bildqualität bei hohen Bildraten.

TheHille schrieb:
Andersrum wird ein Schuh daraus. Nur bei Nativ weiß ich, wie sich die entsprechenden Karten im Verhältnis zueinander verhalten. Und du weißt, dass wenn deine Karte 60 FPS (oder deine gewünschte Ziel-FPS) erreicht, du kein FSR/DLSS brauchst. Anmachen kannst du sie dann ja trotzdem noch.
Das weiß ich auch so, weil sämtliche Karten Upscaler unterstützen bzw. bieten.
Wenn ich nativ 60 FPS erreiche, wie viel erreiche ich dann mit DLSS? Ersteres interessiert mich nicht, weil ich ohne Upscaler nicht spiele. Grund dafür ist, dass Nativ TAA bedeutet und TAA ist selten besser als DLSS.

TheHille schrieb:
Mein Problem an den Techniken ist der inflationäre Gebrauch bzw. wird bei der Spieleentwicklung m.M.n. nicht mehr so optimiert, dass es unter Nativ läuft, sondern sich auf die Upscaler verlassen.
Frage: Wenn es Upscaler nicht geben würde, glaubst du die Spiele wären heute auf dem gleichen grafischen Niveau mit gleicher FPS nativ, wie sie DLSS bietet?
Ich kann dir versichern, dass dem nicht so wäre. Es gab früher schon Spiele die nicht optimiert waren/wurden und die gibt es heute auch. Ob es heute mehr sind, ist möglich, aber das liegt nicht unbedingt an Upscalern. Und ich bezweifle, dass man das als Laie mit bloßem Augen am Gameplay erkennen kann. Klar gibt es offensichtliche Beispiele wie Cities Skyline 2, aber im Alan Wake 2 Thread gab es ein paar Helden, die behaupteten, dass Assassins Creed 3 besser aussieht.
Bspw. kann ein höherer Polygoncount schon mehr Last erzeugen. Wie willst du die Polygone von Spiel A und B miteinander mit bloßem Augen vergleichen? Kannst du nicht.

TheHille schrieb:
Eine Technologie, die es einem eigentlich ermöglichen soll unspielbare Spiele spielbar zu machen, wird nun zur neuen Messlatte.
Das ist ja nur ein Aspekt. Sie sollen ja gleichzeitig die Bildqualität verbessern und das ist das, was wir alle wollen, oder etwa nicht?

TheHille schrieb:
Jetzt bräuchten wir nur noch eine Technologie, die unspielbare FSR/DLSS-Spiele wieder spielbar macht. Verstehst du, was ich meine?
Welches Spiel ist denn unspielbar mit Upscaler?

TheHille schrieb:
Der neue Status-Quo basiert auf einer "Behelfslösung". Das ist meine Kritik. Aber diese Kritik geht nicht Richtung AMD/nVidia, sondern eher Richtung Spieleentwickler/Engine-Hersteller...
Die Frage ist, ob die Kritik berechtigt ist. Deine Annahme und die vieler anderen ist ja, dass aufgrund der Upscaler weniger optimiert wird als früher. Beweise dafür gibt es aber keine.
Und auch in einem Leistungsbenchmark ist die Optik ein Faktor, der eine wesentliche Rolle spielt, denn du willst die Leistung bei entsprechender Optik wissen, also Auflösung und Detailgrad.

Wie dem auch sei ist das hier aber auch kein Leistungsbenchmark, wie @Taxxor ja schon richtigerweise erwähnte.
 
Zuletzt bearbeitet:
Hallo @ElliotAlderson,

danke dir für deine Ausführungen. Ich verstehe deine Sicht und werde einmal bei meinen Spielen DLSS aktiveren um zu sehen, ob mir da noch ein Unterschied auffallen würde. Bisher habe ich es nur aktiviert, wenn ich es leistungsmäßig benötigt habe. An eine pro-forma-Aktivierung habe ich bisher nicht gedacht.

Bzgl. der Thematik mit der Bildqualität:

Grundsätzlich war es in den Benchmarks vor den Upscalern ja auch so, dass man bei maximaler Bildqualität getestet hat. Das war früher aber auch gleichbedeutend mit Auslastung.

Heute ist das mit den Upscalern ein bisschen verwaschener. Eine 4090 und eine 4060 bieten theoretisch die gleiche Bildqualität, aber eben nicht die gleiche FPS.

Früher war das über alle Hersteller gut vergleichbar. Heute ist es durch die Diversität der Technologien nicht mehr. Habe ich jetzt mit einer RX7900XTX und FSR ein genauso schönes Bild wie mit einer RTX4090 mit DLSS oder nicht?
Das lässt sich nicht mit einem Balkendiagramm darstellen.
Deswegen wäre "nativ" der kleinste gemeinsame Nenner der Vergleichbarkeit.

Noch eine Kleinigkeit: Die Technologien ändern sich ja auch mit der Zeit, teilweise sind sie auch "politischer Natur. DLSS FG z.B. nicht mehr für RTX3000 verfügbar zu machen (obwohl es technisch möglich wäre), stößt mir sauer auf. Die Rohleistung der GPU bleibt aber und ist nur abhängig von den Treibern.
Das ist auch mit ein Grund, warum ich lieber die "native" Leistung beurteilen würde, die kann sich nicht so extrem verändern. "Software-Features" wie die Upscaling-Technologien eben schon.
 
  • Gefällt mir
Reaktionen: ElliotAlderson
TheHille schrieb:
Hallo @ElliotAlderson,

danke dir für deine Ausführungen. Ich verstehe deine Sicht und werde einmal bei meinen Spielen DLSS aktiveren um zu sehen, ob mir da noch ein Unterschied auffallen würde.
Teste das an mehreren Spielen. Es gibt, wie gesagt, gute und nicht so gute Implementierungen. Upscaler sind nicht perfekt, aber werden immer besser und sind nicht selten besser als nativ, aber eben auch nicht immer.

Ich würde dir auch raten nicht unter 1080p zu gehen, also bei einer Auflösung von 1080p eher mit DLAA oder DLDSR zu arbeiten und erst ab WQHD mit DLSS-Q.
Denn 1080p mit Upscaler ist nicht mehr ganz so toll, dass muss selbst ich als DLSS Fan zugeben.

TheHille schrieb:
Noch eine Kleinigkeit: Die Technologien ändern sich ja auch mit der Zeit, teilweise sind sie auch "politischer Natur. DLSS FG z.B. nicht mehr für RTX3000 verfügbar zu machen (obwohl es technisch möglich wäre), stößt mir sauer auf.
Das ist schwierig. Grundsätzliche wäre eine FG Lösung für andere Karten möglich, ja, aber scheinbar nicht mit Nvidias Ansatz. Nvidia setzt auf Optical Flow Accelerator, welche unterhalb der 4000er Karten zu langsam seien sollen. Ob das stimmt, wissen wir nicht.
Jetzt könnte man sagen, dass das alles nur Kundenverarsche ist, weil AMD es ja scheinbar konnte. Aber ich bin da vorsichtig, weil es viele Wege gibt etwas zu implementieren. Wenn Nvidias Weg die OFA benötigt, ist das so. Warum man sich für den Weg entschieden hat, kann man nur mutmaßen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: TheHille
@sucuk_mit_eii was willst du wissen?
Das Spiel ist 9 Jahre alt, es gibt Tonnen an Reviews und Letsplays dazu.

Es ist ein reiner interaktiver Film mit ein paar Entscheidungen (über Leben und Tod) sowie QTEs. Das ist alles.
 
Zurück
Oben