• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

Test Lego: Horizon Adventures im Test: Aloy als Minifigur ist super schön, sehr charmant und fordernd

frames p. joule schrieb:
Man kann es ja nutzen, man sollte nur nicht damit benchen. Weil die Angabe der Auflösung dann einfach keinen Sinn mehr ergibt. Es gibt einen Unterschied zwischen optimised settings und Benchmarks. Das wirbelt CB-Wolfgang leider seit einiger Zeit durcheinander.

Welchen Wert hätten denn benchmarks in nativer Auflösung? Welche Erkenntnis ziehst du daraus?

Das grundlegende Problem ist, dass gerade mit Features wie Lumen und Nanite die native Auflösung besonders in 4K so unfassbar viel mehr Performance frisst, dass man daraus praktisch keine Rückschlüsse auf die zu erwartende performance treffen kann, die man mit Upsampling bekommen würde (was ja die meisten hier auch nutzen würden, weil es meist besser als TAA aussieht) Selbst die Abstände zwischen den karten können sich in so einem Szenario extrem verschieben. Häufig kann alleine Quality Upsampling in 4K schon die performance verdoppeln, wenn ein Spiel mit RT und anderen fordernden Features in die Vollen geht.

Nvidia Karten wären in einem Spiel mit Hardware Raytracing in nativen 4K z.B. noch viel weiter vor den AMD karten, weil die RT Last eben 1:1 an der Auflösung hängt und somit extrem ansteigt. Irgendwann limitieren auch so Sachen wie die Speicherbandbreite.

Solche Games mit "bleeding edge" Technik in nativer Auflösung zu testen, verzerrt das Bild extrem und hat nichtmal annähernd mehr irgendwas mit der Praxis zu tun. Die Werte sind für niemanden für irgend was zu gebrauchen.

Solche Tests kann man für ein GPU Ranking bzw. synthetische benchmarks wählen, wenn man die GPUs maximal quälen will und die praxis keine Rolle spielt. Aber um das Spiel zu testen und den Lesern zu vermitteln, wie ein Spiel läuft, sind solche Benchmarks mit nativer Auflösung mittlerweile völlig unbrauchbar.

Was hab ich davon, wenn da jetzt steht: 4K, 4080, schafft 30 FPS.
Und in Wahrheit spiele ich dann mit 120 FPS. Mal übertrieben ausgedrückt.

Solche Benchmarks würde ich mir einmal ansehen und dann nie wieder.

Ich finde Quality Upsampling ohne Frame Generation ist schon der beste Mittelweg den man hier gehen kann. Damit lässt sich die Performance ganz gut abschätzen und es ist sichergestellt, dass FSR, XeSS und DLSS es mit nativer Auflösung aufnehmen können oder meist sogar besser aussehen.

Außerdem darf man nicht vergessen, dass Upscaling je nach Spiel mal einen kleinen, mal aber auch einen sehr großen "overhead" mitbringt. Heißt 4K mit DLSS Quality (1440p interne Renderauflösung) kann in manchen Spielen deutlich langsamer laufen, als 1440p nativ. Vor allem weil auch manche Effekte, insbesondere Postprocessing oft in nativer Auflösung stattfindet und performance kostet. Daher ist es schon sinnvoll, so zu testen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: cruse und Vitche
Aslo schrieb:
Lol lächerlich. Das ist ein Kinderspiel (auch wenn ich keinen Erwachsenen verurteile, der sowas spielt) und die haben eher was im Bereich 1060 oder RX 570 im Rechner...so ein Spiel muss auch auf älteren/schwächeren Rechnern vernünftig laufen.
Passt doch zur aktuellen Zielgruppe von Lego und deren Preisen: Erwachsene.
Zeigt doch auch die Antwort des Testers auf deinen Kommentar.
Bin ganz bei dir. Hauptzielgruppe sollten die Jüngeren sein und natürlich hat man auch als Erwachsener Spaß daran (, aber in einer Welt in der erwachsene Leute, den Kindern/Jugendlichen das Spielzeug wegkaufen, um es dann teurer zu verkaufen, wundert mich gar nichts mehr).
Dass das Spiel so performt ist in meinen Augen lächerlich (dabei rede ich nicht mal von 4K, sondern auch von den geringeren Auflösungen).
 
  • Gefällt mir
Reaktionen: Cookie4u
Zwirbelkatz schrieb:
gabs auch mal Titel, die man mit einer Karte zu 600€ in UHD flüssig spielen konnte
Gibts immer noch. Damals gabs genauso Titel, die selbst auf einer 3090Ti strauchelten. Was ist der Sinn, dass du da jetzt ein einziges Indie Spiel rausgepickt hast und daran dein Argument aufbaust?
 
Apocalypse schrieb:
Tadellos mit 30 FPS und passenden Settings.
Wahrscheinlich eher wie viele andere Switch Spiele: 20 - 30 FPS, also ruckelig ;)
Und ja, ich habe selbst eine Switch.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Apocalypse
frames p. joule schrieb:
Es gibt einen Unterschied zwischen optimised settings und Benchmarks. Das wirbelt CB-Wolfgang leider seit einiger Zeit durcheinander.
währen dir Standard mässige Grafik presets die das spiel vor gibt lieber? Dann würdest du dich wundern welcher upscaling faktor dann vorgegeben wird. Denn diese gehören mittlerweile zu den presets dazu.
 
  • Gefällt mir
Reaktionen: ElliotAlderson und Apocalypse
Mimir schrieb:
Was hab ich davon, wenn da jetzt steht: 4K, 4080, schafft 30 FPS.
Und in Wahrheit spiele ich dann mit 120 FPS. Mal übertrieben ausgedrückt.
Naja, momentan steht da 4K, aber in Wahrheit spielt man in Full HD? Genau das kritisiere ich. Offensichtlich wird gar nicht in 4K getestet. Es gibt genug Leute die in 4K / 30 spielen.
Ich verlange nur mehr Vergleichbarkeit und weniger Vorannahmen der Art "so spielt das ja sowieso niemand". Darum geht's halt nicht.
 
  • Gefällt mir
Reaktionen: LadyAlice
frames p. joule schrieb:
Man kann es ja nutzen, man sollte nur nicht damit benchen. Weil die Angabe der Auflösung dann einfach keinen Sinn mehr ergibt. Es gibt einen Unterschied zwischen optimised settings und Benchmarks. Das wirbelt CB-Wolfgang leider seit einiger Zeit durcheinander.
Man kann doch in vielen Fällen gar nicht mehr DLSS ausmachen, wobei natürlich die Render-Auflösung trotzdem 4k sein könnte und imho bei 4k auch sein sollte.
 
frames p. joule schrieb:
Naja, momentan steht da 4K, aber in Wahrheit spielt man in Full HD?

du würdest aber mit FHD native etwas mehr fps haben als mit 4k70%. dafür sieht 4k70% aber viel besser aus als FHD native auf 4k.
 
frames p. joule schrieb:
Naja, momentan steht da 4K, aber in Wahrheit spielt man in Full HD? Genau das kritisiere ich. Offensichtlich wird gar nicht in 4K getestet. Es gibt genug Leute die in 4K / 30 spielen.
Ich verlange nur mehr Vergleichbarkeit und weniger Vorannahmen der Art "so spielt das ja sowieso niemand". Darum geht's halt nicht.

Nein, man spielt nicht in Full HD.

Full HD ist die interne Renderauflösung des Spiels. Das ausgegebene Bild ist das Produkt aus unzähligen Samples die DLSS aus mehreren Frames generiert. Das Ergebnis hat rein gar nichts mit dem Bild zu tun, das du auf einem Full HD Display sehen würdest.

Und ob Upscaling genutzt wird und welche Frameraten gewünscht sind, hat Computerbase schon mehrfach mit Umfragen evaluiert. Leute die in 4K mit 30 FPS spielen sind völlig irrelevant. So spielt praktisch "niemand".


Übrigens habe ich gerade gesehen, dass DLSS Quality in diesem Spiel die Framerate tatsächlich verdoppelt gegenüber nativer Auflösung. Mit 4K nativ kannst du also die Frameraten im Benchmark nochmal halbieren. Also 32 FPS mit einer 4090.

Native Auflösungen sind tot. Aber sowas von... Selbst der Unterschied zwischen DLSS Quality und DLAA ist so minimal. Das sieht du nichtmal wenn du mit der Nase am 4K Display klebst. Komplette Verschwendung sowas zu fordern. Alleine der Schärfegewinn in bewegung durch die doppelte Framerate ist so enorm, dass es das ganze nur noch lächerlicher macht.
 
Zuletzt bearbeitet:
Ihr versteht meinen Punkt nicht. Nochmal, es geht nicht darum, wie gespielt wird. Es geht darum, die Performance des Spiels mit unterschiedlicher Hardware und gegenüber anderen Spielen darzustellen, und Vergleichbarkeit auch gegenüber anderen Tests/Benchmarks herzustellen.

Es spielt auch keiner in 720p, nur weil in dieser Auflösung CPUs getestet werden.
 
frames p. joule schrieb:
und Vergleichbarkeit auch gegenüber anderen Tests/Benchmarks herzustellen.

von anderen spielen oder meinst du tests von anderen redaktionen zum gleichen spiel. Pcgh hat das spiel auch mit Tsr70% getestet,

Und andere spiele haben andere Einstellungen. Es ist ziemlich egal wie die grafikkarte in dem spiel performen oder mit welchen einstellungen getestet, denn an der Reihenfolge der Gpus untereinder Ändert das eigentlich nix und stellt die vergleichbarkeit zu andere spielen her. Und zeigt somit die Leistung.
Ergänzung ()

frames p. joule schrieb:
Es spielt auch keiner in 720p, nur weil in dieser Auflösung CPUs getestet werden.

Du verwechselst hier etwas, das hier ist ein test wie das Spiel performt. Da kannst du ruhig auch eine einstellung nehmen damit die fps nicht ganz im keller sind. Es ist kein reiner GPU test.
Diesen bekommst du nur wenn neue GPUs erscheinen, und diese haben ihren eigenen Testparcour.
 
  • Gefällt mir
Reaktionen: Vitche
@ElliotAlderson Ok, stell dir mal einen folgenden Technik Test vor, der dann verschiedene Auflösungen beleuchten soll und wie sich die Karten dort je nach Auflösung verhalten.

In 1080p wird dann mit DLAA getested. In QHD mit DLSS Quality Mode und in 4k dann mit DLSS Performance.
Und wie Informativ war der Test dann am Ende?
 
Apocalypse schrieb:
Und wie Informativ war der Test dann am Ende?
Du argumentierst damit über ein Szenario, das bei einem Spieletest gar nicht gegeben ist. Hier geht es darum, herauszustellen, wie ein Spiel technisch aufgestellt ist und was Spieler mit ihrer Hardware bei aus der Perspektive eines Computergrafik-Enthusiasten sinnvollen Einstellungen erwarten können. Es geht hier nicht darum, Grafikkarten zu testen. Grafikkarten sind hier nicht die abhängige Variable.

Und egal aus welchen Gründen manch ein User nichts mit der Gegenwart und noch weniger mit der Zukunft der Computergrafik zu tun haben will, es ist längst Standard, dass temporale Algorithmen und Upsampling fester Bestandteil moderner Spiele sind. Wenn die allermeisten Spieler mit einer GeForce RTX unterwegs sind und davon wiederum die allermeisten Spieler DLSS einschalten, weil sie auf diesem Weg eine bessere Bildqualität und mehr FPS erreichen als mit der "nativen" Berechnung und mit TAA, dann wäre es alles andere als informativ, wenn Wolfgang für die Tests absichtlich Qualität und Leistung verschlechtern würde. Und in diesem Fall hier wird auch noch eine gute TSR-Implementierung geboten, selbst Radeon-Spieler müssen also nicht blöd aus der Wäsche schauen. Freut euch doch einfach, dass derart tolle Grafik mit fotorealistischer Raytracing-Beleuchtung, wie man sie noch vor einigen Jahren höchsten in Filmen erwartet hätte, heutzutage dank modernem Upsampling als Echtzeitanwendung möglich ist, selbst auf 2 Jahre alten Grafikkarten.

Um meinem Kommentar noch ein wenig polemische Würze zu geben, heutzutage geht ja nichts mehr ohne: Die Vergleichbarkeit leidet beim aktuellen Testkonzept tatsächlich, ja. Aber nur, weil man Radeons in vielen Spielen mit FSR Quality gegen gegen GeForce-Modelle mit DLSS Balanced antreten lassen müsste, um die Leistung bei ähnlicher Bildqualität zu testen. Am besten normieren wir das ganze dann auch noch stets auf eine fixe Leistungsaufnahme, lol.
 
  • Gefällt mir
Reaktionen: ElliotAlderson, cruse und frames p. joule
Polemik hin oder her. Es ist leider die Wahrheit. Es ist sogar noch schlimmer. Seitdem FSR mit Version 3.1 deutlich unschärfer geworden ist und Nvidia mit dem neuen DLSS Model „E“ mit Version 3.7 die Qualität nochmal ordentlich gesteigert hat, reicht in 4K sogar DLSS Performance locker aus, um FSR Quality zu schlagen.

Aber gut, so gesehen ist natürlich Kritik an Upscaling berechtigt, da die Vergleichbarkeit nicht gegeben ist. Praktisch ändert das aber trotzdem nichts daran, dass man mit DLSS bessere Qualität bei gleicher Performance oder bessere Performance bei gleicher Qualität bekommt.

In Zeiten wo Upscaling standardmäßig eingepreist wird und Pflicht ist, hat dieser Umstand nur umso mehr gewicht. DLSS und FSR sind längst keine „nice to have“ features mehr um mal RT auszuprobieren oder ein paar FPS dazu zu gewinnen. Der Performancegewinn ist mittlerweile essenziell um spielbare Bildraten zu erreichen und die Bildqualität die damit erreicht wird ist eben die Bildqualität mit der man in Zukunft die meisten Spiele spielen wird. Und wenn das die Gegebenheiten sind, dann ist mMn. das beste gerade gut genug (schon rein aus Prinzip)
 
  • Gefällt mir
Reaktionen: cruse
Checkt mal bitte das Frame Pacing mit aktiviertem FG. Im Witcher 3 und in TLOF1 ist FG quasi nicht nutzbar, weil es nur noch Mikroruckler gibt.
 
frames p. joule schrieb:
Naja, momentan steht da 4K, aber in Wahrheit spielt man in Full HD? Genau das kritisiere ich. Offensichtlich wird gar nicht in 4K getestet.
Wieso hängst du dich an der internen Auflösung auf? Wenn das Spiel ab 70% eben ein Bild produziert, das von nativ quasi nicht zu unterscheiden ist, wäre der Spieler doch dumm, das nicht zu verwenden.

Du willst krampfhaft Benchmarks mit Einstellungen, die heute einfach keinen Sinn mehr machen.

Heulst du noch mehr rum, wenn wir - hypothetisch - in ein paar Jahren Upscaler haben, die quasi-native Bildqualität auch schon ab 20% Auflösung schaffen? Du verballerst auf Teufel komm raus lieber ein Vielfaches an Leistung für schlechtere Performance bei gleicher Bildqualität, einfach nur damit da "100% Auflösung" steht?

Die Bildqualität der Ausgabe muss stimmen. Wie die Technologie darunter da hin kommt, soll doch dem Spieler völlig egal sein.
Ergänzung ()

frames p. joule schrieb:
verlange nur mehr Vergleichbarkeit
Vergleichbarkeit von was? Unterschiedlichen Spielen zueinander? Wofür? Da ist doch weit mehr verschieden als nur die Upscaler Auflösung.

Und wieso sollen dann theoretische Werte gleich sein statt dass du den Vergleich an optischer (!) Ähnlichkeit verankerst?
Ergänzung ()

Apocalypse schrieb:
Und wie Informativ war der Test dann am Ende?
Ziemlich, wenn dabei die Bildqualität mit der Erwartung übereinstimmt. Das ist doch der eigentlich wichtige Punkt. (Aus dem selben Grund argumentieren die Leute doch auch gegen Ultra Presets, die keinen optischen Unterschied mehr machen)

Ist doch toll, wenn aktuelle Techniken es erlauben, den Detailgrad und die Bildschärfe von 4K zu erreichen, ohne alle Pixel nativ in jedem Frame berechnen zu müssen.

Dann zeigt mir der Test ganz gut, dass höhere Bildqualität nicht mehr so hammerhart steil skaliert wie früher.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: cruse und ElliotAlderson
Mimir schrieb:
Native Auflösungen sind tot. Aber sowas von... Selbst der Unterschied zwischen DLSS Quality und DLAA ist so minimal. Das sieht du nichtmal wenn du mit der Nase am 4K Display klebst. Komplette Verschwendung sowas zu fordern. Alleine der Schärfegewinn in bewegung durch die doppelte Framerate ist so enorm, dass es das ganze nur noch lächerlicher macht.
Nein. Ich spiele nach wie vor Nativ, bzw DLAA für die Kantenglättung. Wenn dus nicht nutzt okay, aber Verallgemeinerungen helfen niemanden weiter.
Früher war es üblich das in Benchmarks Frames unter 30 oder sogar unter 20 stehen. Heute wird einfach der upscaler so verwendet das die Ergebnisse passen.
Ich hoffe das zumindest mit RTX 50xx erstmal auch wieder DLAA mit reingenommen wird.
 
Ich finde Benchmarks mit DLSS und FSR weiterhin 💩

Und da die Medien- und Testlandschaft es einfach als gegeben hinnimmt, anstatt zu schauen ob es wirklich gerechtfertigt ist, bleibt alles so wie es ist und wir erhalten immer bescheidener optimierte Spiele. Nvidia und die Aktionäre freut es. Die Industrie hat überhaupt keine Beweggründe mehr zu optimieren weil die Games, ja "gar nicht so schlecht" sind. Ein Spiel mit Klötzchengrafik was nur 70% Renderauflösung auf einer ~2000€ Karte schafft, müsste mMn deutlich abgewertet werden. Aber richtige Kritik kommt da gefühlt nicht mehr, sonst wäre der Testkey für das nächste "Meisterwerk" vermutlich nicht mehr sicher... 😮‍💨

Es waren echt krasse Zeiten als ein neuer Legotitel rausgekommen ist und man ihn gefühlt auf einem Toaster spielen konnte, denn die Grafik war idR nie der Grund die Spiele zu spielen. 🤷‍♂️
 
  • Gefällt mir
Reaktionen: bluna
Zurück
Oben