Mit welcher DLSS-Renderauflösung denn? Und evtl. auch mit Frame Generation?JohnDeclara schrieb:Hm... also Kino, RT auf Ultra und DLSS an bei 3440x1440 im Durchschnitt 105FPS.
Ich bekomme in 4K, DLAA und vollen Details 24 FPS mit der 4090. Denke schon, dass sich das ganz gut als Grafikbenchmark eignet. Die einzigen mir bekannten Spiele, die ähnlich fordernd sind, sind Alan Wake 2 und Cyberpunk, jeweils mit Pathtracing, sowie Avatar mit Unoptanium-Settings.JohnDeclara schrieb:Ich seh da irgendwie nicht, warum das Spiel gehyped wird als neuer Grafikbenchmark.
Wer ist hierdurch benachteiligt? Sehe da eigentlich nur große Vorteile. So hat jeder eine Einschätzung wie gut das Spiel auf dem eigenen PC mit den gewünschten Settings laufen wird, ohne sich auf häufig unzureichende Systemanforderungen zu verlassen. Ich würde mir sogar wünschen, dass es sowas für jedes Spiel gibt. Noch besser wäre natürlich eine spielbare Demo inkl. Benchmark, wie früher.JohnDeclara schrieb:Im Allgemeinen finde ich es nicht unbedingt vorteilhaft, wenn sich Entwickler damit beschäftigen BenchmarkTools rauszubringen nur um das Spiel noch weiter zu pushen.
Würde ich denke ich erst sagen können wenn ich es gespielt hätte.JohnDeclara schrieb:Sicherlich sieht es absolut fantastisch aus, aber ansonsten interessiert es mich spielerisch tatsächlich so gar nicht, egal wie es nun aussieht.
Ist bei mir auch so. Da ist also noch Luft nach oben was die Performance angeht. Wird leider wie immer nicht mehr genutzt werden. Mit OC geht sie bei mir dann allerdings doch noch auf 440-450W. Mache das ganz gerne so. Spiele die ordentlich auf große Chips optimiert sind, ziehen 450W bei moderatem Takt, während bei Spielen, die Stock 250-400W verbrauchen, bei OC der Takt so weit steigt, dass die 450W ebenfalls erreicht werden.JohnDeclara schrieb:Zudem ist mir mir aufgefallen, dass die Auslastung der Graka offensichtlich nicht ganz optimiert ist. Mehr wie 400Watt will er einfach nicht von ihr haben.
Zuletzt bearbeitet: