News Wie spielt ihr eure Spiele?: Grafikeinstellungen, Presets, Bildausgabe und Peripherie

W0dan schrieb:
Das ist kein Mangel an Windows, sondern generell etwas, worauf man bei HDR Darstellung in Spielen achten soll. Sobald der Monitor oder TV Tonemapping macht sind alle Einstellungen im Spiel oder System sowieso völlig Sinnlos, weil das Display irgendwas macht, was es gerade lustig findet....
Ich erweise MS hier einen Bärendienst, aber das ist etwas, dass sie aus meiner Sicht fixen sollten bzw. gar müssen. Wenn man "der Standard" sein will, der alle abholt, dann darf man solche Probleme imo nicht an den Nutzer weitergeben. Wir reden von Microsoft, die haben genug Ressourcen um Dinge sauber umzusetzen bzw. eigene Standards zu erschaffen und notfalls zu diktieren.

W0dan schrieb:
Dass man HDR Systemseitig kalibrieren muss ist auf Konsolen und Windows so und davon ist Linux nicht ausgeschlossen. Wobei man bei Linux vielleicht mal anfangen sollte überhaupt erst HDR in Spielen zu unterstützen, dann können wir weiter reden.
Nicht falsch verstehen; Ich werde hier nicht für Linux predigen, vor allem nicht nach der Tortur 4K@60Hz auf meinem zweiten Monitor in Ubuntu überhaupt lauffähig zu machen.

Und ist es tatsächlich so, dass man Konsolen auf HDR-Bildschirme kalibrieren muss? Ich hab keine aktuelle Gen, daher ehrlicherweise auch keinen Plan.

W0dan schrieb:
Und ja, dass es bei Windows noch nicht sauber funktioniert, also die Kalibrierungsapp beim zweiten Mal ausführen das Profil vom ersten Mal ausführen nutzt (weil es systemweit appliziert wird) und dadurch die Kalibrierung bei jeder Ausführung weiter abdriftet ist natürlich maximal bescheuert.
W0dan schrieb:
Aber tatsache ist auch, dass einmal ausführen auch reichen muss, da es eben nur richtig oder falsch gibt. Einmal richtig eingestellt funktioniert ja alles sauber....
Man kann halt keine Bugs damit wegrationalisieren, dass wenn der User einen Pfad nicht nimmt, der Bug auch nicht auftritt. :p
Ich weiß was du meinst, aber vom Ding her trotzdem ein No-Go.

W0dan schrieb:
Nein, das ist einfach falsch. Das trifft für die allermeisten Grafikeffekte und Einstellungen zu, aber HDR nimmt man auch nach mehreren Stunden noch sehr bewusst wahr, weil gewisse Elemente sich durch die höhere Leuchtkraft sehr deutlich vom Bild abheben und für eine unglaublich hohe Dynamik sorgen, die sehr deutlich auffällt.
W0dan schrieb:
Genauso wie die Soundanlage nicht bei jedem Ton den Subwoofer knallen lassen soll soll eben bei HDR die maximale Helligkeit auch nur gezielt und sparsam genutzt werden. Umso besser ist dann der Eindruck, wenn es genutzt wird.
"Falsch", im Sinne von objektiv falsch, halte ich für zu weit gegriffen. Ein gutes Spiel ist immersiv, und immersiv heißt ja, dass man die "Meta"-Ebene verlässt und "drin" ist. Selbstverständlich ist sauberes HDR auf einem guten Bildschirm besser als SDR auf selbigem, aber, zumindest mich persönlich, würden flackernde Kanten durch schlechtes AA Faktor 100 mal mehr stören, als wenn der Bildschirm nur noch 600 statt 1000 Lumen im Peak erreicht.

Ton ist ja ein gutes Beispiel: Ist ein wuchtiger Film besser erlebt, wenn die Anlage ordentlich ist? Ja. Ist ein guter Film weniger genossen, weil man "nur" eine normale Anlage zu Hause hat? Ich würde sagen nein.

Am Ende reden wir ja nicht von gut und schlecht, sondern von gut und besser.

W0dan schrieb:
W0dan schrieb:
Bei den PC Monitoren kann ich nicht ganz mitreden, aber da sind die Dimming zonen halt meistens auch in ihrer Anzahl zu gering, so dass es zu bloom effekten kommt.
Bei Local Dimming bekomme ich einen Würgreiz. Grauenvoll.

floh667 schrieb:
Nicht jeder möchte einen riesen Display vor sich haben. Mir z.b reichen die 24,1" völlig aus.
55", 4K, 100% Skalierung. Wer damit einmal produktiv gearbeitet hat, geht nicht wieder zurück.
Buchstäblich 6 Fenster parallel offen, ohne dass man wechseln muss, und ohne dass man Mäusekino hat.
 
  • Gefällt mir
Reaktionen: Mimir
Sehr schöne Umfrage 👍 👌

und wie immer -> UWQHD for the win! 3440x1440p endlich in die regulären Tests 👈👌
 
  • Gefällt mir
Reaktionen: EadZ1
W0dan schrieb:
Über die Hälfte setzt auf Sehr Hohe oder Maximale Details, aber 3/4 verzichten auf HDR.
Wenn das schlechter aussieht als ohne HDR dann wird es deaktiviert. Die meisten aktivieren/passen die Spieleinstellungen manuell ein wenn man hier die Umfrage anschaut. HDR ist nicht immer besser^^
1668345891843.png
 
  • Gefällt mir
Reaktionen: Aduasen
Bei Single player sind 90 fps das Ziel, Grafik so hoch wie möglich, und bei shootern 141 fps, Texturen auf Hoch, Rest ulow. Fps lock mit radeon chill.
 
Akkulaus schrieb:
(Komplett ohne antialiasing)

Viele denken sich bestimmt: Wie kann man unter 60fps Spielen.
Viel mehr als das du unter 60 zockst ist für mich verstörend das man "Komplett ohne Antialiasing" freiwillig zockt. Also nicht mal TAA, SMAA, CMAA, FXAA ? Also die Kanten auf FullHD sind doch dann Brutal!
 
consolero schrieb:
Also ich finde Raytracing überbewertet. Glaubt ihr nicht dass das wieder nur so ein Hype ist der bald wieder vorbei ist?

Ich denk da nur zurück an die Sache mit den 3D Fernsehern :D
https://developer.nvidia.com/blog/r...oday-an-interview-with-morgan-mcguire-nvidia/

Kannst dir ja die Beweggründe durchlesen. ,,Ich kann auf Reflektionen in Gläsern verzichten" ist seeeeeehr kurz gedacht, so als ob jemand lachend mit seinem Pferd am ersten Auto vorbei reitet.
 
  • Gefällt mir
Reaktionen: aklaa
Somerset schrieb:
An die Freunde die FSR/DLSS nicht nutzen:

Könnt ihr mir sagen wieso? Ich denke das man sowohl mehr fps als auch mehr "Qualität" dadurch geschenkt bekommt. Ich wüsste nicht wieso man drauf verzichten sollte 🤔
Weil ich die native aüflösung bevorzuge und mir nicht diesen hochskalierten matsch antun möchte nebenbei ist der inputlag höher.
FSR hat nebenbei auch noch massives ghosting :kotz:
 
W0dan schrieb:
z.B. völlig falsch gesetzte Prioritäten. Wobei man fairerweise auch sagen muss, dass HDR auf den allermeisten PC Displays grauenhaft schlecht ist. (Deshalb nutze ich auch nen OLED TV)
Bei mir ist es z.B. so, dass ich meinen PC, sofern möglich auch gerne mal an den OLED TV im Wohnzimmer dranklammer, dann genieße ich das HDR. Aber typischerweiße spiele ich am Monitor. Dieser hat zwar HDR600 spec, aber mit 8 Zonen Beleuchtung. Das sieht nicht nur absolut kacke aus, man kriegt wahrlich Kopfschmerzen von so einem Stuss ^^

Ich denke aber auch, dass sich das im Desktopbereich jetzt so nach und nach ändert, da die QD-OLEDs auf dem Vormarsch sind.
 
Lyncht mich aber ich komme ohne Bewegungsunschärfe nicht klar selbst bei 140 - 160 fps mit G-sync Modul. Es sieht aus als ob es ruckelt von bf3 bis bf 2042
 
GM206 schrieb:
Weil ich die native aüflösung bevorzuge und mir nicht diesen hochskalierten matsch antun möchte nebenbei ist der inputlag höher.
FSR hat nebenbei auch noch massives ghosting :kotz:
2.1 nicht mehr! Da wurde es sehr gut gefixed.
 
mr_clark schrieb:
Hast Du so nen extra-wide 49 Zoll Display, oder was ist das bei dir?
Das sind 3x 27" WQHD Dell..per Eyefinity zusammengefasst.
Screenshot 2022-11-13 143123.jpg
Screenshot 2022-11-13 143303.jpg

habe ich auch erst seit gestern und experimentiere damit rum, habe noch nicht so die Ahnung^^
 
  • Gefällt mir
Reaktionen: mr_clark
Ich pendel mich immer so bei 80FPS ein ,bei FHD (leider noch kein neuer Monitor..evt gibs hier ne Empfehlung für WQHD;max 300€?)..mir reicht das für die Spiele die ich so daddel..Da läuft mein System auch nicht auf Anschlag bezüglich Stromverbrauch...und ebenso geräuschetechnisch ists für mich iO.
 
Hätte ja nicht gedacht, dass so wenige die Empfehlungen von Geforce Expierence nutzen.
War damit eigentlich immer zufrieden.
Was spricht aus eurer Sicht dagegen?
 
Dann könnt ihr ja jetzt mit den Benchmarks und Artikel zu Raytracing und Upscaling aufhören und euch wieder auf "Rasterizing" konzentrieren ;-) Die FPS sind schwer zu beantworten, da ich bei Rennspielen auf 120 gehe, bei Doom auf 200+ und sonst eher bei 60 limitiere.

Die Nvidia Experience Settings waren bei immer totaler Quatsch. Ist aber schon Jahre her, das ich das ausprobiert hatte. Man weiß ja genau, welche Settings viel Leistung ziehen ohne viel Zugewinn an Optik. Wenn Shader, Tiefenschärfe oder Raytracing dann hochgedreht werden, mache ich das lieber manuell aus.
 
MehlstaubtheCat schrieb:
Viel mehr als das du unter 60 zockst ist für mich verstörend das man "Komplett ohne Antialiasing" freiwillig zockt. Also nicht mal TAA, SMAA, CMAA, FXAA ? Also die Kanten auf FullHD sind doch dann Brutal!
Bei 2042 hab ich zwangsweise taa aber ansonsten verwende ich ebenso wenig AA ich mag ein scharfgezeichnetes bild und nicht ein Bild wie durch eine verschmierte brille.

Daher wirds bei mir in naher zukunft eine Arc 770 und ein 27 zoll mit 1440p.
 
GM206 schrieb:
Weil ich die native aüflösung bevorzuge und mir nicht diesen hochskalierten matsch antun möchte nebenbei ist der inputlag höher.
FSR hat nebenbei auch noch massives ghosting :kotz:

Beim Upscaling ist der Inputlag nicht höher. Nur bei DLSS3 Frame Generation.

Ansonsten leidet TAA auch meistens unter Ghosting. Oft sogar stärker als DLSS und FSR.

Und wenn du auf maximale BIldqualität stehst, würde ich eher dazu raten, DLSS oder FSR in Kombination mit Downsampling (also DL-DSR bei nvidia oder VSR bei AMD) zu nutzen.

Das Bild sieht damit nahezu genauso als, als würdest du Downsampling mit voller Auflösung betreiben, die performance ist aber kaum schlechter als mit nativer Auflösung.

Selbst für absolute Qualitätspuristen sind DLSS und FSR2 damit eigentlich ein großer Gewinn, da du so oder so entweder Downsampling performant nutzen kannst, oder wenn du Downsampling eh schon nutzt, dank FSR und DLSS noch größere Downsampling Faktoren nutzen kannst.

Unterm Strich ist es eben ein Effizienzgewinn. Ob man das für mehr FPS oder mehr Qualität nutzt kann ja jeder selbst entscheiden.
 
  • Gefällt mir
Reaktionen: iWenzi82
Die Abstimmungsergebnisse zu der Frage ob mit HDR oder ohne haben mich sehr überrascht. LOL!

Ich empfehle jedem, der ohne HDR spielt, sich einen Monitor mit mindestens HDR600 Spezifikation zu kaufen. Das ist ein ganz anderes, NEUES Spielerlebnis!:daumen:
 
  • Gefällt mir
Reaktionen: Pro_Bro
GM206 schrieb:
Bei 2042 hab ich zwangsweise taa aber ansonsten verwende ich ebenso wenig AA ich mag ein scharfgezeichnetes bild und nicht ein Bild wie durch eine verschmierte brille.:lol:
Für die schärfe gibt es Reshade.
Man kann sehr wohl TAA mit scharfem Bild kombinieren.
Ist halt etwas aufwendig das stimmt.
 
Am meisten verblüfft bin ich über die Auflösung und die anvisierte FPS.

Hätte nie gedacht, dass bei der Auflösung 15% 4k ausgewählt haben und die anvisierte FPS bei hauptsächlich 60-80 FPS liegt.

Aus so manchen Threads entnimmt man, dass es nie genug FPS sein können und die meisten lieber in Full HD mit 200 FPS spielen als 4k mit 60 Frames. Finde das sehr cool! Ich peile 80-100 an in 4k und das ist für mich das smootheste Gameplay. Klar, mehr ist noch besser aber bei einer 3080Ti geht halt nicht sooo viel mehr. :-)
 
  • Gefällt mir
Reaktionen: iWenzi82
DerFahnder schrieb:
Was spricht aus eurer Sicht dagegen?

Für mich (persönliche Ansicht) sind sie oft unsinnig, weil sie für meinen Bedarf die Grafikkarte zu stark belasten.
Ich habe z.B. Schatten meistens nur auf 'mittel' und auch Motion Blur und Weichzeichner mache ich komplett aus.
Ich stelle bei jedem Game die Einstellungen zu Fuß so, wie ICH sie gern haben mag.
Ergänzung ()

ALDeeN1982 schrieb:
aber bei einer 3080Ti geht halt nicht sooo viel mehr. :-)

Zumal Du laut Deiner Signatur 'nur' eine 1080Ti drin hast :)
 
Zurück
Oben