Genau , das macht grundlegend keinen Unterschied. Es sei denn du möchtest Ray Tracing auf Hohem Niveau spielen. Du tust so als ob die "neuen spiele" etwas daran ändern würden, wieviele Pixel bei bestimmten Auflösungen gerendert werden. Was sein kann, ist, das da "werksmäßig" noch verschiedenste Shader Techniken drübergelegt werden. Dann würde man aber auch werksseitig entsprechende Optimierungen erwarten. Nen Shader oder nen Shcärfefilter drüberlegen kann ich auch manuell. Genauso wie ich Auflösung runterskalieren kann, und dann noch nen Schärfefilter draufpacken kann. Das kann ich alles manuell machen. Ist es werksseitig sollte es optimiert sein. "Höhere Anforderungen" gibt es nicht abseits von Techniken wie Ray Tracing. Das ist alles nur Marketing. OK, kann auch sein das "moderne" Spiele noch mehr Objekte rendern etc. das wären dann auch nochaml höhere Anforderungen. Also ich nutze bereits bei allen Spielen von mir extra Reshades um die Grafik noch mehr zu optimieren, und es gibt (ohne DLSS) keinen praktischen Unterschied ob ich BF5 z.b. mit neer 1080 ti, oder einer 3060 ti zocke. Letztere hat paar fps mehr. In der Praxis und vom Spielerlebnis macht das keinen Unterschied. Ja sogar wenn ich die Auflösungsskala hochfahre um höhere Auflösungen zu simulieren, wird das mit den erwähten Karten noch Bestens klappen. Wenn Situationen auftreten wo die Rechenleistung der besagten Karten ans Limit kommt, was NATÜRLICH auch in WQHD der Fall sein kann (ich packe den Bildschirm voll mit objekten die extrem viel Rechenleistung erfordern), kann dir nur noch DLSS aus der Patsche helfen. Aber im allgemeinen kann man damit theoretisch JEDE karte ans Limit bringen, und fällt unter: Nicht Optimiert.pepsicosmos schrieb:Du meinst es macht also keinen Unterschied ob ich aktuelle Games und Games im kommenden Jahr mit max settings spiele, solange ich nur einen 27" WQHD Monitor habe? Gibt doch jetzt schon Games die mit 1440p und entsprechenden Einstellungen ordentlich fressen... Oder bin ich gerade zu doof dich zu verstehen?
Ergänzung ()
wie gesagt, irgendwelche grafikkarten zusammenbrechen lassen ist leicht. welche karte hat denn im durchschnitt, abseits von einzelfällen, 100% mehr leistung als eine 1080 ti?
die zeiten sind ja heutzutage ganz andere. schau dir mal karten vor 10 jahren an, dann 5 jahre später die 1080 ti. ein riesensprung.
und heute 5 jahre später. jetzt kommt die 1080 ti in eine situation wo sie komplett absäuft auf 10-13 fps. unspielbar.
ist das die zukunft modernen gamens? in situationen wo die alten karten speziell die 1080 ti absaufen, da reisst auch eine 6700 XT nichts mehr raus.
Leistungsvergleich:
https://technical.city/de/video/GeForce-GTX-1080-Ti-vs-Radeon-RX-6700-XT
Szenario:
1080 ti säuft ab auf: 10-20 fps
6700XT mit MAXIMAL 50% mehr leistung: 15 - 30 fps
gamechanger?
geh eine stufe höher. 6800 XT
https://technical.city/de/video/GeForce-GTX-1080-Ti-vs-Radeon-RX-6800-XT
Szenario:
1080 ti säuft ab auf: 10-20 fps
6800XT mit MAXIMAL 100% mehr leistung: 20 - 40 fps
(20 - 40 wäre durchaus spielbar, also hier würde die 6800XT punkten --> aber das kann nicht der Sinn sein, das wir in Zukunft unsere games mit 1500 Euro Karten auf 40 fps zocken, weil die entwickler keinen bock mehr haben ihr Spiel zu optimieren)
klar, ist ein extremes beispiel. natürlich kommen die modernen karten schneller in 60fps bereiche die spielbar sind. aber da schraube ich mit der 1080 ti bissi an den settings und vielleicht habe ich dann auch 60 fps und keinen merkbaren optischen unterschied
Fazit:
------
wenn die 1080 ti absäuft, dann sind die anderen karten ohne externe hilfmittel auch am ende.
im vergleich war ich kulant und habe die maximal erwartbare mehrperformanz herangezogen, in der realität wird der mehrwert/mehrgewinn geringer ausfallen
Zuletzt bearbeitet: