Der Landvogt schrieb:
Hast du ernsthaft ohne AA und AF gespielt? Mir war das schon damals extrem wichtig. Das hatte ich schon ab der GF4Ti immer aktiviert sofern es irgendwie ging.
Mit AF schon, das kostete allerdings nicht viel. AA hat zb in Wc3 damals lästige Probleme verursacht (Blur bei Schrift) und da das einer meiner Haupttitel damals war, blieb es aus. Ansonsten Multiplayershooter (RtCW, Q3A, CS) -> da nutzt man eh kein AA/AF. Hängt alles von der Nutzung ab.
Heutzutage würde ich auch nicht darauf verzichten wollen, allerdings hat man mehr Rohleistung zur Verfügung und andere Spielgewohnheiten entwickelt.
Der Landvogt schrieb:
Da gibt aber auch noch Karten dazwischen. Eine 6800Ultra war auch knapp 70% schneller als eine 6600GT. Ich sehe da keinen wirklichen Unterschied.
War sie nicht. Benches zeigen im Mittel irgendwas zwischen 30 und 50% an.
30% bei 1024x768
40% bei 1280x1024
und knapp über 70% bei 1280x1024 mit AA/AF.
Wobei letzteres schon in VRAM Probleme und unspielbare Frameraten läuft, von daher praxistechnisch für die Karte damals nicht relevant war.
Nur mal so als Beispiel:
Eine GTX 980 TI ist DOPPELT so schnell wie eine GTX 960. In Full HD.
Eine GTX 780 TI ist 70% schneller als eine GTX 760. In Full HD.
Eine GTX 680 ist 50% schneller als eine GTX 660. In Full HD.
Eine GTX 580 ist 50% schneller als eine GTX 560. In Full HD.
Eine GTX 480 ist 50% schneller als eine GTX 460. In Full HD.
GTX 280 hat keine wirkliche Mittelklasse gehabt, nur Rebrands.
Eine GTX 8800 GTX ist ein Ausreißer mit 240% einer 8600 GTS. Betraf aber damals beide Lager durch Unified Shader.
Eine 7900 GTX ist 50% schneller als eine 7600 GT. In 1280x1024.
Eine 6800 Ultra is 40-50% schneller als eine 6600 GT. In 1280x1024.
Eine FX 5950 Ultra ist 50% schneller als eine FX 5700. In 1024x768.
Was fällt auf? Richtig, seit 2 Generationen erhöht sich der Unterschied zwischen ~200-250€ und >500€ Karten immer weiter. Und da sind noch nichtmal die Titans inkludiert.