dahum schrieb:
Die Frage ist doch gar nicht, ob Optimierung oder nicht, sondern ob danach die Bildqualität noch stimmt. Ich bin auch gerade von einer Ati 9800 auf eine 6800GT umgestiegen, habe immer mit vollen Optimierungen gespielt und war mittelmäßig enttäuscht über die Bildqualität der Nvidia Karte. Erst mit hoher Qualität hat man ein gutes Bild, vom AA mal abgesehen, das erst auf 8s ähnliche Bilder liefert wie ATI auf 4-fach. Dann sind aber alle Performancevorteile der neuen Karte dahin.
Es ist ja schön, dass man nun bei der 6800er alle Optimierungen ausschalten kann, und vielleicht bald auch bei der 7800er, aber das kostet eine Menge Performance, bei UT2004 etwa 20 Prozent. Und genau deshalb ist ATI bisher immer besser als Nvidia gewesen, denn die erreichen bei gleicher Bildqualität eine bessere Performance.
Wer das abstreitet, leidet offensichtlich an kognitiver Dissonanz. Ich bin jedenfalls kein Jünger irgendeiner Firma, sondern benutze abwechselnd beide, um ein Bild auf meinem Monitor darstellen zu können. Und als Endnutzer sehe ich auf meinem Monitor, dass Nvidia sich seit der 5700 nur noch über mehr Frames seine offensichtlich betriebsblinde Kundschaft hält. Oder über massive Preissenkungen, wie in meinem Fall ;-)
Dito! Genau so sehe ich das auch...
Ich habe generell nichts gegen Optimierungen, wenn sie einen guten Kompromiss zwischen Bildqualität und Performance sind. Und die X800 ist mit Optimierungen 1. sehr schnell und 2. sind so gut wie keine Artefakte erkennbar. Bei der 6800'er war es so, dass sie per Default (also mit Optimierungen) deutliche Artefakte produzuerte, die sofort (zumindest mir) aufgefallen sind. Also muss man die Karte mit "HighQuality" betreiben... und hier geht die Performance dann (wie bei UT2004) bis zu 20% runter. Das finde ich unbefriedigend...
Und wie gesagt, früher (ohne Clamp-Option im Treiber) waren die Artefakte auch unter HighQuality sichtbar, so dass es überhaupt keine Möglichkeit gab ein "ruhiges Bild" zu erhalten.
Deshalb habe ich letztendlich die GF6800 wieder zurückgegeben und mir die X800 geholt...
Und wenn die GF7800 tatsächlich eine Steigerung bzgl. des Flimmerns mit sich bringt, ist das nicht mehr akzeptabel.
Schon damals bei der GF6800 war es ja nicht so, dass man mit der Lupe danach gesucht hat, nein, es fiel sofort auf (vorher Radeon 9800). Es hat quasi 1 Minute gedauert, bis ich mich gefragt habe, was da bei Gothic2 nicht stimmt als die Pflastersteine in der Stadt angefangen haben zu blinken... und das ging dann bei jedem Spiel so weiter....
Und es gab ja genug Leute, die das Problem relativ schnell erkannt haben:
http://www.nvnews.net/vbulletin/showthread.php?t=35592
http://www.mitrax.de/?cont=artikel&aid=24&page=14
...
Ich fand dieses "Schimmern" auf jedenfall extrem schlimm... also nicht nur leicht störend, sonder es war für mich ein KO-Kriterium...
Und deshalb kann ich nun auch nicht akzeptieren, dass die GF7800 anscheinend ähnlich oder sogar noch schlechter filtert....
Vielleicht braucht man ein lang nachleuchtendes TFT um diesen Effekt nicht zu erkennen, aber auf jedem Röhrenmonitor fällt es sehr stark auf...
MCC schrieb:
hat. Zudem unterstützen alle neueren Forceware Treiber GC AA wie es auch die Atis können und ist daher gleichwertig.
Ja, die GF7800 hat AA mit GC.... die GF6800 nicht.... ist ein Hardware-Feature und hat nichts mit Treibern zu tun...