ohh ja du Held ATi's AF flimmert wie der erste Fernseher, schon klar, ich wette wenn ich dir zwei Bilder von NV und ATi zu Vergleich gebe, merkst du keinen Unterschied, weil es da keinen Unterschied gibt. Es ist unglaublich wie die Fanboys hier abgehen, ist doch mehr als wahrscheinlich, dass die r7xx Serie schneller als g92 sein wird, es sind immerhin zwei Jahre ins Land vergangen und die G92 kam im Vergleich zur g80 nicht wirklich von der Stelle. Die neuen ATi's haben 50% mehr Shader, 50% mehr Takt, 80% mehr Bandbreite und 100% mehr TMUs (eigentlich die größte Schwäche des r6xx) also wenn diese Angaben stimmen ist es wohl mehr als logisch, dass die schneller sein werden, in extrem Situationen weit mehr als 40%
@Unyu:
Wenn man so eine Stuss erzählt, dann gib doch zumindest Quellen an!
Btw: Die Rechenleistung der g80/92 gemessen in Flops, kanns du nicht mit der des r6xx vergleichen, es sind theoretische Werte die nicht erreicht werden können, außerdem beachte dass da ein * bei der Angabe der Nvidia Karten steht.
"*Die von uns angegebenen GFLOP-Zahlen der G80-Grafikkarten entsprechen dem theoretisch maximalen Output, wenn alle ALUs auf die gesamte Kapazität der MADD- und MUL-Einheiten zurückgreifen können. Dies ist auf einem G80 allerdings praktisch nie der Fall. Während das MADD komplett für „General Shading“ genutzt werden kann, hat das zweite MUL meistens andere Aufgaben und kümmert sich um die Perspektivenkorrektur oder arbeitet als Attributinterpolator oder Special-Function-Unit (SFU). Mit dem ForceWare 158.19 (sowie dessen Windows-Vista-Ableger) kann das zweite MUL zwar auch für General Shading verwendet werden, anscheinend aber nicht vollständig, da weiterhin die „Sonderfunktionen“ ausgeführt werden müssen. Deswegen liegen die reellen GFLOP-Zahlen unter den theoretisch maximalen."