boxleitnerb schrieb:
Du bist sowas von unfreundlich, echt! Arbeite mal dran - und auch an deiner Arroganz!
Ich zitiere dich mal selbst:
Es ist nur ein Hinweis, das war nicht unfreundlich gemeint.
Du erzählst hier Märchen, dass sich die Balken biegen, und wunderst dich, wenn ich dich frage, ob du mich veräppeln willst, nachdem du eine Quelle bringst, die das genaue Gegenteil von deinen Behauptungen zeigt? Nimm es mir nicht übel, aber arbeite lieber mal an deinen Aussagen, deren Wahrheitsgehalt und deiner Sturheit, mit der du immer wieder auf der gleichen Sache rumreitest. Gibt ja nun schon genug nVidia Spammer hier, die hoffentlich ins Aquarium wandern. Da musst man sich nicht auch noch dazugesellen. Denn ehrlich gesagt halte ich dich doch für vernünftiger (noch).
boxleitnerb schrieb:
Wenn dir drei Spiele nicht genug sind, mach doch selbst einen Test. Ich hab wenigstens was gebracht.
Nur leider nichts aussagekräftiges bzw etwas, was überhaupt nicht zu deiner Argumentation passt.
boxleitnerb schrieb:
Als Nächstes willst du mir erzählen, dass alle Reviews nicht aussagekräftig sind, weil da "nur" 10 Spiele gebencht werden, im Jahr aber mehrere Hundert erscheinen? Irgendwo muss auch ein Schlussstrich gezogen werden.
Ein weiterer Punkt deiner provokanten Art. Du wirfst wieder Sachen durcheinander, die gar nichts miteinander zu tun haben. Lies die Beiträge nochmal durch und auch worauf sich die "10 Spiele" bezogen.
boxleitnerb schrieb:
Und es bleibt dabei:
Nvidia verliert bei HQ praktisch nichts, AMD mit dem Sprung vom neuen Treiberstandard zum neuen HQ-Modus bis zu 10%. Bzgl. Nvidia hat sich seitdem auch nichts geändert (seit Erscheinen der 8800GTX übrigens nicht).
Nein. Das sind nur Ausflüchte ohne Beweisgrundlage, weil du dir irgendwas zurechtbiegen willst. Weise nach, dass in den drei verlinkten Spielen von dir AF bei den neuen Radeon Karten anders skaliert als bei nVidia. Bis dahin bleiben deine Behauptungen ohne Wert.
boxleitnerb schrieb:
Keiner spielt die AF-Blume. Trotzdem wird sie in Reviews herangezogen, es wird von AMD sogar mit totaler Winkelunabhängigkeit geworben. Keiner spielt 3DMark. Trotzdem wird er in Reviews herangezogen.
Diese Sachen werden aber gesondert betrachtet. Genauso wie Leistungsaufnahme (Vorteil AMD), HD Wiedergabe (Vorteil AMD), Multi-Monitor Support (Vorteil AMD), usw. 3DMark wird genauso separat getestet und fliesst ins Gesamtrating nicht ein. Willst du ein subjektiv geringeres Flimmern bei nVidias HQ AF jetzt als Maszstab für den gesamten Test erheben? Man kann es auch übertreiben und sich alles so zurecht biegen wie gewünscht. Lerne lieber mal das Gesamtpaket zu bewerten und dich nicht an einem einzelnen Punkt aufzuhängen.
boxleitnerb schrieb:
Du verlangst und verlangst Beweise ohne auch nur auf die Idee zu kommen, dass es Leute gibt, die das Flimmern auch in (gewissen) Spielen stört.
Natürlich ist mir das bewusst. Oder kommst du nicht auf die Idee, dass es Leute gibt, die das nicht stört? Und nun? Machen wir jetzt eine Selbsthilfegruppe auf? Du bist doch derjenige, der hier ständig irgendwelche Thesen in den Raum stellt, nicht ich. Ich verlange lediglich, dass du diese objektiv begründest. Viel davon sehe ich aber ehrlich gesagt nicht. Und die Betonung liegt auf "objektiv". Mit deinen subjektiven Eindrücken kommen wir da keinen Millimeter weiter. Wenn du also behauptest, die Bildqualität default HD 5800 wäre besser als default HD 6800, dann solltest du das auch anhand von technischen Grundlagen untermauern. Irgendwelche Videos, deren Vergleichbarkeit oder Repräsentativität überhaupt nicht ersichtlich ist, reichen da schlichtweg nicht aus.