B
boxleitnerb
Gast
gruffi schrieb:Willst du mich veräppeln? Nur 3 Spiele? Und keines zeigt grundlegende Unterschiede zwischen AMD und nVidia? Mal abgesehen davon, dass AF bei nVidia generell etwas mehr Performance zu kosten scheint? Und man sieht durchaus Fälle, wo es Unterschiede zwischen mit und ohne HQ bei nVidia gibt? Das alles sagt genau das Gegenteil von dem, was du hier behauptet hast.
Du bist sowas von unfreundlich, echt! Arbeite mal dran - und auch an deiner Arroganz!
Wenn dir drei Spiele nicht genug sind, mach doch selbst einen Test. Ich hab wenigstens was gebracht. Ich kann mit meiner 8800GTX und dem aktuellen Treiber auch gerne ein paar Benchmarks laufen lassen mit HQ vs Q, wenn du dann glücklich bist.
Als Nächstes willst du mir erzählen, dass alle Reviews nicht aussagekräftig sind, weil da "nur" 10 Spiele gebencht werden, im Jahr aber mehrere Hundert erscheinen? Irgendwo muss auch ein Schlussstrich gezogen werden.
Weiterhin ist dieser Link nur für Nvidia aussagekräftig, denn "HQ" war zum Testzeitpunkt noch was anderes als heute. Die Skalierung von AMD für Cat 10.10 findest du bei HT4U im Review der neuen Karten.
Und es bleibt dabei:
Nvidia verliert bei HQ praktisch nichts, AMD mit dem Sprung vom neuen Treiberstandard zum neuen HQ-Modus bis zu 10%. Bzgl. Nvidia hat sich seitdem auch nichts geändert (seit Erscheinen der 8800GTX übrigens nicht).
gruffi schrieb:Natürlich. Je mehr, desto besser. Oder wie willst du sonst sehen, welche Auswirkungen es in der Praxis hat? Den Filter-Test kannst du dir schenken. Der mag für eine theoretische Betrachtung interessant sein. Sagt nur erstmal nicht viel aus. Keiner spielt einen Filter-Test.
Keiner spielt die AF-Blume. Trotzdem wird sie in Reviews herangezogen, es wird von AMD sogar mit totaler Winkelunabhängigkeit geworben. Keiner spielt 3DMark. Trotzdem wird er in Reviews herangezogen.
Du musst unterscheiden zwischen tatsächlichem Auftreten eines Phänomens und der subjektiven Wahrnehmung desselben. Natürlich lenken in Spielen andere Dinge ab wie Feindfeuer, Shaderflimmern etc. Aber kannst du für die Allgemeinheit sprechen und dem Filtertest sämtliche Relevanz für sämtliche Spielszenen absprechen?
Du verlangst und verlangst Beweise ohne auch nur auf die Idee zu kommen, dass es Leute gibt, die das Flimmern auch in (gewissen) Spielen stört. Und wenn es nur 1 von 100 ist - das ist dann subjektiv und hat nichts mit dem Thema zu tun. Die, die bei der AF-Diskussion sagen "merke ich nicht", das ist ja schön und gut. Dagegen sagt auch niemand was. Aber es darf doch trotzdem erlaubt sein, Missstände im Vergleich zur Konkurrenz zu kritisieren, oder? Nur durch Kritik kommt Verbesserung...meistens.
Weißt du, das ist so wie mit dem Stromverbrauch. Da wird auch deutlichst darauf hingewiesen. Aber auch da ist es wie mit dem AF:
Unterschiedliche Personen setzen ihre Prioritäten unterschiedlich.
Du sagst: Das Flimmern beim AF ist lächerlich (salopp ausgedrückt, man verzeihe mir).
Ich sage: Der Mehrverbrauch der Geforces ist für mich lächerlich, wenn ich ihn in Relation setze zu den gebotenen Features im Vergleich zur Konkurrenz. Woanders kann ich außerdem viel effektiver Strom/Energie sparen (Haushalt, Auto usw.)
Du siehst: Unterschiedliche Prioritäten. Dann sei doch bitte auch so fair und rede nicht jede Kritik klein, die ein Teil der Käuferbasis für angebracht hält. Wenn es dir schon nicht um Bildqualität geht, dann doch bitte um einen möglichst fairen Vergleich. Oder soll Nvidia morgen die Standardeinstellung auf AMD-Niveau absenken, um vielleicht auch 10% zu gewinnen? Oh wie wäre das Gemecker groß.
Ich kann mich noch gut erinnern, was damals bei G70 los war. Was für ein Aufschrei! Die Geizhals-Hinweise. Da ist das doch noch recht harmlos. Und es hat ja augenscheinlich bei Nvidia auch was gebracht.
Zuletzt bearbeitet: