@die.foenfrisur: Wie du vielleicht schon mitbekommen hast, bin ich durchaus für die "Roten", in meinem Rechner steckt ne 3870 + 5000+ BE
, das wird sich in Zukunft auch nicht ändern (mit der roten Farbe).
Aber wenn ich was von sekundenlangen Slowdowns lese, dann ist das Spiel scheiße programmiert und taugt nicht als Bench. Zitat Gamestar:
"Und selbst auf einer modernen Maschine kommt es immer wieder zu plötzlichen Rucklern, was sich entsprechend negativ auf die Lenkpräzision auswirkt. Hier haben die Programmierer schlichtweg versagt."
Achja, hier schlägt ne 48
50 ne GTX 280:
https://www.computerbase.de/2008-07...e-gtx-260-sli/13/#abschnitt_rainbow_six_vegas
16x12 8xAA/16AF
Unyu schrieb:
Das der Kram mit dem Texturfilter unter einem Hut steckt ist scheisse und im folgenden gibts du zu, das du dir einen besseren Texturfilter bei AMD wünscht, demnach siehts du einen Unterschied.
Warum sollte ich dir dann etwas beweisen, was du selbst siehts? (HQ [deutlich] besser als AI-on)
Die Verbesserungen wünsch ich mir für Leute wie dich, damit die nix mehr zu meckern haben
Ich zitier mich nochmal selber, in Fett, damit dus auch siehst:
KAOZNAKE schrieb:
Ja, ich wünsche mir auch, das AMD da nachbessert, allerdings nicht bei AI, sondern bei der Filterqualität (mit der ICH absolut zufrieden bin) im Allgemeinen. Der Rest ist mir Wumpe.
Wie soll ich auch bitte einen Unterschied sehen? Ich hab nur einen PC (OK und Laptop), aber beide mit ATI-Grafik
Da müsst ich mir noch nen zweiten PC mit ner G8 anschaffen und den daneben stellen, aber ich hab auch noch anderes zu tun, als nach Flimmern im Bild zu suchen.
Insofern bist du mir immer noch den Beweis schuldig:
AI: on<AI: off
Unyu schrieb:
Aha. Vor zwei Jahren war AMD besser bei der Texturfilterung. Lass mal sehen, die 2900XT (R600) kam am 14. Mai 07 (Test auf CB). Du meinst also den Vorgänger? Den R5X0?
Dann lass mich mal was zitieren aus dem Test der 2900XT:
"Bei dem 16-fachen anisotropen Filter sieht das Bild des R600 in weiten Teilen ruhiger als das Ergebnis vom R580 aus"
und beim R520 (direkter Vorgänger des R580) heißt es:
"Als wir den Quality-Modus aktivierten, trauten wir unseren Augen – oder eher gesagt dem AF-Tester – nicht: Der R5x0-Chip bietet wieder eine winkelunabhängige Filterung, was es bei ATi noch nie und bei nVidia seit dem NV35 nicht mehr gegeben hat! [...] Dafür müssen wir ATi nach den deutlichen Verschlechterungen der Texturfilterung in letzter Zeit ein großes Lob aussprechen!"
Wenn also der R520 besser als seine Vorgänger war, der R580 keine Verbesserungen bot und der R600 geringfügig verbessert wurde, kann ich nur sagen:
Fakt widerlegt.
Unyu schrieb:
Mit HQ hat sich keiner gescheut die GF7 zu benchen.
Klar, sonst hat man ja auch voll das miese Bild gehabt. Ich bin kein Bildquali-Fetischist wie du, aber selbst mir ist das aufgefallen, das will was heißen.
Unyu schrieb:
Na da haben wir es doch.
Mit AI-off gibts die Filterqualität, die mit AMDs Hardware möglich ist. Mehr wäre wünschenswert aber hacken wir erst mal auf AI rum:
Weil AMD alles in AI reinpackt, testet niemand mit AI-off. Folglich ist das eine Bevorteilung AMDs, aufgrund schrottiger Auswahlmöglichkeiten.
Beweise? Hab ich nicht behauptet, leg mir bitte keine Worte in den Mund und verdreh sie auch nicht.
Nochmal ein Zitat aus dem Test der 2900XT:
"
Deaktiviert man nun auf beiden Grafikkarten sämtliche Optimierungen des anisotropen Filters, dreht der G8x regelrechte Kreise um die Konkurrenz. Während die Texturen auf dem G8x nur selten flimmern, keine Bugwellen mehr sichtbar sind und gleichzeitig bis in den letzten Winkel mit allen eingestellten Samples gefiltert werden,
bekommt man von ATis R600 bei A.I. Off nicht eine so gute Qualität geboten. Die etwas schlechtere Winkelunabhängigkeit fällt prinzipiell kaum auf, der trilineare Filter ist ebenfalls sehr gut,
die Texturen sind aber weiterhin unruhig. Während nVidia dieses Problem mit dem G8x beinahe ausgelöscht hat,
hat ATi das Flimmern zwar angepackt, aber ist schlussendlich nicht weit genug gegangen.
AI: off BRINGT REIN GAR NICHTS, deswegen wirds auch nicht getestet oder von irgendeinem geistig gesunden Meschen verwendet.
Das Problem scheint also eher Hardwarebedingt zu sein, wobei ich kein Problem sehe und alle (außer dir und yeehah vielleicht) anderen anscheinend auch nicht. Jedenfalls bin ich zufrieden und wenns verbessert wird, auch gut. Aber mit AI hat das rein gar nichts zu tun, also braucht man in der Richtung auch keine Auswahlmöglichkeiten.
Unyu schrieb:
Diese Beurteilung wurde imho nicht aufgrund eines breiten Spektrums abgegeben.
Das sieht Numrollen anscheinend anders, er hat ja auch ne 88GTX (der im Review zur 29XT auch die schlechteren AA-Ergebnisse bestätigt wurden) und keine GTX280.
Ob jetzt von G80 auf G92 was am AA geändert wurde weiß ich jetzt aber nicht, bei der 88GT steht dazu nix im Review. Von G92 auf GT200 scheint sich ja nix getan zu haben.
Noch was in eigener Sache: Ich bin zwar AMD-Fan, trage aber noch lange keine rosarote Brille. Nicht alles ist perfekt was AMD an Produkten liefert (Stichwort PP2.0) und ich gestehe der Konkurrenz auch gern zu, das sie was besser kann als meine favorisierte Firma.
(z.B. die Filterqualität)
Ich empfehle dir deshalb, die grüne Brille auch mal abzusetzen ab und zu, vielleicht merkst du dann was. Nämlich das alle, die sich ne GTX260/280 für 200-350€ geleistet haben, sich mal dicke bei AMD bedanken dürfen. Sonst wärs nämlich so wie mit der 88GTX, jahrelanges Schröpfen der Gamer durch NVIDIA.
Ich bin mir durchaus auch im klaren, das AMD es in vertauschten Rollen ähnlich gemacht hätte und vielleicht auch in Zukunft machen wird, in dem Fall bedanke ich mich schon mal im Voraus bei NVIDIA für die Konkurrenz
@Lübke: Ich glaub kaum, das sich da allein was mitm Treiber reissen lässt, schließlich hat die GTX260 (216) vor allem hardwareseitig nen kleinen Vorteil. Und knapp war das Rennen zwischen der GTX 260 (ohne 216) und der 4870 vorher auch schon, auch ohne optimierte Spiele. Vor allem der spitzenmäßige Einführungspreis konnte die Leute halt sofort überzeugen, grad wenn man die GTX260 im Vergleich gesehen hat.
Aber ich glaube auch, das sich die Situation mit der Zeit verbessert und spielbar sind die Games eh alle ohne Probleme. Ich mein hallo? Mit ner 130€ Graka auf 1920x1200 4xAA/16AF spielbare fps? Da hätte vor einem Jahr jeder "n Mord begangen"
@Übersoldier: Da ATI zu AMD gehört und du sicherlich auch mitbekommen hast, das AMD grad alles andere als schwarze Zahlen schreibt, könnte man schon zur Vermutung gelangen, das es doch einfach nur am Geld liegt.
Und die ATI-Besitzer regen sich nicht auf, das NVIDIA hier schneller ist. Das ist überhaupt kein Thema und bevor man mit diskutieren möchte, sollte man vielleicht wenigstens ein bischen querlesen.
Es geht um die Art und Weise, wie den CB-Lesern von CB ein Test als unabhängiger Test verkauft werden sollte (wurde), der offensichtlich von NVIDIA eingefädelt wurde. Siehe dazu Bjorn3D, Hardwareluxx und andere. 4 oder 5 Tests mit gestellter Hardware (nicht erhältliche OCte GTX260), Software (teilweise ebenfalls noch nicht raus, L4D) und nicht öffentlichem Treiber.
Die Schelte wurden akzeptiert, es gab ne Entschuldigung, Sache geklärt-->abgehakt