Test ATi Radeon HD 2900 XT im Test: Platzhirsch oder kleiner Bruder der GeForce 8800?

man muss zugeben, nvidia ist mit dem 8800er ein super wurf gelungne, wenn man bedenkt, dass der schon wieder 6 Monate alt ist!
 
Ich habe gestern die Gamestar bekommen, in der die 2900XT getestet wurde und da sagen die tatsächlich, das die Bildqualität besser als bei den G80 GPUs sei.
( 19 von 20 Punkten für Ati, 18 Punkte für Nvidia).

Zugegeben, dass AA ist bei Ati ein Stück besser, aber beim AF hingegen kann Ati nicht mithalten.

Also wären die von der BQ höchstens auf einer Linie, oder wie seht ihr das?
 
Also liege ich richtig mit der Vermutung, dass da was nicht stimmen kann.
Oder der Eindruck ist eben einfach nur subjektiv bzw. die Gamestar hat vielleicht andere Testvorgänge und kommt damit auch zu anderen Ergebnissen.
 
Zuletzt bearbeitet:
Naja, sofern bei ATi richtiges AA zum Einsatz kommt, ist der AA Filter wohl wirklich etwas besser, als bei nVidia. Problem ist aber, dass ATi eher auf EATM zurückgreift, was zwar auch noch sehr gut aussehen soll, aber halt kein AA ist, sondern ein Blur-Filter.

Es stellt sich mir nun die Frage, was Gamestar da nun getestet hat. Wirkliches AA oder vielleicht doch per EATM?
 
nix spricht dagegen ,solang es gut aussieht ,und es wird ja mal zeit das AA abgelöst wird oder was neues kommt oder nicht?
 
Naja, für mich persönlich spricht dagegen, dass es halt keine wirkliche Kantenglättung mehr ist, sondern das Auge durch einen Wischeffekt "verarscht" wird. Ich steh da doch eher auf richtige Kantenglättung. Aber das ist wohl die Persönliche Entscheidung eines jeden Einzelnen.
 
auf manchen spielen is sie doch auch mit "echtem" aa besser als die 8800gts..z.B. doom3, prey oder call of juarez dx9...warum hier dann einige immer wieder von schlechter sprechen!? auch die gts fällt bei manchen spielen hinter ältere produkte aus eigenem hause zurück...schaut euch die benches nochmal genau an...gerade deshalb frage ich mich wie man da von nem architekturfehler sprechen kann...dann wär sie mit aa immer schlechter und nich nur in einigen spielen
 
Zuletzt bearbeitet:
Ja, aber nur in OpenGL-Spielen. Bei DirectX-Spielen bricht die Karte unter AA/AF noch extrem ein.
 
wenn man in einem spiel voll drin ist und volle aktion da ist achtet man nicht so auf die treppchen (auser camper) !!!Und wenn man sowiso nicht so viel zeit hat auf die Treppchen zu achten fallen die nur ab und zu auf und für dieses ab und zu ist das EATM absolut ok.Das ist meine meinung ,ich will spielen und nicht nach treppchen ausschau halten
(ahh da ultraminifastnichterkennbarmitlupeTreppchen :lol: ) .Ich weiss noch damals in Delta Force 1 hat sich niemand über pixel Treppchen aufgeregt !!Warum?? Weil das spiel super war,und genau ist es noch heute ,wenn`s game *geil* ist die grafik neben sache siehe WOW.Grafik schrott aber jeder zockt es ,ok WOW ist wenn ich mich recht erinnere recht treppchen frei von grund aus auch ohne AA.

Namenlos
 
hello!

was habt ihr so für temperatur werte mit der karte? meine wird immer viel zu heiss im vergleich zu anderen... aber ich hab bisher auch nur wenig vergleichswerte :/

thx!

bye
 
@Namenlos

Nur weil du nicht auf die Treppchen achtest, was du neuerdings erst sagst, deitdem du die ATi hast, heißt das nicht, das andere sich nicht daran stören. Das hat auch nichts mit Campern zu tun.

Du magst zwar recht haben, dass einem die Treppchen nicht immer direkt auffallen, aber wenn man es gewohnt ist, mit AA zu spielen und dass plötzlich nicht mehr vorhanden ist, weil man es deaktiviert, fällt es sofort auf, auch wenn man nicht explizit darauf achtet und einen AA-gewohnten Spieler nervt das meistens.
 
JO, und außerdem gibt es auch noch berühmte Spiele die viel gespielt werden, wo gerade Campen gefragt ist, z.B. CS. Und genau dort will ich danna auch keine Treppchen sehen. Auch wenn ich mal im Jungle von Vietkong die ungeliebte Camperaufgabe(jedenfalls von mir) durch mein Team erhalten habe, dann will ich wenigstens keinen Treppchenungle sehen, wenn ich da schon dämlich im Match rumliege.
 
daniel16420 schrieb:
man muss zugeben, nvidia ist mit dem 8800er ein super wurf gelungne, wenn man bedenkt, dass der schon wieder 6 Monate alt ist!

Eine GTS8800 640MB für <320Euro schon bekommst...

Hätte die HD2900XT im gleichen Bereich gekostet, hätte ich mir eine bestellt so aus Neugier.
Nun eine GTS wieder geholt (alte zerballert).
 
Aber die verursachten Energiekosten der 2900XT liegen höher als die der 8800GTS;)
von daher gilt das Preisargument nur bedingt und soviel besser als die GTS ist die 2900XT in den meisten sachen auch nicht
 
nene Ich hab schon lange ATI und vor kurtzen ein MSI 7600GT als ersatz von meiner x850XT mit Zahlman V900...... . Ich bin eigentlich kein ati oder nv fanboy,nur hatte ich mit ati noch nie probleme und würde oder werde oder hab auch wieder ati kaufen.Vieleicht liegt es auch daran das nie so richtig schnelle Grakas hatte und nie mit AA oder AF spielen konnte<(wer weis).Ich mach auch immer AAund AF volle rein und zu schauen wie es aus sieht.Z.b Colin Dirt hab es gespielt alles rein und dann aa u.s.w runter aa sogar aus ,und was war nix kaum ecken ,doffer vergleich ich weiss aber egal,es kommt auch auf das spiel an bei manchen ist es widerum sinvoll weil es nur ecken hat aber das war mehr mit der
800X600 Auflösung mit der 1280X1024 hält sich es in grenzen.
 
UltraXFX-92 schrieb:
Ja, aber nur in OpenGL-Spielen. Bei DirectX-Spielen bricht die Karte unter AA/AF noch extrem ein.

call of juarez beispielsweise ist kein opengl-spiel....und doom3 ebenfalls nicht....beides directX9. und bei beiden liegt die 2900xt vor der 8800gts...in jeder einstellung..bei den anderen hab ich gar nicht erst nachgeschaut..was erzählst du denn da von openGL???

mal abgesehn davon bricht sie wenn auch eher bei 16xAF ein als bei hinzunahme von AA wie man das an STALKER erkennen kann...da wird beide male mit 1xAA getestet...auf ebenfalls 1xAF ist sie nahe an der gts dran...erst bei 1xAA und 16xAF bricht sie ein....ihr nehmts scheinbar alle nicht so genau...erklärt mir das doch mal
zudem fällt bei fast allen tests, in denen die xt hinter der gts liegt, auf, daß der unterschied zur gts bei höherer auflösung geringer wird...und zwar teilweise erheblich...und das alles noch mit treibern des cb tests...bei einer fehlerhafte chiparchitektur wäre das ja wohl kaum der fall
 
Zuletzt bearbeitet:
Zurück
Oben