Test Test: ATi Radeon X1800, X1600 und X1300

Ich zocke garnicht mehr aufm PC. :p

Ich mein man muss sich nur mal die beiden Bilder von BodyLove angucken da ist ATi klar vorne in Sachen Bildqualität.
 
Also ich denke mal, die haben versucht den versprochenen Wunderchip zu Bauen, und das ist übrieg geblieben !
es ist doch denke ich so, das schon bei den verpatzten Tests klar war, das es keine 32 pipe karte wird!

Aber was ich immer wieder beeindruckend finde, sind die ATI FanBoys, die bis letzte woche noch immer den 850er Propagiert haben, weil er ja sooo schnell ist, und nun muss ich lesen, das Geschwindigkeit nicht alles ist !? << na müssen wir uns da was schönreden ?

und ich streite nicht ab, das NV den FX verbrezelt hatte, aber das ist nunmal schnee von gestern !

Aber fakt ist auch, das ATI es diesmal versemmelt hat !

Mir war schon klar, das die weil sie nur 16pipes hinbekommen haben, der Chip bis zum Limit Takten, damit er überhaupt mithalten kann !
Mal schauen wie die ausfallrate sein wird ?

ich jedenfalls, hab gerade gestern meine 6600GT gegen eine der Letzten ( und nun Billigen ) 6800GT getauscht ( somit war es der letzte AGP tausch bei mir !

wenn die 6800GT alt ist, gibbet schon besseres als die 1800 oder 7800 !

nun kommt noch die Crossfire Totgeburt, und ATI kann das jahr abschliessen !
 
Totaler Schwachsinn was du da von dir gibst...Crossfire Totgeburt...schon Benchmarks von der X1800XT im Crossfire gesehen? Nein, also laber nicht.

Selbst wenn man diese Generation als missglückt sieht, stehts 1:1 da nVidia die FX Serie verhaun hat.
 
Also ich werde mir keine von denen holen^^


Ich warte einfach noch ein Jahr, denn da soll ja angeblich DX 10 rauskommen....:cool_alt:


OR WHAT?
 
wazzup schrieb:
Und leute die meinen das AA und AF überflüssig sind weils eh nicht auffällt sind auch der meinung das nen XP3200+ mit 6800GT nen perfektes gamersystem ist :evillol:
Komisch, dass ich alle Games mit 1280x1024 und 8xAF sowie max Details mit nem 2500+@3200+ und ner 6800GT@Ultra flüssig zocken kann. :freak:

Wenn ich z.B. Seriuos Sam 2 mit 1300MHz (2100+) anstatt mit 2500MHz (3800+) bei 1280x960 und max Details zocke, hab ich nur ein paar Frames weniger. Außerdem iss mein Prozzi bei 2500MHz etwa so schnell wie ein Athlon64 3200+.
Ich jedenfalls merke keinen Unterschied bei FarCry oder HL2, wenn ich mit 2200MHz (3200+) oder mit 2500MHz (3800+) zocke.

NFSU2 zock ich mit 2xAA und 8xAF bei 1280x1024 und max Details, FarCry mit HDR3 bei 1280x1024 und 8xAF sowie max Details, Doom3 mit Ultra High Details bei 1280x1024 und HL2 bei 1280x1024 und max Af sowie max Details. Bei AoE3 (Demo), C&C Zero Hour, Earth 2160 sind die Settings genauso und alle Games laufen flüssig. :)

AF iss ja ein Muss, AA eher Nice to Have, vor allem bei Ego-Shootern. Die Leistung, die für AA draufgeht, sollte man lieber in ne höhere Auflösung und/oder mehr Details stecken, es sei denn, man hat genug Leistung, was bei der neuen Grafikkartengeneration von nVidia und ATi ja momentan der Fall ist. ;)
 
Zuletzt bearbeitet:
dukeP4EE schrieb:
bad_boy schrieb:
Frage: ist 1600x1200 4AA/16AF spielbar?

UT 2004: GTX--> Ja , x1800XT --> Ja
AoE 3: GTX--> Ja , x1800XT --> Nein
SC3: GTX --> Nein , x1800XT --> Ja
Earth 2160: GTX--> Nein ,x1800XT --> Nein
Far Cry: GTX --> Ja , X1800XT --> Ja
HL2: GTX--> Ja , X1800XT --> Ja
Doom3: GTX --> Ja , X1800XT --> Nein
Riddick: GTX --> nein ,X1800XT --> Nein ( 1280x1024 4AA/16AF : GTX--> Ja, X1800 >nein
Fear: GTX --> Nein, X1800XT --> Jein
Fable: GTX --> Ja , X1800XT--> Nein
I2: GTX --> Ja, X1800XT --> Nein
CoD2 Demo!!!: GTX --> Ja , X1800XT --> Ja
BF2: GTX --> Ja , X1800XT --> Ja
Quake 4: GTX --> Ja, X1800XT --> Nein
Pacific Fighters: GTX --> Ja, X1800XT --> Nein

Fazit 2: 1600x1200 4AA/16AF spielbar?

GTX: 11 von 15 Games
X1800XT: 7 von 15 Games
*Ähm*, bist wo auch so einer der über 100fps braucht bis es als flüssig zählt, sag mal wo hast du deine Grenze das selbst 50fps nicht als flüssig gelten ?!
 
nee Crossfire hat noch niemand gesehen !

aber da ATI mom ja erstmal X800/850 karten ( die keiner mehr will ) für Crossfire Baut ( wenns dann mal kommt !? ).
ist es erstmal egal, und das ich bei Crossfire eine Richtge und eine " Dummy " Karte kaufen muss, ist murks !

bei NV kann jede der beiden Karten auch einzelln betrieben werden !

na klar, ich kann mit 2 Autos ( NV ) 200 fahren, und mit einem ( ATI )mit Anhänger 205 , aber wenn mir denn eines kaputt geht !?!?!?! ( bei ATI hab ich dann einen hänger ! ):freak:
 
NVFANBOY schrieb:
nee Crossfire hat noch niemand gese...... laber laber ...

Das kann unmöglich dein Ernst sein, was du hier absonderst. :o Es sei denn, du willst hier nur den Flamewar so richtig in Gang bringen. Aber auch in diesem Fall bist du nicht besonders gut.
 
NVFANBOY schrieb:
bei NV kann jede der beiden Karten auch einzelln betrieben werden !

na klar, ich kann mit 2 Autos ( NV ) 200 fahren, und mit einem ( ATI )mit Anhänger 205 , aber wenn mir denn eines kaputt geht !?!?!?! ( bei ATI hab ich dann einen hänger ! ):freak:
Und du solltest dich evtl. mal vorher informieren vor du etwas von dir gibts von dem du keine Ahnung hast, Danke. Denn deine Aussage stimmt hier nehmlich nicht!
 
was stimmt nicht ?

es ist nunmal so, das es bei Crossfire eine Master und eine Slave karte gibt, und nur so funsst es !

sagt sogar ATI !
 
Ich bitte Euch. :lol:

Beide Top-Modelle verfügen über etwa identische Leistung mit leichten Vorteilen zugunsten der X1800. Diese kann zudem noch mit besserer Qualität punkten hat allerdings Nachteile in Bezug auf Baugröße (2-Slot), Lautstärke sowie Stromaufnahme.

Es wird nun an ATI's Preispolitik sowie dem Treibersupport liegen, ob die Karte ein Erfolg wird.

Btw., wer sich von Flamern provozieren lässt ist auch nicht viel besser... ;)
 
canada schrieb:
Und du solltest dich evtl. mal vorher informieren vor du etwas von dir gibts von dem du keine Ahnung hast, Danke. Denn deine Aussage stimmt hier nehmlich nicht!


Du solltest dir mal das hier mal ganz gut durch lesen und dann mal darüber nachdenken was du geschrieben hast!
 
sowohl die crossfire- als auch die normale karte können für sich allein arbeiten sowohl gleichzeitig als auch allein in einem pc.
was soll also die geschichte vonwegen auto mit anhänger? funktioniert sli bei nvidia seit neustem mit einer karte? :D

zudem hatte nvidia nun ja schon einige monate um an sli rumzuschrauben und erst mit den serie-80-forcewares werden so einige mankos beseitigt, an die bei crossfire nicht mal zu denken ist.

für mich kommt keine der beiden techniken in frage, denn ein stromfresser reicht mir - und jetzt komm keiner mit "du kannst später upgraden"... ich kann später auch eine schnellere karte kaufen und was im endeffekt teurer kommt kann keiner vorhersagen.
außerdem engt das ganze imo zu sehr ein - geht alles nur mit speziellem chipsatz aus dem einen oder dem andren hause.
 
riDDi schrieb:
sowohl die crossfire- als auch die normale karte können für sich allein arbeiten sowohl gleichzeitig als auch allein in einem pc.
was soll also die geschichte vonwegen auto mit anhänger? funktioniert sli bei nvidia seit neustem mit einer karte? :D

zudem hatte nvidia nun ja schon einige monate um an sli rumzuschrauben und erst mit den serie-80-forcewares werden so einige mankos beseitigt, an die bei crossfire nicht mal zu denken ist.

für mich kommt keine der beiden techniken in frage, denn ein stromfresser reicht mir - und jetzt komm keiner mit "du kannst später upgraden"... ich kann später auch eine schnellere karte kaufen und was im endeffekt teurer kommt kann keiner vorhersagen.
außerdem engt das ganze imo zu sehr ein - geht alles nur mit speziellem chipsatz aus dem einen oder dem andren hause.


Les dir auch mal >das hier< durch!

Wenn bei nVidia eine Graka verabschiedet dann klappt die andere noch ohne probleme.

Wenn dir aber bei ATI die MASTER Karte aufwiedersehn sagt dann klappt noch die SLAVE aber nicht andersrum!

Bei ATI stehst du ohne Graka da, also ohne eine die " funktioniert" und bei nVidia zockst du einfach weiter.

JETZT VERSTANDEN?
 
entscheidender Punkt ist doch meiner Ansicht nach folgendes Problem:

Beide Karten geben sich nicht viel. Bei Auflösungen ab 1280x1024 ist der AF unterschied nicht mehr so hoch. Qualitätsunterschiede sind dann marginal. Nvidia macht hier was besser und ATI dort. Der springende Punkt ist doch aber, dass nvidias GTX schon ab 430€ zu bekommen ist und ATIs x1800xt für 599€ an den Start gehen wird. Und so schnell wird ATI die Preise sicherlich nicht auf GTX Niveau senken. Wenn man dann noch bedenkt, wie viel mehr Strom die x1800xt zieht, dann ist für mich jedenfalls klar: GTX is momentan absolute Nr. 1, wenns ums kaufen der nächsten Graka geht, denn so langsam hab ich die Schnauze voll von meiner 6600GT :)
 
polluxXT schrieb:
Ich muss sagen, ich bin von der X1600 XT vollkommen enttäuscht. Der Chip scheint ja richtig kastriert worden zu sein!

Nun ja, bisher hatte ich auf diese Karte spekuliert. Ich kauf(t)e eigentlich immer nur solche Mittelklassekarten und frage mich nun ob es das richtige ist auf eine solche Karte zu warten, wo es doch schon heute für dasselbe Geld schnelleres geben könnte?

Gibt es eigentlich noch gute Gründe die X1600 XT zu kaufen?
Wer weiß, wie es in ein paar Monaten bei den Spielen aussieht. Wie es ja schon im Artikel erwähnt wird, kann es entweder ein genialer Schachzug sein, oder der reinste Flop wie es in den derzeitigen Benchmarks zu sehen ist. Beim 3dmark kann man durchaus sehen, dass man an die 6800 Ultra herankommen kann, aber wieviel das bei den zukünftigen Spielen eine Rolle spielt, lässt sich schwer sagen. Solange Gothic III mit einer X1600 XT flüssiger (und damit mein ich auch weniger min. FPS-Werte unter 20 fps) läuft als mit einer 6800 GT und diese preislich abfällt, ists mir recht.

Man muss noch bedenken, dass der DIE dank 90 nm und 180 Millionen Transistoren (im Vergleich zu 222 Millionen und 130 nm beim 6800 GT/Ultra) doch kostengünstiger herzustellen sein muss. Die hohe Taktfrequenz mag das zwar wieder kompensieren, aber das müsste sich auch stabilisieren und Konkurrenz belebt das Geschäft. ^^
 
ThePeacemaker19 schrieb:
Les dir auch mal >das hier< durch!

Wenn bei nVidia eine Graka verabschiedet dann klappt die andere noch ohne probleme.

Wenn dir aber bei ATI die MASTER Karte aufwiedersehn sagt dann klappt noch die SLAVE aber nicht andersrum!

Bei ATI stehst du ohne Graka da, also ohne eine die " funktioniert" und bei nVidia zockst du einfach weiter.

JETZT VERSTANDEN?
nö, das einzige manko das ich im ganze artikel finden konnte, wenn eine cf-karte allein betrieben wird ist folgendes:
"Verzichten muss man beim Solo-Einsatz der CF-Edition auf die TV-Out-Schnittstelle."

nix mit grafikkarte unbrauchbar. wieso auch? schließlich ist die cf-edition beinahe baugleich, bis auf den compositing-chip!
 
Zuletzt bearbeitet:
ThePeacemaker19 schrieb:
gleicher Quote zu Master & Slave
Was hat das für eine realitätsnahe Relevanz? :rolleyes:

Wenn man sich ein SLI/Crossfire System kauft und eine Graka geht rauchen, ist man denn dann auch gewillt wirklich lange mit einer zu spielen? Ich würde eher sagen, dass man die kaputte dann ersetzt.
Und zum Rest hat riDDi genug gesagt.

Wobei ich SLI & Crossfire als ein Feature nur für Freaks halte. Argumente muss ich ja nicht nennen, sind ja weitläufig bekannt. Selbst das Upgrade Argument trifft nicht sonderlich zu.
 
LOL, ich versteh ehrlich gesagt nicht, warum jetzt immernoch irgentwelche NVIDIA - Anbeter hoffen oder glauben zu können, dass die 7800er besser sei.

Ihr müsst mal gleiches mit gleichen vergleichen. Ich mein die X1800 XT wird, wenn dann minimal teurer auf den Markt kommen als ne Nvidia. Das wiederrum ist auch berechtigt denn sie ist in allen Punkten überlegen. Sowie in niedrigen wie auch hohen Auflösungen. Außerdem zoggen die meisten nunmal auf 1280 x 1024 und höchsten AA und AF, bei Highend - Shootern.
Ich weiß jetzt versucht mir gleich wieder irgentein NVIDIA Futzi mir was an die Birne zu kloppen von wegen, ja die meisten Spielen aber bei 1024 x 768 etc....
Da werde ich antworten STIMMT, blos is mir es einfach mal schnuppe ob ich bei 1024 mit so einer Karte auf 100 oder 110 FPS zogge?!?!

Der Trend geht einfach mal auf höhere Auflösungen und somit ist man mit der ATI am längeren Strang.
Die einzigen Abzüge die man machen muss ist die Lautstärke, Stromverbrauch, sowie Hitzeabgabe. Von den ist wohl die Lautstärke das größte Übel.

Dennoch: ATI hat gewonnen, das ist eindeutig. Dennoch würde ich auf den R580 warten der im Januar kommt. Dieser wird dann warscheinlich auch 2x 7800 GTX hinter sich lassen und wieder kühler und effizienter laufen.

Grüße
Blackman
 
Zurück
Oben