Test Test: ATi Radeon X1800, X1600 und X1300

Wenigestens mal eine sinnvolle Karte im Bezug auf AF / AA , denn wer braucht schon eine Grafikkarte, die zwar AA / AF unterstützt, aber bei 6X/8X Nutzung dann so dermaßen im Bereich Performance zusammenbricht, dass es indiskutabel wird.

Ich freue mich auf die ersten ausgelieferten Karten mit aktuellen Treibern und teilweise evtl. überarbeiteten Lüftern :)
 
Einigen ist sicherlich wohl nicht ganz klar, dass man durch die Übertaktung "mal eben" die Garantie verliert? Das ist auch mir bewußt, da ich meine X800 XT PE übertaktet fahre. Das Argument, dass der Hersteller das dann eh nicht merkt, zählt nicht. Und natürlich wäre eine mit 620 MHz getaktete 7800 GTX dann wohl schneller als eine X1800 XT, eine 550 MHz getaktete Version wohl auch :rolleyes:. Nur, sicherlich werden die wenigsten diesen Takt mit Standardkühlung vertragen.

Aber ein Vergleich einer X1800 XT mit einer ASUS TOP Edition @ 490 MHz Chiptakt oder einer XFX mit ähnlich hohem Takt über Referenwert ließe ich durchgehen, sind das doch vom Hersteller garantierte Taktraten.

Die Verzögerung des R520 hin oder her, die letzten Wochen und Monate hat ATI sicherlich nicht damit verbracht, am Design des Chips nochmals massiv herum zu doktern, sondern um den Chip mit angepeilten Taktraten in ausreichend hoher Anzahl pro Waver herzustellen. Das war wohl das Hauptproblem. Von daher verstehe ich nicht so ganz den Vorwurf, dass ATI in den 2-3 Monaten seit dem 7800er Launch doch bitte einen Chip liefern soll, der viel schneller sein muss. Wer meint, dass 2-3 Monate ausreichen, um einen Chip in der Komplexität neu zu designen, der irrt wohl.

Aber: Dennoch ist der R520 keineswegs perfekt geworden. Der Stromverbrauch im Idle Mode ist unter aller sau und die X1800 XL mindestens 50€ zu teuer angesichts der Leistung. Weiterhin ist es natürlich nicht gerade toll, dass die Karten erst Ende Oktober / November in ausreichenden Mengen verfügbar sein werden, das hatte nVidia mit der 7800er wesentlich besser hinbekommen, wie auch wohl die Verlustleistung und die damit einhergehenden nötigen Kühlmaßnahmen.

Es ist eben nicht alles Gold was glänzt, aber ich bin trotz allem ganz zuversichtlich, was den R580 angeht. ATI: Soll knapp erfüllt, mehr aber auch nicht.
 
Zuletzt bearbeitet:
Ich hab mich auf die RV530 gefreut, aber beeindruckt bin ich von der Leistung absolut nicht. Wie kann diese Karte (laut Benchmarks bei Anandtech) trotz gleich vielen/mehr Pixel-Pipelines und höherem Takt teilweise sogar langsamer sein als eine 6600 GT bzw. X800. Bremst die schwache Texturleistung so stark?

Das beantwortet auch unser Artikel;)
Dies war wohl eine Designentscheidung. Aufgrund der allgemein sehr schnellen Shader und den 12 Pixel-Pipelines, kann die X1600-Serie Shader schneller berechnen, als die 6600GT und Konsrten, dort ist sie deutlich überlegen.

Jedoch hat die X1600 nur vier ROPs und ebenso viele TMUs, wo die 6600 GT mehr hat (auch vier ROPs, aber 8 TMUs). Damit kann sie pro Takt deutlich weniger Texturen fertigstellen als die 6600GT.

Ergo:
Shaderlastige-Spiele: X1600
Texturlastige-Spiele: 6600GT
 
Ich denke, dass bei den Treibern noch extrem viel drinnen ist. Jene Spiele die immer gebencht werden, wissen schon ganz gut mit der neuen X1800 umzugehen, seltenenre so gut wie garnicht. Das wird schon mit der Zeit. Hatten wohl immer noch Stress die Jungs.
 
Leute jetzt denkt mal nach! War würde wohl passieren wenn man der 7800GTX auch mal 512MB spendieren würde worauf die ja auch ausgelegt ist?!

Ich glaub da würde der vorsprung den ATI bei wenigen spielen, wenn man das denn vorsprung nennen kann, wieder weg fallen.

ATI hat das beste drauf gemacht wie damals nVidia mit der 5900Serie.

Kann nur besser werden!
 
Ich weiß nicht ob es schon erwähnt wurde: Ich finde, die X1300 Pro muss unbedingt 1024x786 gebencht werden und dann am besten gegen etwas ältere Karten. Die Tabelle wirkt doch leicht verzerrt. Oben SLI Geschosse und unten Lowend. Bei hardwarezone.com schneidet die X1300 Pro z.B. garnicht so schlecht ab, da sie auch mit passenderer Konkurrenz getestet wurde.

Mich würde übrigens eine Liste von Spielen die eher texturlastig oder eher shaderlastig sind interessieren.
 
Wolfgang schrieb:
Das beantwortet auch unser Artikel;)
Dies war wohl eine Designentscheidung. Aufgrund der allgemein sehr schnellen Shader und den 12 Pixel-Pipelines, kann die X1600-Serie Shader schneller berechnen, als die 6600GT und Konsrten, dort ist sie deutlich überlegen.

Jedoch hat die X1600 nur vier ROPs und ebenso viele TMUs, wo die 6600 GT mehr hat (auch vier ROPs, aber 8 TMUs). Damit kann sie pro Takt deutlich weniger Texturen fertigstellen als die 6600GT.

Ergo:
Shaderlastige-Spiele: X1600
Texturlastige-Spiele: 6600GT
Ja, das war mir schon klar, aber ich wollte das irgendwie nicht wahr haben. :p
Bin doch mal gespannt, wie sich die Karte bei Gothic III (denn darauf kommt es bei mir an) anstrengt. ;) Warten auf neuere Treiber muss man so oder so, da auch Avivo (neben der besseren Bildqualität der beste Kaufgrund für ATI ;)) noch nicht komplett integriert ist.

Ein weitaus interessanterer Punkt bei den neuen Karten, finde ich, wie es mit den minimalen FPS aussieht. Denn wenn sie effizienter arbeiten, müsste diese vielleicht auch höher liegen, als bei nvidia. Schließlich zählt die durchschnittliche FPS nicht gerade, wenn während des Spieles hin und wieder kurze Leistungseinbrüche passieren. Bis dato war da eher nvidia etwas besser. Da könnte ATI noch um einiges punkten. :)

Doch der Stromverbrauch gefällt mir wirklich nicht. Ich nehme mal an, ihr habt bei der Messung im Idle-Betrieb mit vollem Takt gemessen, denn die neuen bieten ja niedrigere Taktraten und abgeschaltete 3D im Desktop-Betrieb. Da sollte der Verbrauch weit niedriger liegen. Unter Last lässt es sich noch ertragen, ist aber dennoch nicht das gelbe vom Ei.
 
A. Am Rande: Auch wenn dererlei aktiv geübter Sozialismus meine eigenen zukünftigen Kaufchancen bei Ebay verringert;)

- es wurden auch schon neuwertige 7800 GTX mit Rechnung und Garantie für nur 334,- Euro bei Ebay ersteigert; mal sehen, wo sich die ersten X1800XT in 4 Wochen einpendeln werden.

http://cgi.ebay.de/ws/eBayISAPI.dll?ViewItem&item=5233104168&rd=1&sspagename=STRK%3AMEWA%3AIT&rd=1


B. Und Danke an Parwez für die News auf der Frontpage. Später am Tag mal draufmachen.


C. Und wird immer komplexer das Hardware-Testen: bald wirklich Aufgabe eines größeren Teams, um möglichst umfassend alle Aspekte schon im Testplanungsstadium auch wirklich berücksichtigt zu haben.


Lösung vom Früher tut noch mehr Not, wie mir scheint:

Früher, das war für mich so - Grakatesten geschah quasi entlang eines linearen Entwicklungsstranges, war fast monokausal und ziemlich sicher unidirektional.

Was will ich damit sagen?

Es gab - und eher unreflektiert - diese eine linie

- eine festplatte mit
- einem betriebssystem
- ein mobo mit
- einer bios-einstellung,
- einer cpu,
- einem kern,
- einem ram,
- einer graka,
- einem grakatreiber
- mit "mehreren-einen" zu testenden haupteinstellungen,
- einem monitor und
- wenigen benchmarks/spielesequenzen

und klar gilt es, so kommt es mir vor, zumindest für die besten, davon in einem bewußten prozeß und reflektiertem willensakt aktiv denkerisch abschied zu nehmen:

neuerdings hängt alles mit allem zusammen. und da gilt es, dem testleser klar zu machen, warum man welchen loop gewählt hat - und nicht mehr welchen strahl.

später mehr... .
 
Zuletzt bearbeitet:
bensen schrieb:
@90 definier mal deutlich bessere bildqualität
ausser blickwinkelunabhängigeres af ist da nicht viel
flimmern bei g70 ist weg und tsaa funzt ohne probleme wo hingegen ati nachbessern muss

einziger vorteil ist 6xaa und hq af´
Du nennst die Vorteile bereits selbst,ich sagte Qualität geht mir über ALLES.

Das was du als nicht viel Unterschied bezeichnest ist sehr wohl riesig.

Vergleich mal AF der GF4 mit dem der GF7.
 
Zuletzt bearbeitet:
bad_boy schrieb:
sauron888 schrieb:
Ich versteh nciht was alle wollen.

X1800XT vs 7800GTX:

Perf. geht an ATi, sie ist mit AA und AF laut diverser tests zusammengestellt ~18% schneller als die GTX. Ohne sind es immer noch ~8%.






Wo denn schneller? Was die meisten wie es ausieht nicht mit kriegen das ATI x1800xt 512ram hat und das macht die paar fps aus, bringe jetzt nvidia ne 7800gtx mit 512 ram raus (sofort verfügber sag ich nur:D) wäre das Spiel ganz anders ausgegangen und bei den takt von 620mhz GPU lol kann ich mit euch weten die karte lässt sich max auf 50 mhz höher takten denn ist sense, nv7800gtx dagegen von 430orig. auf 550 stabl (meine zumindest*STOLZ*) tja da ist doch ganz klar wer nun wirklich marktführer ist :p

dies ist mein leistungsbild:

Frage: ist 1600x1200 4AA/16AF spielbar?


UT 2004: GTX--> Ja , x1800XT --> Ja
AoE 3: GTX--> Ja , x1800XT --> Nein
SC3: GTX --> Nein , x1800XT --> Ja
Earth 2160: GTX--> Nein ,x1800XT --> Nein
Far Cry: GTX --> Ja , X1800XT --> Ja
HL2: GTX--> Ja , X1800XT --> Ja
Doom3: GTX --> Ja , X1800XT --> Nein
Riddick: GTX --> nein ,X1800XT --> Nein ( 1280x1024 4AA/16AF : GTX--> Ja, X1800 >nein
Fear: GTX --> Nein, X1800XT --> Jein
Fable: GTX --> Ja , X1800XT--> Nein
I2: GTX --> Ja, X1800XT --> Nein
CoD2 Demo!!!: GTX --> Ja , X1800XT --> Ja
BF2: GTX --> Ja , X1800XT --> Ja
Quake 4: GTX --> Ja, X1800XT --> Nein
Pacific Fighters: GTX --> Ja, X1800XT --> Nein


Fazit 2: 1600x1200 4AA/16AF spielbar?

GTX: 11 von 15 Games
X1800XT: 7 von 15 Games
 
Leute bleibt realistisch,
ATI hat sm3 auf den neuen karten so richtig gut gemacht, also wird die X1800XT die 7800GTX in allen spielen einholen und sogar überholen, in denen die 7800GTX shader limitiert ist. Sonst aber wird es anderes rum aussehen.

Dann kommt noch, das die die X1800XT ganz schön laut und fett ist, viel frisst.
Die 7800GTX hat aber noch massiven OC spielraum und ist viel dünner.

Jede seite hat seine Vor- und Nachteile.

Auf jeden fall hab ich viel mehr von ATI erwartet, obwohl ich auch gehoft habe das sie nicht so gut wird, da ich schon vor 2monaten ne 7800GTX gekauft habe...
 
Hi,

komme aus dem Lachen nicht mehr raus !!!:lol: :lol: :lol: :lol:

was hat sich ATI den da abgekniffen ?

so wird das nix!!

erst wird der Chip weils nicht funsst Monate verschoben, dann klapts mit den 32Pipes nicht, und nun ist eine Gurke geboren !:freak:

wenn ich mich an das geblubber von den ATI FANS erinner, die an den Wunderchip geglaubt haben, und dann kommt sowas !

der Hit ist auch, das PS3.0 nach aussagen von ATI Kunden erst jetzt wichtig ist !

aber am besten ist noch, das die nicht an NV vorbeiziehen konnten!
der G70 ist ein "alter " überarbeitetetr NV40 und der ATI R520 ist was neues, und dann so eine krücke !

Was macht ATI erst wenn der G80 kommt ?

nene, ich bleib bei meiner 6800GT !
und wenn ich schon leses, das die Bildqualität besser ist, das sehe ich in nem Shooter sowiso nicht !

also weiterhin hat für mich NV die :king:

übriegens, wo kann ich den eine X1800 karte Bestellen ?:lol:

also ATI, setzen 6 !!!
 
Na wenigstens stimmt die Bildqualität bei ATI immer noch, nach dem Nvidiaflimmerflop a.k.a. G70 immerhin mal eine gute Nachricht!

Aber sonst schon nicht gerade berauschend die X1800XT und dass ATI jetzt sogar lauter ist erst recht enttäuschend!:mad:
Nvidia könnte doch jetzt klar punkten wenn sie die Flimmerei im High Quality UND Quality endlich gründlich beseitigen, zusammen mit weniger Lärm wäre das doch die deutlich interessantere Karte dann!
Oder wenns mit Treibern alleine nicht geht eben beim G72 ausbügeln.

Übrigens finde ich es lustig wie sich keine Nase mehr daran stört wie sinnlos diese Highendkarten eigentlich sind bei längst viel zu lahmen CPUs, Hauptsache die neuste Karte drin scheint das Motto.:rolleyes:
Viele Signaturen sind schon unfreiwillig komisch einfach, poppeligen A64 3200+ oder gar Pentium drin aber mit stolzgeschwellter Brust 7800GTX fett reinschreiben.:lol:

Ich klinke mich aus dem immer sinnloseren Aufrüstwahn aus, mal sehen was nächstes Jahr mit G80 und R??? kommt, hoffentlich mal wieder Bildquali UND wenig Lärm und mit Dualcoretreibern und/oder besseren CPUs als Partnern dann vielleicht sogar mal wieder sinnvoll zum aufrüsten.
 
Simon schrieb:
Das Fazit hätte auch kürzer ausfallen können: lol ATI. :D

X1800XT vs 7800GTX: Die vielleicht bessere Bildqualität kann die massiven Defizite in der Roh-Performance und dem Stromverbrauch bzw Lautstärke kaum wettmachen.

Welche Defizite? Ich sehe da keine massiven Defizite? Bis auf OGL-Spiele ist die Leistung soweit gleichauf.
Simon schrieb:
Dazu kommt noch, dass die guten G70 GTX in den meisten Fällen statt 430 MHz auch 500-530 MHz gehen - ein so hohes OC-Potenzial rechne ich dem R520 mit den schon hohen 625 MHz Chiptakt trotz 90 nm Fertigung nicht zu, auch wenn im Artikel kein Wort zum Thema Overclocking gesagt wurde. (einziger Kritikpunkt)
Exakt. Man weiss nicht, wieviel Luft die Karten noch nach oben haben!?!

Simon schrieb:
Dazu kommt, dass die 7800 GTX schon gut verfügbar ist, mit Stückzahlen der X1800XT im Handel rechne ich nicht vor Anfang/Mitte November. Vom Preis ganz zu schweigen.
War das überraschend? Nein. Der Grund, warum der G70 so breit verfügbar war, war der, dass der G70 keinen Konkurrenten hatte. Ich denke nicht, dass NV dies bei den zukünftigen High-End-Chips nochmal so wird wiederholen können.

Simon schrieb:
X1600XT vs Rest: Einfach nur ein Desaster. Leistungsmäßig auf dem Niveau einer Geforce 6800 ohne GT ohne alles, welche man schon für 150-200 Euro an jeder Ecke nachgeworfen bekommt. :rolleyes:
Vor der Leistung muss sich nichtmal meine 6600 GT auf 575/575 MHz verstecken...

mfg Simon
Ack.
 
Tja, was soll man dazu sagen...? Der Wahn geht munter weiter und auf echte Innovationen
darf der Endverbraucher weiterhin warten. Gilt sowohl für ATI, als auch NVIDIA!
 
NVFANBOY schrieb:
nene, ich bleib bei meiner 6800GT !
und wenn ich schon leses, das die Bildqualität besser ist, das sehe ich in nem Shooter sowiso nicht !

Eine Brille würde dir helfen.

:D

Der Rest braucht nicht kommentiert werden,dein nickname sagt alles.

:freak:
 
genau !!!!

ärgerlich nicht, als ATI FAN so lange zu warten, und dann so ein Flop !:D
 
also ATI übertrifft sich immer mehr !

jetzt verkaufen die ihre Schrottchips aus der Produktion auch noch !

also schnell zuschlagen ATI jungs !:freak:
 
Ey leute das sieht man wirklich kaum die Bildqualy! Wenn ich im Blutrausch durch F.E.A.R. laufe dann interessiert mich nicht ob das bild 0,0008% schlechter ist als bei ATI da will ich durchlaufen und Ballern mehr nit!

ATI hat scheiße gebaut ganz einfach!


So spät und dann nit gewaltig schneller als nVidia!

Lauter und frisst mehr Strom und wer denkt in SM3 ist sie schneller lol wer sagt das?

Man lernt mal lesen und dann könnt ihr kommentare schreiben!

Von den Features sind beide jetzt gleich auf. Auch mit der 7800GTX ist AA bei anpassung von Games mit HDR-Rendering möglich. Also nix was ATI zuerst hatte.

Also ATI Fanboys da bleibt euch nur eins übrig :heul: und dann nochmal über den preis :heul: und über die verfügbarkeit :heul:

Abschluss : :volllol:
 
Zurück
Oben