Test Test: ATi Radeon X1800, X1600 und X1300

lese immer wieder das der R580 nie im leben gleich januar kommt. Der R520 hat sich doch schon so verspätet da wird der R580 wohl garantiert nicht pünktlich kommen.

Ich hab noch eine 9800 pro und will nächsten monat aufrüsten, alles. Wen ich nur mal wüsste was für eine grafikkarte! am liebsten ja ne x1800 xl, aber die muss dann noch billiger werden.

die xt ist ja zu teuer. Ob ich nun 100 frames hab oder 150 :freak:
 
@van9186

Der R580 wurde praktisch parallel zum R520 entwickelt und hatte nicht mit den Problemen des R520 zu kämpfen. Es besteht also durchaus die Möglichkeit das die neue Generation schon in absehbarer Zeit erscheint.:freak:
 
@van9186

habe gleiches problem ,
NUR WIR BRAUCHEN !! ne karte auf AGP und soeine ist momentan / ( hoffe ich )
eben noch nicht in sicht , denke aber dass was kommen wird .
 
dukeP4EE schrieb:
das ist nur auf 800x600 so wie du an meinem bild erkennen kannst :>

An der Tatsache, dass ATI in Bildqualität vorne ist, ändert dies ja recht wenig. Es aber nur ein einziger klarer Vorteil. Der Rest ist ja nahezu gleich gut / schlecht.

van9186 schrieb:
lese immer wieder das der R580 nie im leben gleich januar kommt. Der R520 hat sich doch schon so verspätet da wird der R580 wohl garantiert nicht pünktlich kommen.

Es arbeiten mehrere Entwicklerteams bei ATI. der eine kann den R520 entwickeln, der andere den R580. Auf Grund dessen, dass der R520 einige Monate zu spät erschien, kann es gut möglich sein, dass der R580 anfang 2006 erscheint.
 
riDDi schrieb:
nö, das einzige manko das ich im ganze artikel finden konnte, wenn eine cf-karte allein betrieben wird ist folgendes:
"Verzichten muss man beim Solo-Einsatz der CF-Edition auf die TV-Out-Schnittstelle."

nix mit grafikkarte unbrauchbar. wieso auch? schließlich ist die cf-edition beinahe baugleich, bis auf den compositing-chip!
Das sehe ich genauso, keine Ahnung was de ThePeacemaker19 hat :) Aber vielleicht könnte sich ja noch einer Melden der sowas getestet hat wie z.B. ein CB Mitarbeiter ...
 
Deinorius schrieb:
Wer weiß, wie es in ein paar Monaten bei den Spielen aussieht. Wie es ja schon im Artikel erwähnt wird, kann es entweder ein genialer Schachzug sein, oder der reinste Flop wie es in den derzeitigen Benchmarks zu sehen ist. Beim 3dmark kann man durchaus sehen, dass man an die 6800 Ultra herankommen kann, aber wieviel das bei den zukünftigen Spielen eine Rolle spielt, lässt sich schwer sagen. Solange Gothic III mit einer X1600 XT flüssiger (und damit mein ich auch weniger min. FPS-Werte unter 20 fps) läuft als mit einer 6800 GT und diese preislich abfällt, ists mir recht.
Genau das ist es was ich nicht verstehe: Warum setzt man so einseitig auf Shader? Auch moderne Spiele werden große und viele Texturen unterstützen und da macht es für mich keinen Sinn dort im Vergleich zur Vorgängergeneration (die X700 hatte doch noch 8 ROPs, oder?) so einseitig zu werden. Ich verlange ja keine Verdopplung, aber den Status-Quo hätte man meiner Meinung schon halten sollen. Allerdings frage ich mich, was es mit den 4 TMUs je Pixelpipeline aufsich hat. Kennst du dich da aus?
Man muss noch bedenken, dass der DIE dank 90 nm und 180 Millionen Transistoren (im Vergleich zu 222 Millionen und 130 nm beim 6800 GT/Ultra) doch kostengünstiger herzustellen sein muss. Die hohe Taktfrequenz mag das zwar wieder kompensieren, aber das müsste sich auch stabilisieren und Konkurrenz belebt das Geschäft. ^^
Keine Frage, doch kann es meiner Meinung nach noch etwas dauern bis die Preise wirklich "vernünftig" sind. Die X1600 kommt ja erst Ende November, also ist von niedrigen Straßenpreisen nicht vor Weihnachten zu rechnen. Bisdato könnte aber NVidia mit dem immer noch ausstehenden Mainstream-G70-Varianten kontern und so ATI die Suppe versalzen. Ein 12(16?)-Pixelpipes-8 ROPs-Chip könnte mit über 500 MHz und 90nm-Fertigungstechnik sehr gefährlich werden und im Mainstream kann man eh mehr Umsatz generieren als im HighEnd-Bereich. Daher ist mir dieser Mut zum Risiko schleierhaft...
 
Kann dir nur zustimmen. Würde ATI nicht die bessere Bildqualität und Avivo haben, würde ich zu nvidia wechseln. Hoff ma mal, dass es besser wird.
 
Also ich werde bei NV bleiben, die bieten mehr für wehniger Geld !

Komisch ist nur, das plötzlich HDR bei ATI besser sein soll wie bei NV, wo daoch HDR von den ATI Besitzern bis jetzt als unnütz abgetan wurd ?:evillol:
 
@polluxXT: derzeit werden in texturen noch viele sachen eingebacken, wie schattierungen oder struktur - das wird in zukunft wohl immer mehr in dynamisch dargestellt werden (normal-/parallax-mapping, specular-lighting usw.)
als gutes beispiel sei da mal der aktuelle 3dmark genannt - der strotzt nur so vor shadern und sieht grade dadurch teils zum anbeißen aus ;) nur sind die futuremark-leute eben nich grade die superhelden wenns um design geht.
 
Frage: ist 1600x1200 4AA/16AF spielbar?

UT 2004: GTX--> Ja , x1800XT --> Ja
AoE 3: GTX--> Ja , x1800XT --> Nein
SC3: GTX --> Nein , x1800XT --> Ja
Earth 2160: GTX--> Nein ,x1800XT --> Nein
Far Cry: GTX --> Ja , X1800XT --> Ja
HL2: GTX--> Ja , X1800XT --> Ja
Doom3: GTX --> Ja , X1800XT --> Nein
Riddick: GTX --> nein ,X1800XT --> Nein ( 1280x1024 4AA/16AF : GTX--> Ja, X1800 >nein
Fear: GTX --> Nein, X1800XT --> Jein
Fable: GTX --> Ja , X1800XT--> Nein
I2: GTX --> Ja, X1800XT --> Nein
CoD2 Demo!!!: GTX --> Ja , X1800XT --> Ja
BF2: GTX --> Ja , X1800XT --> Ja
Quake 4: GTX --> Ja, X1800XT --> Nein
Pacific Fighters: GTX --> Ja, X1800XT --> Nein

Fazit 2: 1600x1200 4AA/16AF spielbar?

GTX: 11 von 15 Games
X1800XT: 7 von 15 Games

LOL?
fable ist CPU Limited, laut driverheaven kann man das sogar mit ner X850XT auf 1600x1200 QM spielen........
CoD2 Demo:
Du musst beachten, dass die GTX weniger Details zeigt als die XT, weil sie nur 256MB hat, und CoD2 die texturquali dann automatisch absetnkt, damit sie in 256MB reinpasst.
Sprich man kann CoD2 nicht so messen, weil auf XT deutlich bessere Quali....
Quake4:
kann man nicht sagen, oder haste schon benches geshn? Die engine ist modifiziert, und D3 ist einfach ein für nVidia extremst optimiertes Spiel.
AoE3:
Das ist ein Treiberproblem, die X1K ist langsamer als die X8xx Serie, es ist einfach ein Driverprob, geht man nach dem trend (FEAR, FC usw. auf ATi besser) wird auch AoE3 auf XT besser laufen.........
Und sehen wir mal in die nahe Zukunft:

ElderScrolls4: Oblivion:
EXTREM VERTEXCHADERLASTIG, die XT dürfte sicherlich die GTX ausstechen........
Quake4:
Sicher ein nVidia Spiel................
FEAR:
Die XT wird um einiges schneller sein, vor allem dank dem Speicher
NFS:MW:
Dürfte unentschieden sein denke ich................
CoD2:
Die Xt wird schneller, bei besserer Quali
HL2: LC:
Die Xt ist schneller, so Driverheaven...............

Ich denke dass die Ati karte, auch dank HDR+AA die eindeutig bessere Karte für die Zukunft ist, wenn de anders denkst, sag warum.............

PS: Es ändert sich alles wenn nVidia (nächste Woche) die 512MB launcht
 
lso ich werde bei NV bleiben, die bieten mehr für wehniger Geld !

Komisch ist nur, das plötzlich HDR bei ATI besser sein soll wie bei NV, wo daoch HDR von den ATI Besitzern bis jetzt als unnütz abgetan wurd ?

Der Preis wird in absehbarer Zeit fallen, nachdem sich die ATI verückten mit überteuerten Karten zugedeckt haben.

Das einzige was ich über HDR vereinzelt (meistens von NV usern) gelesen habe ist, dass es eventuell im Multiplayer ungünstig sein kann, weil man geblendet wird. Unnütz? Die ganzen graphischen Spielereien an sich sind unnütz. :confused_alt: Der "Nutzen" besteht darin, ein Spiel schöner zu machen und das kann keiner abstreiten.:rolleyes:

Besser ist beim ATI HDR rein garnichts(eventuell mehr Präzision). Nur AA funktioniert bei ATI auch unter HDR, nachdem man mit relativ wenig Aufwand ein wenig an der Engine rumgebastelt hat. Bei NV ist das komplizierter, mehr auch nicht.:rolleyes:
 
sauron888 schrieb:
LOL?
fable ist CPU Limited, laut driverheaven kann man das sogar mit ner X850XT auf 1600x1200 QM spielen........
CoD2 Demo:
Du musst beachten, dass die GTX weniger Details zeigt als die XT, weil sie nur 256MB hat, und CoD2 die texturquali dann automatisch absetnkt, damit sie in 256MB reinpasst.
Sprich man kann CoD2 nicht so messen, weil auf XT deutlich bessere Quali....
Quake4:
kann man nicht sagen, oder haste schon benches geshn? Die engine ist modifiziert, und D3 ist einfach ein für nVidia extremst optimiertes Spiel.
AoE3:
Das ist ein Treiberproblem, die X1K ist langsamer als die X8xx Serie, es ist einfach ein Driverprob, geht man nach dem trend (FEAR, FC usw. auf ATi besser) wird auch AoE3 auf XT besser laufen.........
Und sehen wir mal in die nahe Zukunft:

ElderScrolls4: Oblivion:
EXTREM VERTEXCHADERLASTIG, die XT dürfte sicherlich die GTX ausstechen........
Quake4:
Sicher ein nVidia Spiel................
FEAR:
Die XT wird um einiges schneller sein, vor allem dank dem Speicher
NFS:MW:
Dürfte unentschieden sein denke ich................
CoD2:
Die Xt wird schneller, bei besserer Quali
HL2: LC:
Die Xt ist schneller, so Driverheaven...............

Ich denke dass die Ati karte, auch dank HDR+AA die eindeutig bessere Karte für die Zukunft ist, wenn de anders denkst, sag warum.............

PS: Es ändert sich alles wenn nVidia (nächste Woche) die 512MB launcht

zu cod 2

das ist falsch, da der bug nur bei 1600x1200 vorhanden ist. bei 1920x1200 ist wieder alles normal und das läuft auch noch rund.
 
zu hdr: find ich klasse - für multiplayer nich grade optimal aber einfach n augenschmaus.
fehlende fähigkeit hdr im framebuffer darzustellen ist mit ein grund für mich keine x800gto² zu kaufen, wenn sie denn mal verfügbar ist, obwohl das DER preisknaller ist.
 
riDDi schrieb:
@polluxXT: derzeit werden in texturen noch viele sachen eingebacken, wie schattierungen oder struktur - das wird in zukunft wohl immer mehr in dynamisch dargestellt werden (normal-/parallax-mapping, specular-lighting usw.)
als gutes beispiel sei da mal der aktuelle 3dmark genannt - der strotzt nur so vor shadern und sieht grade dadurch teils zum anbeißen aus ;) nur sind die futuremark-leute eben nich grade die superhelden wenns um design geht.
Aha! Vielen Dank. :)
 
Besonders geil finde ich bei Alternate immer die Ratenzahlung 36*18,90 Euro :D

Wer von den High end gamern hat wohl die Karte 3 Jahre, aber das bezieht sich jetzt nich auf ATI, sondern allgemein.
 
Ich finde es belustigend, wie Fans des ATI-Lagers als auch Nvidia-Lagers "ihre" Karte als die eindeutig bessere Karte hinstellen. Fakt ist, dass sich beide Karten bei entsprechend gleichwertig hoher Bildqualität nicht viel schenken, die Abweichungen liegen meist im einstelligen %-Bereich.

ATI hat dank A-AA ein effektives Pendant zu Nvidia's TSSAA geschaffen. Somit liegen die Karten momentan in Sachen Bildqualität und Leistung gleich auf. Für welche Karte man sich nun entscheidet, hängt somit von anderen Faktoren wie Lautstärke, Treibersupport und die entsprechende Leistung in den jeweiligen persönlichen Lieblingsspielen ab.

Ciao Frank
 
@duke:
bei deinem PM und einer Xtreme GTX ja, ansonsten NEIN..... Die GTX hat schon probleme bei 1600x1200, mit meiner XTPE kann man CoD2 mit 1600x1200 vergessen, und auch die GTX ist überfordert.
@franky:
falsch:
Die X1K serie hat die EINDEUTIG bessere IQ, da können selbst nVidia fanatiker nix dagegen sagen. Perf. mässig ist die XT auch um ~18% bei AA und AF und ~8% ohne AA und AF Vorne. Die 512MB GTX dürfte das jedoch zu einem 0% aufheben, und dann hat Ati die Vorteile:
HQAF
HDR+AA
AVIVO
Das sind 3 Gründe sich eine X1K zu kaufen, bei GTX sind das:
Stromsparend

Denn sonst hat die GF keine Vorteile.
Also bleibt für einen NEUTRALEN nur die ATi karte, weil sie alles hat was die GTX und nur noch besser ;)

PS:
Nicht dass ich ein ATi fan bin, ich warte auf X1800XT vs 7800GTX/512MB und entscheide dann, weil beide haben ihre Vorteile.
Die GTX wird, slebst wenn sie das nciht mehr mitbekommen wird, Vorteile bei langen shadern, aber ES4 wird auf ATi karten VIEL besser laufen, und da ES4 und CSS atm die einizen Spiele sind die ich in zukunft spielen werde, werde ich danach entscheiden.....
 
wenn nvidia nicht die winkelabhängigkeit aus ihren karten raustreibern kann, dann hat ati das eindeutig bessere af.
hab mal ein ani-gif angehängt, für alle die meinen "ich seh da keinen unterschied" :lol:

erstes bild 7800, zweites x1800 - falls hinsehn UND lesen zu viel auf einmal ist ^^
 

Anhänge

  • 7800-x1800-afcomp.gif
    7800-x1800-afcomp.gif
    114,2 KB · Aufrufe: 844
weis ned obs dem Author schon ma gesagt wurde (wollt ned 17 seiten dafür durchgrasen ^^), aber ich glaub bei

Nach sorgfältiger Überlegung and mehrfacher Analyse

ist ein kleiner Fehler ^^

ich mag ja englisch auch ganz dolle, aber hier passts halt ned ;)
 
Zurück
Oben