Test Test: ATi Radeon X1800, X1600 und X1300

Avivo nicht mit Purevision vergleichen. Bietet grundlegend das gleiche an, aber nur die eine Hälfte und nicht den gesamten Umfang wie ATI.

nvidia bietet nur das Sahnehäubchen an, wohin ATI den ganzen Kuchen anbietet, wobei H.264 und allen voran Encoding/Transcoding erwähnt gehört. Stellt sich nur noch die Frage wie alles realisiert wird.
 
kann mir eigentlich einer sagen wann so ungefähr die 7600 serie oder die 7800 non kommt?
nur so auf das quartal ob noch dieses jahr oder erst nächste brauch nähmlich ne neue graka
 
Tja, also ein sehr guter Test (einer von vielen die es noch zu lesen gilt). Nur frage ich mich wie ihr bei der X800XL auf satte 87°C kommt?! Das hab ich bei meiner noch nie geschafft, obwohl die übertaktet ist?
Seit ihr sicher, das da kein Fehler unterlaufen ist?:freak:
Ansonsten muss ich sagen: Endlich wieder Konkurrenz:king: hehehee... gut gemacht ATi!


bye Hübie
 
Ich sag es mal so, die 7800GTX hat schon bei standart takt in manchen systems mehr als 7500 punkte erreicht. Den rest kann man sich eigentlich denken... Also wartet mal auf benchmarks von dem Endbenutzer ;)
 
BodyLove schrieb:
@ThePeacemaker19

Ich achte stark auf die Bildqualität! So what?
hardocp2gh.jpg


Siehst du an den Bildern wirklich kein Unterschied?

Also wer da keinen Unterschied sieht, der ist definitiv nVidia Fanboy oder einfach nur blind. ATi hat die bessere Bildquali das steht fest. :o
 
NVFANBOY schrieb:
erst wird der Chip weils nicht funsst Monate verschoben, dann klapts mit den 32Pipes nicht, und nun ist eine Gurke geboren !:freak:
naja Gurke? ich weiß ja net, ob du zwischen zwei Systemen einen Unterschied in der Geschwindigkeit erkennst. selbst die NV befürworter sehen ein, dass sich die beiden Chips nicht sooo viel geben.

NVFANBOY schrieb:
aber am besten ist noch, das die nicht an NV vorbeiziehen konnten!
der G70 ist ein "alter " überarbeitetetr NV40 und der ATI R520 ist was neues, und dann so eine krücke !
ich hab noch keine Chips designt und du glaube ich :cool_alt: auch nicht. aber etwas neues zu machen ist normalerweise schwieriger, als das Bekannte wiederaufzulegen.

NVFANBOY schrieb:
Was macht ATI erst wenn der G80 kommt ?
*Hellsehermodus an* wahrscheilich selbst einen neuen Chip rausbringen :D:D:D *Hellsehermodus aus*

NVFANBOY schrieb:
nene, ich bleib bei meiner 6800GT !
und wenn ich schon leses, das die Bildqualität besser ist, das sehe ich in nem Shooter sowiso nicht !
dann würde ich dir eine Geforrce 6200 oder ATI X300 empfehlen, dann kannst du auf 640x480 mit niedrigsten Details und Effekten und ohne AA und AF flüssig spielen nehme ich an. Notfalls eine 6600 die sollte für deine Ansprüche auf jeden Fall reichen.;)

selbst wenn man wie ich auch eine NV-Karte im Rechner stecken hat, kann man großartige Propaganda unterlassen. das war einfach zu viel auf einmal

also NVFANBOY, setzen 6 !!!
 
Zuletzt bearbeitet:
triumvirn schrieb:
naja Gurke? ich weiß ja net, ob du zwischen zwei Systemen einen Unterschied in der Geschwindigkeit erkennst. selbst die NV befürworter sehen ein, dass sich die beiden Chips nicht sooo viel geben.


ich hab noch keine Chips designt und du glaube ich :cool_alt: auch nicht. aber etwas neues zu machen ist normalerweise schwieriger, als das Bekannte wiederaufzulegen.

*Hellsehermodus an* wahrscheilich selbst einen neuen Chip rausbringen :D:D:D *Hellsehermodus aus*


dann würde ich dir eine Geforrce 6200 oder ATI X300 empfehlen, dann kannst du auf 640x480 mit niedrigsten Details und Effekten und ohne AA und AF flüssig spielen nehme ich an. Notfalls eine 6600 die sollte für deine Ansprüche auf jeden Fall reichen.;)

selbst wenn man wie ich auch eine NV-Karte im Rechner stecken hat, kann man großartige Propaganda unterlassen. das war einfach zu viel auf einmal

also NVFANBOY, setzen 6 !!!

Full ack!:lol: Naja ich hab nur den Nickname gelesen und habe diesen post übersprungen ;)


bye Hübie
 
@NVFANBOY
Obwohl du hier ATI in Grund und Boden spamst, vergisst du, dass nvidia gleiches bzw. schlimmeres mit der 5800 passiert ist und da war nix dabei, was einen wirklich hätte bewegen müssen nvidia zu kaufen, was auch nützlich wäre. Anders bei ATI jetzt, wo man wenigstens besseres AF/AA bieten kann.
Und wenn du jetzt damit kommst, dass nvidia dann den 5900 rausgebracht hat (welcher auch dann noch für DirectX9 Spiele nicht gerade das Beste war), ATI hat noch den R580 in petto, welchen ATI schon im Tape-Out hat. Wieviel das nun bedeuten mag, muss man noch abwarten.
 
Hm,
also ich muss sagen, dass mich der R520 nich grad aus den Socken haut.

Bei einer so langen wartezeit, hätte ich einfach ein bisschen mehr erwartet.
 
So denn Mädels, jetzt mal mein Senf.

Was bitte hat ATi denn da in Mittelklasse zusammengebraut? 4 TMUs? Wen oder was wollen die damit beeindrucken? Eine FX5200? Also bitte: Shaderleistung schön und gut, aber die gerenderten Objekte haben schon noch Texturen. Also zumindest bei den Normalos, die nicht wie ein Giga-Kiddie die Texturen auf ein Minimum runterzwängen - aber die kaufen auch eher High-End... :freak:

Die große X1800 schaut ja ganz gut aus. Die Bildqualifeatures sind sehr lobenswert. Obwohl mal winkelunabhängiges AF eigentlich als Selbstverständlichkeit gar nicht anrechnen dürfte...das kann selbst meine 5900er.

Zusätzlich muß ich mich aber schon fragen, inwieweit die Lüftersteuerung gut implementiert ist. Ich meine, wenn der Lüfter unter Last nicht/kaum hochregelt, ist er Idle eigentlich zu schnell und somit zu laut! Ich vermisse da ein wenig Weitsicht im Artikel...

---

Bleiben die finalen Marktkarten von Sapphire, MSI & Co. abzuwarten. Die XL dürfte zB auch öfter mit 1,6/2,0er RAM erscheinen. Dafür vielleicht aber eine verbesserte Kühllösung. Am Treiber geht sicher noch was: die neue Architektur muß da erst noch reifen.
 
Naja was nützt einen ne X1800 wen sie bei qualitäts spielen aus de puste kommt das bringst ja auch nicht.


Nvidia ist und Bleibt Markt führer
 
Kann mir eigentlich mal jemand verraten, wieso der R520 312mio Transistoren hat und nur 16 Pixelpipelines? Der G70 hat "nur" 303mio Transistoren aber dafür 24 Pixelpipelines.

Kann es sein, dass da noch 8 weitere Pixelpipelines deaktiviert sind?
 
N1 Test!
Mag zwar sein das die karten ein paar FPS langsamer sind als ne 7800GTX, aber mal ehrlich, wayne interessierts? Für mich ist die neue ATI generation absolute referenz was die bildqualität angeht, besser gehts doch kaum. ich sehe da das ähnlich wie deinorius, bildqualität ist das A und O. Allein schon diese perfekten Zäune sind ein kaufgrund.
Und leute die meinen das AA und AF überflüssig sind weils eh nicht auffällt sind auch der meinung das nen XP3200+ mit 6800GT nen perfektes gamersystem ist :evillol:
Anspruchslose Gamer gibts halt immer noch, solche leute zocken auch games wie CS in 800x600 weil ihnen die grafik egal ist, auch wenn die hardware leistungsstark genug wäre.
Ich werde solche gamer nie verstehen, aber das beruht wohl auf gegenseitigkeit.
Und nur aufgrund solcher "blindfische" werden treiber "optimiert" damits ein paar FPS mehr gibt und die kiddies sich gegenseitig mit 3DMark Punkten überbieten können.
Ich spiele lieber langsam mit guter grafik als schnell auf CS Niveau.
Und dank der neuen X1k generation wird die qualitätsmesslatte wieder was höher gelegt, egal ob es den NV Fanboys nun passt oder nicht.

Allerdings stören mich 2 sachen massiv: Zum einen das die x1800XT (vorerst) nicht für AGP kommt und die kleineren modelle weder preislich noch technisch ne alternative zur x800 bzw. 9800Pro sind. die x1300 dürfte sogar erheblich langsamer als ne 9800Pro sein und zudem noch teurer. Und im leistungsbereich der X1600 gibts schon seit langem die x800 modelle, teils sogar noch günstiger und schneller.

Naja, mir persönlich ist das zwar egal, aber etlichen potentiellen kunden wohl eher nicht ;)
 
ShaÐe45 schrieb:
Also wer da keinen Unterschied sieht, der ist definitiv nVidia Fanboy oder einfach nur blind. ATi hat die bessere Bildquali das steht fest. :o

Ich kann auf diesen kleinen Bildchen auch keinen Unterschied erkennen, bin ich jetzt auch ein nVidia Fanboy? Blind bin ich nicht, das weiß ich!
 
@cE:

Schwer zu sagen. Gut möglich, daß die Shaderunits schlicht etwas komplexer sind. Volle FP-Präzision bis in die TMUs, vermeintlich komplexere AF und AA-Algorithmen, das Ringdingsbums...verbraucht alles Transis.

Ich denke nicht, daß es sich ein GPU-Entwickler leisten kann, mal eben beim High-End-Chip - dem Flagschiff - Pipes abzuschalten.
 
wazzup schrieb:
Und leute die meinen das AA und AF überflüssig sind weils eh nicht auffällt sind auch der meinung das nen XP3200+ mit 6800GT nen perfektes gamersystem ist :evillol:

Was soll das bitte heißen?

Diese Kombination ist vielleicht nicht mehr ganz up to date, doch als mein PC noch intakt war, gab es kein einziges Spiel (HL2, D3, FC, BF2...), welches ich nicht in 1280er mit 4xAA + 16xAF (ohne HDR) mit konstant ~45 Frames zocken konnte.

@ SMKpaladin

Sieh Dir die Mauer links an. Bei NV verwischen die Texturen mit zunehmender Entfernung. Außerdem noch oben das Geländer sowie rechts der Zaun. In Bewegung würde das wohl mehr auffallen.
 
Zuletzt bearbeitet:
Ich muss sagen, ich bin von der X1600 XT vollkommen enttäuscht. Der Chip scheint ja richtig kastriert worden zu sein!

Nun ja, bisher hatte ich auf diese Karte spekuliert. Ich kauf(t)e eigentlich immer nur solche Mittelklassekarten und frage mich nun ob es das richtige ist auf eine solche Karte zu warten, wo es doch schon heute für dasselbe Geld schnelleres geben könnte?

Gibt es eigentlich noch gute Gründe die X1600 XT zu kaufen?
 
Zurück
Oben