Test Test: ATi Radeon X1800, X1600 und X1300

Also, ich habe bei bekannten ungefär genauso viele ATI Karten verbaut ( auch besorgt ) wie NV !
zur zeit der "legendären " FX serie hab ich den leuten ATI Katen ( 9550/9600/9800 ) verbaut ( weil besser wars ! ) hatte aber selber eine 5900xt verbaut !

aber seit der 6600GT/6800GT habe ich dann aus Preis Leistungs sicht diese empfohlen!

ich selber sehe noch keine grund sein geld für eine 7800 oder 1800er Karte zu verplämpern ! ( ausser "er" steht nicht wenn der Bench nicht gut ist ! )<< aber da glaube ich ist es egal was man sagt, wenn der Nachbar auch nur 1fps mehr hat, kommen die nicht in den schlaff !!!!:evillol:

ich selber habe gerade erst vor 2 tagen meine 6600GT gegen eine nun bezahlbare 6800GT ( 239,-€ ) karte getauscht!
mein Limit bei grakas ist und bleibt 250,-€ !!

und eines muss mal klar sein, es wird noch sehr lange dauern, bis wieder eine karte vom schlage der GF2MX kommt, die so lange ihr Geld wert war !

und zu dem völlig überflüssigen ( ausser wieder bei Bench süchtigen ) SLI/Crossfire kann ich nur sagen, schneller kann Geld nicht verbrannt werden!
wer 1000,-€ in ein 6800GT SLI Pack gesteckt hatte, war sicherlich glücklich als die GTX drausen war, weil die konnt mehr für weniger !
 
Zuletzt bearbeitet:
NVFANBOY schrieb:
Also, ich habe bei bekannten ungefär genauso viele ATI Karten verbaut ( auch besorgt ) wie NV !
zur zeit der "legendären " FX serie hab ich den leuten ATI Katen ( 9550/9600/9800 ) verbaut ( weil besser wars ! ) hatte aber selber eine 5900xt verbaut !

aber seit der 6600GT/6800GT habe ich dann aus Preis Leistungs sicht diese empfohlen!

ich selber sehe noch keine grund sein geld für eine 7800 oder 1800er Karte zu verplämpern ! ( ausser "er" steht nicht wenn der Bench nicht gut ist ! )<< aber da glaube ich ist es egal was man sagt, wenn der Nachbar auch nur 1fps mehr hat, kommen die nicht in den schlaff !!!!:evillol:

ich selber habe gerade erst vor 2 tagen meine 6600GT gegen eine nun bezahlbare 6800GT ( 239,-€ ) karte getauscht!
mein Limit bei grakas ist und bleibt 250,-€ !!
ACK.

NVFB schrieb:
und eines muss mal klar sein, es wird noch sehr lange dauern, bis wieder eine karte vom schlage der GF2MX kommt, die so lange ihr Geld wert war !

GF2MX war sein Geld wert?
 
ThePeacemaker19 schrieb:
Es gibt einfach leute dir brauchen sowas nit. Also lasst sie doch schreiben was sie wollen die einen meinen das die anderen was anderes also.

Pssst
diejenigen sagen "sowas brauch ich nich" oder melden sich garnicht zu wort.

wer jetzt irgendwelche auffallend schlechten punkte bei den grafikkarten hervorheben möchte (aka flamen) der tut das sowieso.
was ich mal ankratzen möchte:
"Gemessen wird die Gesamt-Stromaufnahme des Testsystems" ist zu beachten, zudem sieht der graph folgendermaßen aus:
CB-Test
da heißt es:
Last:
nVidia GeForce 6800 Ultra 208
ATi Radeon X1800 XT 206
nVidia GeForce 7800 GTX 204

ATi Radeon X850 XT 192
ATi Radeon X850 Pro 190
ATi Radeon X1800 XL 186
nVidia GeForce 7800 GT 177


das macht im absoluten highend-sektor 2W mehr bei ati, eine stufe drunter sinds auch grade mal 9 - und immernoch weniger als eine x850pro!
der eindeutige unterschied findet sich im idle-modus, allerdings laufen die karten derzeit noch mit volldampf im leerlauf - das sollte sich mit besseren treibern eigentlich geben.

das gleiche gilt eigentlich für die temperatur:
2° mehr, die x1800xl fällt im vergleich zur 7800gt wieder weiter zurück, aber das ist absolut im rahmen, denn die x850pro liegt erneut auf gleichem niveau! und darüber hat sich keiner aufgeregt.

recht geben muss man den meckerern bei der lautstärke: die karten SIND lauter, und zwar 3,5 dezibel für die x1800xt und und 4,5 dezibel für die x1800xl. ein hörbarer unterschied, vor allem wenn man bedenkt, dass die dezibel-skalar logarithmisch verläuft.

van9186 schrieb:
ich glaube es macht keinen sinn den R520 zu kaufen wenn der R580 sowieso bald kommt. Was würdet ihr denn machen wenn ihr noch eine 9800pro hättet? jetzt 7800GT kaufen und bis zum R580 lassen und dann wieder zu ATI?
es macht sicherlich sinn, ati wird nicht in 2 monaten eine neue kartengeneration raushauen, das wäre wirtschaftlich äußerst bedenklich.
so bleibt dann reichlich zeit, um genügend silizium für einen hard launch zu produzieren.
 
BodyLove schrieb:
GF2MX war sein Geld wert?

genau, welche Games Lebenserwartung hat eine Garka Heute ?

mit der 2MX konntest du 3 jahre überbrücken ! << was nicht nur an der Hardware lag, sonndern auch an der inovationslosigkeit der Programierer !

Übriegens nicht die FX serie war NV´s erste Totgeburt sonndern die GF3 serie !
 
NVFANBOY schrieb:
genau, welche Games Lebenserwartung hat eine Garka Heute ?

mit der 2MX konntest du 3 jahre überbrücken ! << was nicht nur an der Hardware lag, sonndern auch an der inovationslosigkeit der Programierer!

Dieses Prädikat verdient imho eher der R300.
 
hl2 geht ja auch noch mit der 9800pro, aber spiel mal die neuen spiele wie cod2, fear oder was da noch alles kommt mit der 9800pro und 4AA 16AF auf 1280x1024. Das ist nicht mehr spielbar.

Die einen sagen der R580 kommt januar raus (wurde parallel produziert und scheint fast fertig zu sein) die anderen sagen wieder niemals in 2 monaten schon usw. Könnt ihr euch mal einigen?:freak:
 
genau, welche Games Lebenserwartung hat eine Garka Heute ?

mit der 2MX konntest du 3 jahre überbrücken ! << was nicht nur an der Hardware lag, sonndern auch an der inovationslosigkeit der Programierer !

Übriegens nicht die FX serie war NV´s erste Totgeburt sonndern die GF3 serie !

Die GF2MX hatte zwar ein gutes Preis Leistungs Verhältnis, war aber nicht wirklich so der Bringer. Ich war relativ enttäuscht, als 2 Monate nach dem Kauf Mech Warrior 4 geruckelt hat. :rolleyes: Allerdings hat sie bei Aquanox noch recht gut mitgespielt.

Die R3XX Generation kommt nun einfach an ihre Grenzen.

PS: Wie mache ich dass, dass beim Zitat auch der Name des Zitierten dabei steht?
 
256MB Radeon X1800XL - 439,-
256MB Radeon X1800XT- 539,-
512MB Radeon X1800XT - 599,-

preise von alternate.de
 
nur mal so am rande.. ich denke nicht das es so grosse unterschiede zwischen NV und ATI geben kann. die kochen alle nur mit wasser...

ATI und NV diese entscheidung ist sicherlich mehr glaubenskrieg als alles andere...
ich kann vorallem nicht verstehen wie man sich so krass über dafür und dagegen auslassen kann ohne beide karten mal parallel im selben system getestet zu haben. ich bin ein freund von NV gebe ich offen zu muss aber auch sagen das ich die ATI im Laptop nicht schlecht finde dem zufolge ist es eine frage des Glaubens und evt. noch des Geldbeutels.

meiner meinung nach geht das alles in die selbe richtung wie die frage intel oder amd... alles eine frage der pers. einsatzgebieten und prefärenzen...

das einzige was ich wirklich als sicher empfinde in dem Thema ist die Tatsache das es immer wieder neue karten geben wird egal von wem oder welche besser ist. wer bock und geld hat kauft wer nicht nimmt halt abstirche in Auflösung leistung oder Bildqualität in kauf...

so long
hardball
 
Danke sehr!:D
 
BodyLove schrieb:
350-400Watt würde wohl bei den meisten ausreichen, sofern man keinen P4EE besitzt.
Naja, es wird aber eng. Die X1800 XT frisst immerhin ca. 200 Watt. Man darf ja nicht von der Maximalpower ausgehen, sondern muss die Combined-Power nehmen und da sind 180-220 Watt, selbst bei guten Netzteilen, knapp dran...
 
Zuletzt bearbeitet:
wenn ich mir die Preise so anschaue, dann wird mir echt anders.

599€ - das waren mal fast 1200DM. Noch vor einigen Monaten habe ich mir für 700€ den Rechner zusammengebaut, der in meiner Signatur steht. Ich frage mich, wie man eine Karte für 600€ anbieten kann, wenns NVidias Konkurrent, die 7800GTX, schon ab 429€ gibt. Und die beiden Karten nehmen sich echt nix. Das sind so eben mal 170€ Preisdifferenz.

Also irgendwie macht ATI da was falsch
 
polluxXT schrieb:
Naja, es wird aber eng. Die X1800 XT frisst immerhin ca. 200 Watt. Man darf ja nicht von der Maximalpower ausgehen, sondern muss die Combined-Power nehmen und da sind 180-220 Watt, selbst bei guten Netzteilen, knapp dran...
tut sie nicht!
das gesamte system verbraucht ca. 200W, lies doch mal richtig!
man kann von ca. 90W für graka und cpu ausgehen, das restliche system knappst hier und da das ein oder andre watt noch ab.
weil ein netzteil aber bei maximallast keine stabilen spannungen liefert und durch die transformation ein gewisser teil der energie verloren geht (wirkungsgrad) kann man von ~400W ausgehen, die man schon haben sollte. ein gutes 350W wirds in den meisten fällen aber weiterhin tun! probleme kriegt man nur, wenn die einzelnen komponenten die 5- und 12V-lane jeweils zu stark belasten.
 
Zuletzt bearbeitet:
canada schrieb:
Desweiteren was hast du gegen 16Pipe?! ATi hat doch gezeigt das man mit 16Pipe genauso viel erreichen kann wie mit 24, also wo ich dein Problem, ich wurde zugar ne 8Pipe GraKA nehmen wenn sie die Leistung hat!


pwned! würde ich sagen :daumen: :p
 
Hi Hi,
also was ich mal loswerden muss ist, dass es immer noch DirectX 9 ist. Egal ob b oder c,
mal ehrlich, die Effekte usw. ist doch seit der 9700er Reihe etwa gleich. Ich finde, dass die Karten ab dato bis heute nur schneller geworden sind. Ich habe eine 9800Pro. Ich zähle mal die Games auf, die nicht so gut laufen auf High und 1024er Auflösung auf ner 9800: BetOnSoldier Single Player, COD2 mit DX9,NFSU2(ist so),CRC2005 Rally, also, nichr viele Spiele. Chron. of Riddik und das neue Starshiptroopes läuft wirklich sehr gut damit, und bei Doom 3 ist eine 9800Pro schneller als eine 5900FX ! Also meine Meinung ist, wer schon eine akzeptable DX9 Karte ala 9700 o. 9800 Serie hat, der warte lieber noch ein Jahr bis zum nächsten DirectX !!!
Es ist doch so;)
Denn es wird bald kommen, DX10 oder DXnext, wie auch immer es heisen wird.
LG
 
Nurmal so als Info:

www.hardocp.com schrieb:
Shader Model 3.0 Done Right?
ATI has been selling the "Shader Model 3.0 Done Right" slogan along with the launch of their Radeon X1000 line of video cards. (Which we still have not seen for sale without delayed delivery.) ATI proclaims that they have done Shader Model 3.0 "right" by improving dynamic branching performance and turning batches of pixels into threads. However, with some recent news that has come to light we wonder if this slogan is really correct.


According to The Tech Report, the Radeon X1000 series lack a Vertex Shader 3.0 feature called "Vertex Texture Fetching." Vertex Texture Fetching is useful when you need a vertex shader to read from texture memory. There are certain 3D effects which can benefit from this ability such as true dynamic displacement mapping. Now, this 3D effect itself may not be currently used in current games, and in fact may not even be used until the next generation of DX10 video cards. However, the case here is that ATI is claiming they have done Shader Model 3.0 "right," yet they are missing an official Shader Model 3.0 feature. This all seems a bit misleading. How can you claim to do Shader Model 3.0 right and then leave out a feature of the specification? The GeForce 6 and 7 series from NVIDIA supports this feature. So where does that leave ATI? Have they really done Shader Model 3.0 right or not?

It does appear that a workaround is possible. However this does put more work on the shoulders of the game content developer instead of exploiting an easy Shader Model 3.0 feature in their code. Isn’t the point of standards and Shader Model 3.0 to allow game content developers and programmers a standard API among graphics cards to make their job a little easier?

This may not be such a big deal if this particular 3D feature is never exploited until the next generation of video cards. But that isn’t the point. The point here is that ATI has claimed to do Shader Model 3.0 "right," and from what we have seen today, maybe it isn't so "right" at all. “Shader Model 3 The ATI Way?”

und

www.techreport.com schrieb:
Radeon X1000 series lacks vertex texture fetch
by Scott Wasson - 12:06 pm, October 6, 2005

This question came up in the late stages of writing my Radeon X1000 series review, and I just got confirmation from ATI yesterday. Turns out that the vertex shaders in the Radeon X1000 series GPUs don't support a notable Shader Model 3.0 feature: vertex texture fetch. As it sounds, this capability allows the vertex shaders to read from texture memory, which is important because texture memory is sometimes treated as general storage in programmable GPUs. Vertex texture fetch is useful for techniques like displacement mapping, where the vertex and pixel shaders need to share data with one another.

I asked ATI's David Nalasco about this issue, and he suggested a possible workaround for this limitation:

No, vertex texture fetch is not supported. However, since the X1000 family does all pixel shader calculations with FP32 precision, just like the vertex shader, it is possible to get the same results using the render to vertex buffer capability. Basically, you do a quick pre-pass where you render to a special linear buffer in which each pixel represents a vertex. Textures can be used to modify each vertex through the pixel shader, and the result is then read back into the vertex shader. The result is fast vertex texturing with full filtering support, without requiring any special hardware in the vertex shader engine.

Note that render to vertex buffer is possible in R4xx as well, but is limited to FP24 which could cause precision issues in some cases.

Such a workaround would likely involve a performance penalty, but I doubt it would be a major hit. The larger issue is probably just the fact that the workaround would require special consideration from developers, because the GPUs lack a straightforward vertex texture fetch capability.

ATI assraped. :D

mfg Simon
 
Zurück
Oben