Test Test: ATi Radeon X1800, X1600 und X1300

Ich glaub, dass die karten mit nem schnelleren Prozzi beide noch mehr leisten könnten. So find ich die benches sinnlos. Aber ich verzichte auch gern auf ein paar fps, solange die bildquali stimmt.

Bitte jetzt kein kommentar zu meiner 6600er - ich hatte nicht mehr geld (schüler) - jetzt ja immerhin azubi :-)
 
Wenn alles so läuft wie ATI das gerne hätte, dann stehen die XTs ab 5 November in den Regalen der Händler. Die XL kann man schon bestellen und ist angeblich in 3-5 Tagen lieferbar, nur handelt es sich dabei noch um eine "alte" Version des R520, die sich nicht sehr gut übertakten lässt. Ansonsten hat sie aber die gleichen Features wie die XT auch und wird später dann den selben Core wie die XT besitzen.

ThePeacemaker19 schrieb:
lol die GTX ist schneller und billiger als die XT und die GT ist schneller und auch billiger als die XL! Also welche sind nun besser?

Ich kann es auch nur immer wieder wiederholen: Die Preise werden nicht derartig hoch bleiben! Die XL kann man bereits für "nur" 400€ kaufen. Das ist zwar immer noch zu teuer aber ich kann mich nicht erinnern, dass die 7800er innerhalb von 2 Tagen um 50€ im Preis gesunken sind.;) Außerdem würde ich noch auf die finalen Treiber warten, die noch was an dem Stromverbrauch und Performance ändern können. Man darf die derzeit verfügbaren Tests noch nicht als endgültig bezeichnen, sondern nur als Richtlinie benutzen. Außerdem kann man sich noch bis ins nächste Jahrhundert streiten, wer jetzt schneller ist, obwohl sich beide auf einem Niveau befinden an dem es eigentlich völlig egal ist.:freak:
 
Dual Core in unoptimierten Spielen völlig irrelevant. Ein Fx-55 ist da schneller. Darüberhinaus sind nicht wirklich viele Spiele darauf optimiert.
 
Wegen dem WGF/DX10 Geschwafel:

Das WGF 1.0 ist im Grunde nix anderes als DX9 SM 2.0. Schließlich sollen ja viele Grakas die Aero Glass Oberfläche von Vista darstellen und dafür ist es gut geeignet. Und es ist ganz bestimmt nicht das DX9L, was beim Gamestar Link von Seit 22 vermerkt ist.
WGF 2.0 oder DX10 (whatever) ist halt das, was mit dem Vista rauskommt und bis jetzt war ziemlich sicher, dass die Unified Shader damit erscheinen werden.
Wobei ich zu DX10 immer gelesen hab, dass es qualitätsmäßig weniger Neues bringen, sondern mit den Unified Shadern deutlich mehr Leistung bringen soll. Denn damit lässt sich dann bestimmen, wieviele Shader als Pixel- oder Vertex-Shader arbeiten sollen, womit nix limitiert wird.
Zu dem DX9L kann ich nicht viel sagen. Es klingt irgendwie unglaubwürdig, wobei ich noch anmerken will, das Gerücht kommt ja vom Inquirer. ;)
Wie soll das für die Graka-Hersteller aussehen. Dann kommt die nächste Graka-Generation mit DX9L Unterstützung und sobald Vista draußen ist, mit DX10 Unterstützung. Ich halt von diesem Gerücht nicht viel.
 
irgendwelche belege dafür, dass Vista ein "Spionage-Programm" ist, wie du es so schön sagst? ich denke, dass Vista nicht mehr und nicht weniger Spionage Programm sein wird, wie Xp auch.
 
@NinjaShore
Nur wird TCPA umso mehr problematisch. Bedenke, wenn sich bewahrheitet, wird man nichtmal Open Source Produkte installieren können, wenn die nicht von M$ zertifiziert sind. Da müsste man ja die ganze Software cracken, damit überhaupt etwas geht.

Das ist im Grunde schon Grund genug, Vista nicht zu installieren. Aber mal sehen, wie die Final aussehen wird.
 
und dann geht das ganze gepatche mit servicepacks wieder los und der ganze kram hier und da und die hohen unsinnigen hardwareanforderungen usw. Nene, xp ist mitlerweile gut ausgereift und das behalte ich auch bis es nicht mehr geht.
 
Deinorius schrieb:
Wegen dem WGF/DX10 Geschwafel:

Das WGF 1.0 ist im Grunde nix anderes als DX9 SM 2.0. Schließlich sollen ja viele Grakas die Aero Glass Oberfläche von Vista darstellen und dafür ist es gut geeignet. Und es ist ganz bestimmt nicht das DX9L, was beim Gamestar Link von Seit 22 vermerkt ist.
WGF 2.0 oder DX10 (whatever) ist halt das, was mit dem Vista rauskommt und bis jetzt war ziemlich sicher, dass die Unified Shader damit erscheinen werden.
Wobei ich zu DX10 immer gelesen hab, dass es qualitätsmäßig weniger Neues bringen, sondern mit den Unified Shadern deutlich mehr Leistung bringen soll. Denn damit lässt sich dann bestimmen, wieviele Shader als Pixel- oder Vertex-Shader arbeiten sollen, womit nix limitiert wird.
Zu dem DX9L kann ich nicht viel sagen. Es klingt irgendwie unglaubwürdig, wobei ich noch anmerken will, das Gerücht kommt ja vom Inquirer. ;)
Wie soll das für die Graka-Hersteller aussehen. Dann kommt die nächste Graka-Generation mit DX9L Unterstützung und sobald Vista draußen ist, mit DX10 Unterstützung. Ich halt von diesem Gerücht nicht viel.


DirectX 9.0L ist schon die normale Longhorn-Edition von DirectX 9, das ist zu 99% klar.
Und DirectX 10 ist das eigentliche WGF2.0, kommt zudem auch erst nach dem Longhorn-Star heraus.
DX10 verlangt (leider) nicht unbedingt nach einem physikalischen US-Chip.

Und absolut JEDE heutige DX9-Karte ist DirectX-9L-fähig, da muss (außer dem Treiber) nichts mehr angepasst werden;)
 
Damokles schrieb:
Wenn man die Top-Modelle direkt miteinander vergleicht.

Die ATI ist langsamer, lauter und frißt mehr Strom als das NVidia Top-Modell?


Und das obwohl man Monate lang sich Zeit genommen hat für diesen Chip.


Schade ATI aber das war nix.




Ansonsten ... schöner Test @ CB.

schliesse mich der aussage voll an!
... solange gewartet und trotzdem gibt es modi, wo sogar ne normale 6800'er die nase vorn hat (ut2k4) :D
 
@Wolfgang
OK, dann ist die Aussage bei Gamestar falsch, dass DX9L SM 4.0 bieten wird. Lass mich aber korrigieren, dennoch glaub ichs nicht.

Was meinst du genau mit "DX10 verlangt (leider) nicht unbedingt nach einem physikalischen US-Chip."?

DX10 ist eh noch nicht notwendig. Qualitätsmäßig ist DX9c eh schon verdammt weit oben. Nur die Unified Shader wären schon jetzt von Vorteil. ;)
 
Deinorius schrieb:
@Wolfgang
OK, dann ist die Aussage bei Gamestar falsch, dass DX9L SM 4.0 bieten wird. Lass mich aber korrigieren, dennoch glaub ichs nicht.

Was meinst du genau mit "DX10 verlangt (leider) nicht unbedingt nach einem physikalischen US-Chip."?

DX10 ist eh noch nicht notwendig. Qualitätsmäßig ist DX9c eh schon verdammt weit oben. Nur die Unified Shader wären schon jetzt von Vorteil. ;)

Nunja, wenn Gamestar irgendwelche Gerüchte über Grafik-Hardware verbreitet, sind diese in 95 Prozent aller Fälle falsch....:)

Ganz sicher bin ich mir da auch nicht, aber imo verlangt DirectX 10 keine Unified-Shader-Architektur in der Grafikkarte. Das einzige, was die API erwartet ist, dass der Treiber (auch wenn die Graka keine US hat) die vorhandenen Shader wie eine US verwalten kann. Ganz sicher bin ich mir dabei aber auch nicht.
 
Ich verstehe, was du meinst.
Aber die Shader einer Graka als US zu verwalten, selbst wenn es keine US sind, find ich irgendwie unrealistisch.
Hingegen finde ich es für durchaus möglich, dass auch heutige Spiele von Unified Shadern profitieren können, selbst wenn sie nicht dafür programmiert wurden. Schließlich muss nur die API und der Treiber das verwalten können. Denk ich jedenfalls.
Sollte US noch für WinXP kommen, kann mich Vista mal kreuzweise. ;) Jedenfalls für eine Weile. :D
 
Also wenn man sich den Test von Tomshardware anschaut sin die Jungs ja richtig begeistert von der X1800, bis auf den Stromverbrauch.

Gut ich bin jetzt inzwischen der Meinung, dass man die ersten Praxiskarten und dann mindestens 2 Treiberversionen abwarten muss, um was sagen zu können.

Mein Punkt ist nach wie vor der Stromverbrauch. Ich Kühle mein System derzeit inkl. X850 Passiv und die 1800 braucht 50 Watt mehr. Fraglich wieviel da in Wärme abgeht, aber es wird mehr sein, als jetzt. Naja, mal sehen.
 
Tekkno_Frank schrieb:
Also wenn man sich den Test von Tomshardware anschaut sin die Jungs ja richtig begeistert von der X1800, bis auf den Stromverbrauch.

Gut ich bin jetzt inzwischen der Meinung, dass man die ersten Praxiskarten und dann mindestens 2 Treiberversionen abwarten muss, um was sagen zu können.

Mein Punkt ist nach wie vor der Stromverbrauch. Ich Kühle mein System derzeit inkl. X850 Passiv und die 1800 braucht 50 Watt mehr. Fraglich wieviel da in Wärme abgeht, aber es wird mehr sein, als jetzt. Naja, mal sehen.


Selbst Tomshardware hat die GTX noch nicht mit dem neuem beta treiber betrieben der teilweise um 15% schneller sein soll wahrscheinlich weil er beta ist .. warten wir mal ab aber ich würde mir so eine karte niemals antun mit ca. 60dB ist doch wahnsinn

Der_MOB schrieb:
http://www.driverheaven.net/reviews/r520reviewxvxv/overclocking.htm

Ein erster OC Versuch an einer XT. Schon beachtlich was man da noch rausquetschen kann(685Core/1790Ram) wenn man beachtet, dass nur der Standard Kühlkörper verwendet wurde.:daumen:

Fragt sich nur wielange die lebensdauer der Karte ist, wenn sie so hoch getaktet wurde
 
BodyLove schrieb:
Dual Core in unoptimierten Spielen völlig irrelevant. Ein Fx-55 ist da schneller. Darüberhinaus sind nicht wirklich viele Spiele darauf optimiert.

Dafür sind die 80er Treiber von Nvidia für den DualCore optimiert und da sind zwischen 15 und 25% mehr FPS drin. Mal abgesehen von den Benchmarks wo ich jetzt auch lockere 18000 Punkte mehr bei Aquamark einfahre. Das Ergebnis fällt beim 3DMark ähnlich gut aus-also würde ein Test mit DC und 80 er Treiber schon etwas ändern. Auch in den Benches von CounterStrike und Fear bringt der 80er Treiber mehr Leistung für Dual Core-mögen die Spiele auch noch nicht optimiert sein, die Treiber sind es bereits.
 
Zurück
Oben