Test Test: ATi Radeon HD 2900 XT CrossFire

laser114 schrieb:
Schade das nicht der 7.5 sondern ein alter Treiber verwendet wurde. Das da viel Performance brach liegt, sieht man z. B. an Gothic 3... :(

Man lese das Fazit: "Apropos Treiber: Diesen muss ATi speziell für CrossFire zügig weiter verbessern (der Catalyst 7.5 brachte bei keinem einzigen Problem eine Linderung)."

Man kann einen kompletten Test nicht binnen 2 Tagen umstellen, nur weil ATi einen neuen Treiber herausbringt. Die wichtigstens Sachen wurden jedoch überprüft, deshalb dieses Fazit.!
 
gibt es rationale gründe (ausser: ati is teh c00l!!!!!1111 -.-), eine 2900xt zu kaufen?
ich frag mich was amd aus ati gemacht hat ... sauerei
 
Ich glaube kaum das AMD soviel dafür kann das Ati so nen Bockmist gebaut hat. :rolleyes:
 
Wolfgang schrieb:
Der größte Kritikpunkt neben der Geschwindigkeit ist eindeutig die Lautstärke, die in dieser Form nicht akzeptabel ist. Zwar variiert sie im Gegensatz zur Einzelkarte unter Windows nicht mehr alle paar Minuten. Dafür erzeugen die beiden Radiallüfter durchgängig eine Lautstärke, die ein ruhiges Arbeiten unmöglich macht. Ein Grund dafür erschließt sich uns nicht, denn die Temperaturen sind zwar hoch, liegen aber im grünen Bereich. Unter Last wird es gar noch lauter und selbst in Spielen fallen die Grafikkarten unangenehm auf.

Wieso erschließt sich dafür kein Grund? Die Temperaturen werden doch nur deswegen erreicht, weil der Lüfter eben laut und schnell dreht. Außerdem wäre die Leistungsaufnahme der Karte höher, wenn man sie weniger gut kühlen würde bzw. wenn man eine höhere Temperatur zulassen würde.


Ansonsten ein schöner Test. Auch das Fazit ist Klasse! :daumen:
 
@ HereticNovalis

So ein Quatsch. Damit hat doch AMD nichts zu tun. Für die Chip-Architektur sind immer noch die ATI Leute zuständig.

Und ob das jemals Treiberseitig "konstand" unter kontrolle zu bringen ist ? Glaub ich nicht !!
Die Architektur des R600 ist anscheinend sehr schwer zu programmieren. Ein CF Verbund käme deshalb nie in Frage für mich. Nicht mal eine. Außer ich wäre ATI-Fanboy mit Geldscheißer !


;)
 
Zuletzt bearbeitet:
Netter Test, allerdings fehlen mir immer wieder einige Vergleiche. Wieso testet ihr z.B. nicht Ohne AF/AA? AUch fehlen mir Vergleiche für andere Grafikkarten wie z.B. der 8800 Ultra/Ultra-SLI, sowie x1950PRO/PRO-CF.

AA/AF stellen nur einen Teil der Leistung dar. Etwas, das ihr sehr gerne beim Test auslasst.

Btw, bei Temperatur ect. steht desöfteren dass die Einheit als "Frames pro Sekunde" gegeben wird, was eigentlich Grad/Dezibel ect. sein müsste. Vielleicht aber war der Selbstgebrannte gestern auch nur zu stark.

mfg,
Markus
 
Wäre doch zumindest der Stromverbrauch nicht so extrem hoch (warum bekommt ATi das trotz kleinerem Fertigungsverfahren denn nicht gebacken?), dann könnte man immernoch über den Preis behaupten, der R600 wäre eine sehr gute Karte (nicht schnell, dafür günstig).
Aber so? Langsam, extrem viel Strom (=laut) und der Preis ist für DIESE Leistung unangemessen..

Aber warten wir mal lieber auf die echten Mainstreamkarten von ATi: der RV670 (neuer Core in 65nm) oder vllt auch RV635 (RV630 geshrinkt). Der RV630 braucht ja so schon kaum Strom - da wird ATi beim Shrink sicherlich nur auf hohe Taktraten abzielen - und der RV670 wird hoffentlich die Architekturprobleme des R600 ausmerzen.
 
also wirklich AMD/ATI spacken doch echt ziemlich ab, überall hat Nvidia ja immer doch die Nase vorn...

Stromverbrauch? tut mir leid, wirklich zu hoch
Preis-/Leistungsverhältnis? sorry, aber wirklich mal zum lachen

ich denke AMD lässt ATI nicht mehr machen, was sie wolln oder vorhaben, es nimmt anscheinend alles AMD in die Hand, aber die checken es halt nicht aus...

ich selbst hab für meine 8800 GTS nur 289€ bezahlt und bin vollkommen zufrieden

Nvidia macht das Rennen :)
 
Also erst ma Danke an CB für den Test!!!

Ich kann nur sagen, dass es mich nicht wirklich wundert, wenn die schon so lange auf sich warten lassen. Das Probs da sind hat man sich ja denken können, aber so heftig! Schade eigentlich, hatte mir mehr von der Karte versprochen, also wird es dann doch die 8800 GTS werden, danke CB! Denn den Zeitschriften kann man eh nicht mehr wirklich trauen :D
 
Zuletzt bearbeitet:
@ Volker

Warum unterscheidet sich der Stromverbrauch der HD 2900 XT so stark zum vorherigen Test?
Beim Test der Einzelkarte lag er im idle noch deutlich über der 8800 Ultra, bei Test mit 2 Karten konkurriert er eher mit einer 8800gts.
Andere Webseiten/Tests haben den niedrigeren Stromverbrauch auch mit einer Einzelkarte gemessen (meist etwas unter 8800 GTX-Niveau).


Ich finde es lächerlich, wie sich viele hier aufregen! Hat irgendjemand eine Geforce 5900 ... gehabt (von den Leuten die sich so stark aufregen)? Das war dann genauso bescheurt, wie sich jetzt eine HD 2900 zu kaufen...
Der Stromverbrauch unter Windows ist auch nicht viel höher als bei einer Geforce 8800gts/ultra. Er ist für die gebotene Leistung (speziell unter Last einfach viel zu hoch). Trotzdem ist es einfach nur noch nervig, wie sich viele darüber so extrem aufregen können. Wie lange steht denn euer Rechner unter Last? Die meiste Zeit idlet er ja nur vor sich hin.
 
Sie haben sich einfach übernommen, dann kam blöderweise noch die übernahme von AMD, was auch sicherlich ihr bestest dazu beiträgt.

Besser wärs gewesen sie hätten nicht versucht was technisch innotives herauszubringen, sondern einfach so wie nVidia ne ganz einfache karte
 
Seppuku schrieb:
Wie lange steht denn euer Rechner unter Last? Die meiste Zeit idlet er ja nur vor sich hin.

ähhmm, wer hat gesagt, dass die meisten Rechner die meiste zeit nur im Idle laufen, also meiner nich...
 
Aufregen braucht man sich hier auf gar keinen Fall, da die meisten ohnehin wieder
zu Nvidia Karten greifen. ATI hat es versäumt ein überzeugendes Gesamtpaket
anzubieten: Viel Schatten bei relativ wenig Licht. Das Ergebnis der Crossfire Combo
bestätigt leider diesen Eindruck und das "unendlich" Warten auf die 2900xtx - wenn sie
denn auch kommt, spricht für sich. Nvidia kann sich nach dem Übergangs G80 Chip, nun
auf die nächste Chipgeneration konzentrieren.
 
RubyRhod schrieb:
Wäre doch zumindest der Stromverbrauch nicht so extrem hoch (warum bekommt ATi das trotz kleinerem Fertigungsverfahren denn nicht gebacken?)

Aber warten wir mal lieber auf die echten Mainstreamkarten von ATi: der RV670 (neuer Core in 65nm) oder vllt auch RV635 (RV630 geshrinkt). Der RV630 braucht ja so schon kaum Strom - da wird ATi beim Shrink sicherlich nur auf hohe Taktraten abzielen - und der RV670 wird hoffentlich die Architekturprobleme des R600 ausmerzen.


Der Shring von 90nm auf 80nm bringt keine Vorteile beim Stromverbrauch, weil es eigentlich das selbe Herstellungsverfahren ist, nur halt etwas kleiner. Vorteil liegt nur im Herstellungspreis, man kann mehr Transistoren auf den Chip packen und etwas höher takten. Genau das gleiche wird voraussichtlich der Shring von 65nm auf 55nm sein.


Seppuku schrieb:
Ich finde es lächerlich, wie sich viele hier aufregen! Hat irgendjemand eine Geforce 5900 ... gehabt (von den Leuten die sich so stark aufregen)? Das war dann genauso bescheurt, wie sich jetzt eine HD 2900 zu kaufen...

Das einzig lächerliche ist deine Argumentation. Wenn man einmal den Fehler gemacht hat, dann muss man das jetzt noch mal machen oder wie? Hab gehört, dass man aus den Fehlern lernen soll. (Ich hatte übrigens keine GeForce 5900)

schwabi schrieb:
Besser wärs gewesen sie hätten nicht versucht was technisch innotives herauszubringen, sondern einfach so wie nVidia ne ganz einfache karte

Was genau ist an der nVidia-Karte nicht innovativ? Die kompletten Renderpipelines wurden rausgeschmissen und durch Unified Shader ersetzt. Die Shader hat man schlauerweise mit doppeltem Takt laufen lassen. Die Grafikkarte kann man als Stream-Prozessor mit Hilfe der CUDA-API verwenden, wobei man mit C++ Programieren kann (wenn ich das richtig verstanden habe) und somit das ganze erleichtert wird.
http://developer.nvidia.com/object/cuda.html

Das Einzige, was an der GeForce 8800 nicht innovativ ist, oder gar veralltet, ist die Tatsache, dass sie keine Stromsparfunktionen Bestitz und in 2D nicht mal runtertaktet. Blöderweise kann hier die ATI-Karte auch nicht Punkten.
 
Zuletzt bearbeitet:
man sieht das eine so lange entwicklungsdauer auch früchte tragen kann :evillol:
 
xp_home schrieb:
Außerdem wäre die Leistungsaufnahme der Karte höher, wenn man sie weniger gut kühlen würde bzw. wenn man eine höhere Temperatur zulassen würde.

Hä? Also die Karte würde mehr Strom verbrauchen wenn die Kühlung schlechter wäre? Das halte ich für Driss :D
Irgendwie schade die ganze Geschichte, so werden die Karten erstmal nicht billiger, höchstens die Radeon.
 
@ Sartyris

Die meisten spielen mit ihrem Rechner eben nicht die ganze Zeit, sondern benutzen ihn auch zum arbeiten und für andere Dinge (z.B. im Internet surfen).

@ xp_home

Wo habe ich denn bitte behauptet, dass man aus Fehlern nicht lernen soll?? Und warum soll meine Argumentation lächerlich sein?
Und nur weil jemand aus einem Fehler gelernt hat, hat er noch lange nicht das Recht, andere, die den gleichen Fehler begehen, schon fast als dumm hinzustellen!
Diese Arroganz und Überheblichkeit in manchen Beiträgen gegenüber ATI/AMD und deren Käufern ist einfach nur noch nervig!
Nur weil man jetzt das Wissen habe, braucht man noch lange nicht vergessen, dass man auch einmal nicht auf alle Dinge (wie z.B. den Stromverbrauch und die Lautstärke) geachtet hat (und die Zeit gab es bei jedem mal).
Erst seit relativ kurzer Zeit scheinen viele auf Lautstärke wirklich Wert zu legen (mir war sie z.B. schon immer wichtig. da nehme ich lieber 10% weniger Rechenleistung in Kauf und habe dafür eine leise Karte).
 
Zurück
Oben