Test ATi Radeon HD 2900 XT im Test: Platzhirsch oder kleiner Bruder der GeForce 8800?

Cumonu schrieb:
Ich würde die Karte nicht mal geschenkt nehmen (außer zum Weiterverkauf).
Mit 70 Grad im IDLE - meine 7900 GTO erreicht unter Last nie mehr als 62 Grad (Idle: 36 Grad!!) - eignet sie sich nicht sonderlich für ein Ultra-Silent-System.
Das Teil heizt doch das ganze Case auf. Und das trotz Höllenlärms.


Du irrst.
Die Temperatur des Chips ist völlig unerheblich für die Gehäusetemperatur, es zählt nur die abgegebene Wärmeleistung und die ist immer dieselbe, egal ob da eine kleiner Kühler drauf sitzt, der den Chip auf 120 Grad bringt oder ein großer Kühlkörper, der den Chip auf 50° hält.
 
Karten kann man so oder so testen. Es ist sicher nicht unmöglich, die HD2900 halbwegs gut dastehen zu lassen, wenn man unbedingt will.

Ich wühle mich auch gerade durch internationale Tests. Diese bestätigen den CB-Test, an welchem es mal wieder nix zu meckern gibt. Den :daumen: an Wolfgang!

Insgesamt eher ernüchternd. HardOCP zieht Vergleich zur GeForce FX 5800. Treibermäßig stehen sicher beide DX10-Serien noch suboptimal da. Warten auf die Software und in der zwischenzeit eher zur GeForce 8 raten...
 
Schade, dann heissts wohl auf den Refresh "R650" warten und hoffen. :( Wie dazumal bei den X800ern.

Die Karte ist ja eigentlich garnichtmal schlecht, über den Preis kann man ja noch nichts sagen. Sind ja noch keine Händlerpreise vorhanden. Nur die UVP von ATI.

Aber der Stromverbrauch ist schon derb ... :freak: Erinnert mich an X1800
 
eine karte für fanboys, nicht aber für umweltbewusste...
schade.
 
Und bei THG wäre ich vorsichtig also da lese ich schon einige zeit nicht mehr die sind mir leider etwas zu eigen.
 
@Moe_Ses

Gerade diese Seiten berichten erfahrungsgemäß sehr einseitig und formulieren die Berichte teils auch sehr subjektiv . Ich wäre da vorsichtig .
 
Soulj@h schrieb:
Dass das AA verbessert wurde ist schön zu hören, wobei zweifellos der negative AF Aspekt die positive Stimmung trübt.


Das AF wurde gegenüber den R5x0 Modellen verbessert (was ich jetzt so nicht erwartet hätte), also würde ich das insgesamt positiv sehen, selbst wenn es noch nicht ganz die Qualität der GF8800 erreicht.
 
$corpion schrieb:
Halo 2 wurde wie auch Halo (1) für den PC total überarbeitet. Da wirds sogar DX10 Effekte geben. Also wird es das erste DX10 Spiel am Markt sein.
Es wird zwar auch DX9 abwärtskompatibel sein, ist für mich aber trotzdem Grund genug, auf eine DX10 Grafikkarte umzurüsten.

nope stimmt nicht es wird nicht in oder mit dx10 produziert es läuft nur auf vista das ist richtig aber wird leider wie ich finde nur in dx9 pracht sein

mfg el pakko
 
Will die Krise bei AMD denn niemals enden....

Da werden die Treiber hoffentlich noch was nachliefern...
 
Hmmm hatte auch gedacht das sie nach nem halben jahr später die 8800 schlagen könnten aber dem ist wohl auch nicht so. Das dann wohl der "Sieg" für NVidia bei den Highend Karten mal sehn wie sich die Midrange Karten schlagen da die bei Nvidia ralativ Mau aussehn wie ich finde. naja ich finds nicht schlimm so bin ich von meinem 8800GTS 320 MB kauf Voll begeistert!
 
Zock schrieb:
@AgentJay

Nimm die mit 640 MB die 50€ machen es dann auch nicht, und dur wirst es später brauchen 256 MB sind zu wenig schau dir mal HL² Cinematic MOD 4 an da kommen die 256 Mb Karten an ihre grenzen und müssen auslagern !

Die Zukunftssicherheit ist ein starkes Argument. Wollte die neue Karte schon länger im PC lassen. Aber wenn ich jetzt bestelle für 340 € von evga und die fällt in der nächsten Woche um 30, 40 oder vlt. sogar 50€, bin ich ein Riesen-Depp. :D
 
Zuletzt bearbeitet:
kisser schrieb:
Du irrst.
Die Temperatur des Chips ist völlig unerheblich für die Gehäusetemperatur, es zählt nur die abgegebene Wärmeleistung und die ist immer dieselbe, egal ob da eine kleiner Kühler drauf sitzt, der den Chip auf 120 Grad bringt oder ein großer Kühlkörper, der den Chip auf 50° hält.

Ich stimme dir soweit zu, dass die Abgegebene Wärme immer die selbe ist, wie groß bzw. wie stark der Lüfter ist - wie kühl somit der Chip ist, hat aber sehr wohl eine gravierende Auswirkung auf die Gehäuse Temperatur. Leistung fähiger Lüfter - Warme luft wird schneller aus dem Gehäuse transportiert = Kühleres Gehäuse + Kühlere Komponenten. Leistungsschwacher Lüfter - Warme Luft wird langsamer aus dem Gehäuse transportiert = Wärmeres Gehäuse + Komponenten.
 
EL PAKKO schrieb:
nope stimmt nicht es wird nicht in oder mit dx10 produziert es läuft nur auf vista das ist richtig aber wird leider wie ich finde nur in dx9 pracht sein

mfg el pakko

Auch wenn es 50% offtopic ist: DU HAST UNRECHT! ES WIRD DX10 EFFEKTE HABEN!
Und jetzt schluß! Oder hast du gedacht das Crysis das erste sein wird?
 
Ati HD 2900 Series ist ein Flopp. Und dies nun auf fehlende bzw. mangelnde Treiber zurückzuführen ist schon fast lächerlich. Was hat Ati die letzten 7 Monate gemacht? Reichen 7 Monate nicht um nen vernünftigen Treiber herzustellen?
 
Sieht so aus als hätte ati wieder an der texturfüllrate gespart.Die wird in zukunft immer weniger wichtig sein.Ein chip muss auf seine Verwendungszeit(ca 2 jahre)hin entwickelt werden.Und im moment brauchen die spiele halt noch viel texturfüllrate.Die Atikarte wird bei Spielen im nächsten jahr vieleicht besser aussehen . Dann ist sie aber schon geschichte.
 
strohi schrieb:
Die Atikarte wird bei Spielen im nächsten jahr vieleicht besser aussehen .
Jo, dann schlägt sie bei den neusten Games in 2008 die Geforce 8800 GTS mit 20 zu 17 Frames :lol: Super, da hat auch keiner was von. Sorry, es ist einfach unmöglich sich dieses Ding auch nur schön zu reden.
 
richtig, was nützt es ati, wenn die karte vielleicht nächstes jahr gut dasteht, aber das image bis dahin einfach kaputt ist...
wenn die karte beim launch schnell ist und überzeugen kann, dann hat sie gewonnen, s. 6800 ultra (vor allem nach dem release der x850 hatte nvidia eigentlich wenig zu lachen, aber es hat keinen interessiert und es wurde die gf6 aufgrund des größeren featureset empfohlen...)
 
Ich finde es interessant, wie sehr die 2900 bei Bildverbesserungen einbricht.
Erst hatte ich Befürchtungen, dass meine GTS ein Fehlkauf kurz vor dem Release des R600 wäre.Aber da die Bildqualität insgesamt immer noch überlegen ist und ich auch mit AA und AF spiele, war es wohl eine gute Entscheidung.

Ich bin überrascht, dass sich die G80 GPUs trotz ihres "hohen" Alters so gut halten.

Trotzdem finde ich es schön, dass es wieder einen richtigen Konkurrenzkampf gibt, zu Gunsten der Käufer.

Übrigens ist das ein sehr schöner, langer Bericht und der Test hat mir gut gefallen.
 
Danke CB für den Test! :schluck:
 
Zurück
Oben