Test ATi Radeon HD 2400 XT und HD 2600 XT im Test: Geht die wichtige Mittelklasse an ATi?

Ich finde es zumindest schön, "dass der 65-nm-Prozess ... in der Tat viele Vorteile zu bringen" scheint.

Dann könnte es wirklich so sein, dass zukünftige High-End Karten weniger verbrauchen. Bisher
gab es das ja nur bei den CPUs z.B. in Form von den EE Versionen bei AMD oder generell der Sparsamkeit von der Core 2 Architektur.

Wenn das nun bei GPUs auch so wird, gibt es keinen Grund mehr für überdimensionierte Netzteile. Denn das Argument "beim Aufrüsten kommt eine neue -stromfressende- GPU rein", zälht dann nicht mehr.
 
Zuletzt bearbeitet:
Moment mal Leute... Ich glaube bei einigen Spielen ist an euren Testergebnissen teilweise ganz massiv was faul!


1. Colin McRae: Dirt, 1280*1024 mit 4*AA/16*AF:


  • Schnellste Karte ist die X1950 XTX und ist 3,1mal so schnell wie die 8800 GTS 320 !?
  • Die 7950 GX2 liegt HINTER der 8500 GT, die X1950 XTX, die normal ungefähr auf dem gleichen Nieveau wie die 7950 GX2 ist (siehe hier), ist 7,8 mal (!!!) schneller!?
  • Normalerweise ist die 1950 XTX 120% schneller als die 7900 GS, dort sind es 755% !?


2. S.T.A.L.K.E.R., 1280*1024

Die 8800 GTS 320 schneidet da total schlecht ab, das kann unmöglich sein:

  • 7950 GX2 ist 77% besser
  • X1950 XTX - 37% besser
  • 7900 GTX - 26% besser
  • 7950 GT, sozusagen ein Vorgängermodell - 7% besser
  • sogar die 8600 GTS, eigentlich die abgespeckte Version der 8800 GTS und normal 44% schlechter ist HIER 7% besser


3. F.E.A.R., 1280*1024 und kein AA/AF

In diesem Test war die 7950 GX2 noch 11% schneller als eine 8800 GTS 320, nun ist sie 35% langsamer und fällt sogar hinter die 7900 GTX zurück !?


4. Splinter Cell 4, 1280*1024

Im alten Test war die 7950 GX2 noch 31% SCHLECHTER als die 8800 GTS 320, nun ist sie ungefähr gleichauf (3% besser) !?


5. Oblivion, 1280*1024

Im alten Test war die 7950 GX2 noch 26% schlechter als die 8800 GTS 320, nun sind sie ungefähr gleichauf (1% Unterschied) !?


Viele der Sachen ließen sich vielleicht erklären: Colin McRae und STALKER sind recht neue Spiele, vielleicht haben da manche Karten Treiberprobleme, dass die 7950 GX2 bei Splinter Cell und Oblivion so zugelegt hat, ließe sich vielleicht auf Treiberverbesserungen oder den Umstieg auf Vista zurückzuführen.

Aber aufgrund der Häufung der so drastischen Veränderungen kann ich einfach nicht glauben, dass das alles an Treibern oder Vista liegen soll! Dass da z.B. irgendwelche Einstellungen oder Messungen nicht stimmten halte ich insgesamt für viel wahrscheinlicher.
 
sorry wenn ich das sagen soll, aber die Tests von CB werden immer schlechter, da immer mehr nonsense rauskommt, sogerne ich das auch sehe, die X1950Xt ist nun mal nicht schneller als eine 8800GTS, denn dann wäre die X2900XT mehr als deutlich schneller...
 
Bei die 7950 GX2 kann es liegen weil endlixh SLI Profile hinzugekommen sind.

Sieht man bei Rainbow 6 Vegas statt 15 FPS nun 27 FPS!

Aber die 8800 GTS da soll mir eine da erklären!
 

Das liegt sicher an den Treibern, da die 7950GX2 ja SLI-Treiber braucht. Und die sind unter Vista noch etwas ... naja, merkwürdig. Teilweise besser aber auch oft wieder schlechter.


Colin McRae: Dirt ist erstens relativ schlampig programmiert. Zweitens braucht das viele Shader und Speicher. Genau letzteres ist das Problem der 8800 GTS 320 - viel zu wenig Speicher + den VRAM-Bug auf den 8800er-Karten. Die 8800 GTS 640 dürfte wesentlich schneller sein.
 
Ich vermute mal das CB die älteren Grafikkarten im neuem test nicht nochmals mit neuem Treibern testet, wäre ja auch ein enormer Aufwand :) So lässt sich viel schneller ein neuer Test mit alten Grafikkarten schneller veröffentlichen. Was zählt ist, das wir nun wissen, wo wie die neuen Midrange Karten von Ati einordnen können. In die schublade :)

Mein Fazit, falls die 2600XT GDDR3 für 59.- Euro zu Kaufen ist, werde ich wohl zuschlagen.

Mfg Selflex
 
Die Benchmarks sind bei mir auch auf Verwunderung gestoßen.

Bei Colin McRae Dirt hat eine 8800GTS 320 bei 1280 x 1024 und 4xAA im Schnitt 4,9 Frames? :eek:

Da ist wirklich der Wurm drin. Ich selbst kann die Demo zu Colin McRae Dirt auf 1280 x 1024 und 4xAA und allen Details und Schatten auf Ultra mit ca. 25 - 30 Frames spielen.
Irgendwas muss da schief gelaufen sein.

Das einzige, was sein kann, ist, dass die Unterschiede zwischen Vista und XP bei diesem Spiel sehr krass ausfallen, wobei ich bei davon noch nichts gelesen hätte.

Auch S.T.A.L.K.E.R. läuft bei mir mit allen Details auf Maximal auf 1280 x 1024 durchwegs flüssig, ohne einem Anzeichen von Ruckeln. Hier im Test 15,5 Frames? :confused_alt:
Da stimmt was nicht...
 
derschlambi schrieb:
@Redaktion

Kommt noch ein Test im Crossfire oder nicht? Die 2600XT gibts nämlich schon für knapp über 90€ also wären 2 davon wirklich interessant...

Diesbezüglich ist kein Test geplant. Wenn uns ein Gemini-Sample zur Verfügung steht, werden wir dieses aber testen.
 
juhu tsaa/aa wurde weggelassen
dann brauch ich nicht mehr bei jedem test zu nerven ;)

danke wolfgang
 
@Wolfgang

Bei der 8600GT und der 8600GTS gab es doch auch einen ausführlichen SLI Test. Wieso dann nicht bei der 2400XT und 2600XT? Die verbrauchen weniger als die nvidias und sind auch sehr leise, also wirklich interessanter im Crossfire. Versteh ich nicht, warum das nicht geplant ist. Scheint so als hättet ihr ATI abegschrieben...
 
naja midrage ist in dem fall uninteressant geworden, WEIL:

die großen highend karten werden immer stärker von der bandbreite her, siehe ATi 512Bit Speicher... so werden denn auch die Spiele Programmiert. joa und midrage gruckt immernoch bei 128Bit rum, da hilft auch kein supperduppa mega neuer highend GDR4 Speicher wenn sich die fatlady durch ein korsett quetschen muss.
 
Also ich finde die HD2600XT doch gelungen. Auch eine 2600Pro kann auf dem Papier überzeugen, die gibts auch schon für 75,- Euro!
So eine 2600XT für ~90,- Euro (z.B. von Palit, sogar übertaktet (800/1600) für ~93,- Euro) reicht doch für viele Zocker durchaus aus! Deutlich mehr Leistung als z.B. eine 7600GT und ca. gleichaufliegend mit einer 8600GT. Und die allmonatlichen Treibererscheinungen können bestimmt auch noch was drehen.
Tobi
 
Die DX10-Tests zeigen doch, was der 3Dcenter-Artikel bereits vorrausgeahnt hatte: Für DX10-Spiele ist die Leistung selbst ohne AA/AF nicht zu gebrauchen. Durchschnittlich 2x fps bedeutet eben, bei Performanceeinbrüchen heftige Ruckler.
 
Tobi86 schrieb:
Also ich finde die HD2600XT doch gelungen. Auch eine 2600Pro kann auf dem Papier überzeugen, die gibts auch schon für 75,- Euro!
So eine 2600XT für ~90,- Euro (z.B. von Palit, sogar übertaktet (800/1600) für ~93,- Euro) reicht doch für viele Zocker durchaus aus! Deutlich mehr Leistung als z.B. eine 7600GT und ca. gleichaufliegend mit einer 8600GT. Und die allmonatlichen Treibererscheinungen können bestimmt auch noch was drehen.
Tobi

Nimmst du Drogen?
 
Also den Abschnitt vom VillageMark könnt ihr entfernen, da dort nur Nvidiakarten gelistet sind. Da wurde schlicht vergessen, die Karten zu benchen oder einzutragen. Warum die Testkarten da fehlen, konnte ich nirgendwo lesen.

Insgesamt scheint es nun so, als ob ATI mit den Karten die jeweiligen Markpositionen zwischen denen von Nvidia besetzen wird. Was den Markt wiederum besser ausfüllt, als wenn alle zu dicht beieinander lägen.
 
Den Artikel find ich mal abgesehen, davon das er etwas unvollständig ist (HD Blue Ray Bereich) sehr gut. Allerdings ergeben die Testergebnisse ein deutlich anderes Fazit als hier niedergeschrieben wurde. Denn die 2600XT tritt nicht gegen die 8600GTS an, sondern gegen die GT Version und ist da nun mal sehr eindeutig besser, nur der Kaufpreis disquallifiziert sie, was sich aber mit der GDDR3 Version revidiert ! Erst die Dual Variante der HD2600XT wird gegen die 8600GTS in vorraussichtlich 2 Wochen antreten und auch erst dann kann man die GTS Version mit ihrem PASSENDEN Gegenstück vergleichen !

Ein deutlich zutreffendes Fazit wäre zum Beispiel gewesen:
--------------------------------------
Die Radeon HD 2600XT (GDDR4) schlägt ihr Gegenstück die 8600GT in fast allen Bereichen mehr als deutlich, ihr kann aber aufgrund des zu hohen Preises gegenüber der 8600GT, dennoch keine Kaufempfehlung im Bereich der DX10 Karten ausgesprochen werden, diese geht eindeutig an ihr GDDR3 Pendant. Abzuwarten bleiben die Test der Dual HD 2600XT um ein abschließendes Fazit im Mittelklassebereicht durchführen zu können.
--------------------------------------

PS. Mich beschleicht ein ganz klein wenig das Gefühl das der Autor so ein bissel NVIDIA Fanboy ist. ;-)
PPS. Und nein ich bin kein ATI Fanboy, ich habe in meinen beiden Rechnern NVIDIA verbaut ;-) Allerdings bin ich so einsichtig, um die nun mal bessere Leistung von ATI in Low und Med Bereich zu ihren ENTSPRECHENDEN Gegenstücken anzuerkennen.
 
Zuletzt bearbeitet:
Naja, umhauen tun die keinen, aber getrost dem Motto

"Unter den Blinden ist der Einäugige König"

würde ich die 2600XT mit DDR3 mal zum P/L-Sieger im Mainstream-Markt erklären.
Brauchbare Verlustleistung und guter Preis bei Leistungswerten knapp über nem vergleichbaren NVidia-Modell.
Dass die bei AA/AF etwas nachlassen stört glaube ich kaum jemanden, der in der Preisregion Hardware kauft.

Ich frage mich allerdings auch warum weder ATI noch NVidia was zwischen den Dingern hier und ner GTS 320 für die Preisregion 150-200 Euro rausbringen. Kann doch nicht so schwer sein was mit 256Bit Speicher und leicht höherem Takt zu entwerfen.

Egal, ich bleib bei meiner passiven 7600GT ;)
 
Zurück
Oben