Test ATi Radeon HD 2400 XT und HD 2600 XT im Test: Geht die wichtige Mittelklasse an ATi?

Lord of War schrieb:
Wollte für mein 2tes Sytsem noch warten aber die 1950 Pro tuts besser

Ist schon schade, dass selbst eine x1650 xt schneller ist als eine 2600xt. Eigentlich wollte ich mir eine 8800gts (oder 320mb) kaufen, die ist mir aber ein wenig zu teuer. Im Bereich von 200€ gibt es aber anscheinend nichts wirklich gutes und neues mit DX10

Eventuell warten bis NVidia die nächste Generation herausbringt und hoffen, dass es da billigere Karten gibt.

CBOT schrieb:
Euer Testsystem hat sich aber verbessert wie also kann es sein das sich die Werte so verschlechtern?

bcbtesthv9.jpg

Naja, man kann die Werte doch schon recht gut vergleichen, zumindest bei der 8800 gts 320er KArte
 
Zuletzt bearbeitet:
die 2600xt ist heute schon bei snogard reingekommen (von sapphire). mit ddr3 kostet sie schlappe 109,90€! damit liegt sie knapp 5-10€ unter der 8600gt beim gleichen händler.

sie ist also schneller und günstiger! für einen einsteiger-pc gar nicht mal so verkehrt. alle anderen karten die hier so in den raum geworfen wurden, kosten alle erheblich mehr (auch wenn es NUR 50€ sind, sind halt fast 50%)
 
Hätte mehr erwartet, z.B. das die 2600XT(GDDR4) schneller als die 8600GTS sein würde. aber was mich gewundert hat die die 2xxxXT in DX10 zulegten.
 
@Loopman

Das stimmt und das bezweifelt auch keiner. Aber es fehlt halt mMn die Midclass Karten wie damals die 6600 gt für 200€. Da ist bisher kaum eine DX 10 vorhanden. Link

Die 8800 gts 320mb fängt bei ca 240€ an und auch das sind schon bei den meisten 50€ mehr als ich ausgeben möchte :D
 
Ganz Ehrlich.

Für DX10 auch zulangsam und die Neue Mainstream Karten von ATI/Nvidia sind SCHROTT wenn man Zocken möchte.

Es lohnt sich nur ZZ eine X1950 Pro zu kaufen in diesen Presisegment oder wenn bei die HD X2600XT DDR4 für 179 Euro eine GX2 7950.

Sonst bleibt nur die X1900XT (in abverkauf) oder für 240 Euro eine 8800GTS 320 MB Karte-der schlägt alles da um langen.

Einfach PEINLICH da!
 
xbdt schrieb:
was würdet ihr denn nun zu einem CF Gespann sagen, wie schon von 'derschlambi' angedeutet? Preislich wäre es doch ok und die leistung müsste dann auch für den Preis stimmen...kommende Spiele werden doch wohl immer häufiger CF/SLI unterstützen und von daher wäre es eine Übrelegung wert..

Ich halte von Crossfire soviel wie von SLI, nämlich nix. Dann leg ich lieber 50 Euro drauf und hol mir ne GTS, die dann eine konstante Leistung in allen Spielen bringt und nichtnur in solchen, die SLI/CF richtig unterstützen, vom doppelten Lärm, Strom und Hitzeentwicklung mal abgesehen.
 
Irgendwie werde ich aus den Ergebnissen nicht schlau. Zumindest, wenn ich ältere Ergebnisse zum Vergleich heranziehe.
Mir ist klar, dass die Hard- und Softwarebasis umgestellt wurde. Trotzdem erscheint es mir merkwürdig, wenn beim Test der 8800Ultra die 1950XTX bei Serious Sam 2 auf 1600x1200 4xAA/16xAF noch 9 Frames erreicht und beim jetzigem benchen auf einmal 31,9!

Siehe https://www.computerbase.de/artikel...00-ultra.656/seite-20#abschnitt_serious_sam_2
und
https://www.computerbase.de/artikel...-2600-xt.671/seite-19#abschnitt_serious_sam_2

Noch verwunderlicher ist dagegen, dass die 1950pro von dieser wundersamen Verdreifachung der Frameraten sehr wenig hat und im Vergleich zur XTX auf unter ein Viertel der Leistung sinkt.

Auch das Einbrechen der 1950pro auf zwei Fünftel bei Stalker in 1600x1200 bzw. ca. ein Fünftel in Colin Mcrae Dirt im Vergleich zur XTX kommt mir seltsam vor. Bisher konnte ich immer von ungefähr zwei Drittel der XTX ausgehen. :confused_alt:
 
wie schon gesagt die Karte kostet bei EInführung lediglich ~100€ und da kann man doch keine Zocker Karte erwarten...für preisbewusste User ist sie aber eine Überlegung wert...jedoch muss man zugeben, dass ein riesengroßes Loch zw der 2600XT und der 2900XT klafft..vieleicht kommt ja noch was ;)
 
Es war früher alles unter XP nun alles Benchmarks sind unter VISTA darum!
 
also meiner Meinung bleibt der einzige P/L-Champion weder die 8600GT(S) noch die HD 2600XT sondern die 8800GTS 320. Die gibt es schon ab 238 Euro und ist doch deutlich schneller.

Von AMD und ATI bin ich ziemlich enttäuscht. Ein halbes Jahr länger Entwicklungszeit und dann 3 Karten (2400,2600,2900) rausbringen, die sich kaum bis garnicht gegen nvidias ältere Karten durchsetzen können.
Positiv finde ich die passive Kühlung, wobei da die Wärmeentwicklung noch interessant gewesen wäre.

Über Dx10 Games kann man eh erst was gegen 3.-4. Quartal sagen, weil da die Dx10-Kracher wie Crysis, World in Conflict etc. rauskommen.
 
Zuletzt bearbeitet:
Crytek hat doch selbst angegeben, dass Crysis mit einer 8800er GTX optimal läuft. Dann kannste dir ja ausrechnen, wie weit weg von "optimal" du mit ner 8600 GTS bist..
 
Jap ich denke, der Geschwindigkeitsunterschied lässt sich durch Windows Vista erklären, die Benchmarks sind also nicht wirklich repräsentativ für Durchschnittssysteme (langsamerer Proz (E6600+Graka aus Mittelsegment). Man kann auch sehr gut sehen, dass Vista die langsamen Karten natürlich auch wesentlich älter aussehen lässt, als es der Vistaperformance-check weis machen wollte. Mit einem Durchschnittssystem hat die Leistung unter Vista also doch wesentlich stärker zu leiden als gedacht, und je langsamer das System, desto mehr.
 
14fps mit ner X1950 pro bei Stalker? Wie testet denn CB? Hab bei Stalker konstante 70fps bei 1248x1024 pixeln und die anderen Spiele sehen auch nicht besser aus.

Ich find die Spieletests unter Vista ziemlich unlogisch..
 
Also ich weiß auch nicht, dass eine 8800 GTS in Stalker bei 1280x1024 mit 1xAA und 1xAF nur 20 fps schaffen soll, kann ich mir nicht vorstellen. Entweder wurden da spezielle Settings verwendet oder es stimmt was nicht.
 
also ich habe ein HD 2400Pro heute schon in der Hand gehabt, 66€ müsste man bezahlen
 
Wie die HD 2900 sind auch die Karte absolut unnütz. Es gibt bessere und gleichzeitig günstigere Alternativen. Und ob ich unter Dx10 statt 8 nur 4 fps habe ist absolut egal. Unter Dx9 (was aktuell ist) ist sie totaler mist...
 
Wirklich erschreckend wie schwach die "Mittelklasse" auch im Hinblick auf die vorherige Generation ist. Konnte die 7600gt doch sogar das Topmodell der Vorgängerreihe "Ultra" in die Tasche stecken.
Erschreckend auch was aus ATI geworden ist. War es doch früher immer ihre Stärke, dass ATI Karten bessere Bildqualität bieten und in den Benchmarks unter hohen AA, AF Einstellungen Boden gut gemacht haben. Verkehrte Welt, hoffentlich ändert sich das wieder.

Sind eigentlich schon Termine bekannt wann die untere Highendkarten ala 2900XL, GT oder so, vorgestellt werden ?
 
Zuletzt bearbeitet:
Bitte nimmt bei nächsten Test die X1950 XT mit 625/1800 (oder 1600) Mhz und 512 MB mit rein. Mir ist bekannt, dass es fast eine X1950 XTX ist, und diese Karte schon "etwas älter" ist. Aber die XT ist schon länger ein Tipp für den Preis/Leistungs-Sieger. Denn die X1950 Pro wird so rechte nicht mehr günstiger, die X1950 XT aber schon!
Dies war ursprünglich mit dem neuen Testsystem auch geplant, allerdings hat kein hersteller mehr eine X1950 Xt für uns zur Verfügung. Deswegen wird daraus wohl nichts.

Euer Testsystem hat sich aber verbessert wie also kann es sein das sich die Werte so verschlechtern?
Wie auch schon beantwortet, das liegt an Vista. Ohne AA/AF läuft COD2 unter Vista etwas langsamer.

Irgendwie werde ich aus den Ergebnissen nicht schlau. Zumindest, wenn ich ältere Ergebnisse zum Vergleich heranziehe.
Mir ist klar, dass die Hard- und Softwarebasis umgestellt wurde. Trotzdem erscheint es mir merkwürdig, wenn beim Test der 8800Ultra die 1950XTX bei Serious Sam 2 auf 1600x1200 4xAA/16xAF noch 9 Frames erreicht und beim jetzigem benchen auf einmal 31,9!
Wie im Artikel steht, benchen wir von nun an ohne Adaptive-AA bzw. Transparency-AA. Bei Spielen mit vielen Alpha-Test-Texturen gibt es somit logischerweise große Unterschiede. Und in Serious Sam 2 geht der 256-MB-Karte wohl schlicht und ergreifen der VRAM aus.

14fps mit ner X1950 pro bei Stalker? Wie testet denn CB? Hab bei Stalker konstante 70fps bei 1248x1024 pixeln und die anderen Spiele sehen auch nicht besser aus.
Schonmal dran gedacht, dass das von Szene zu Szene anders sein kann? Und logischerweise testen wir bei einer sehr GPU-intensiven Szene.
 
Zurück
Oben