Test ATi Radeon HD 3870 X2 im Test: AMDs ersehnter Griff nach den Sternen

Ich bin irgendwie unschlüssig. Einerseits ist die Performance in einigen Spielen wirklich ohne jegliche Konkurrenz vorallem mit AA, was für mich mit am wichtigsten ist. Dazu noch der Preis. VErdammt Lecker. Und doch will ich nicht recht Hunger auf die Karte bekommen.... Was is mit den restlichen Spielen? Grad bei den neustens solche Patzer. Kann ich mich wirklich drauf verlassen, dass hier mit optimierung noch dermaßen viel Leistung rausgeholt wird, dass der Vorsprung zur Ultra ähnlich ist wie bei den älteren Games? Dann wäre immerhin Problem 2, die Microruckler erstmal irrelevant, da deutlich über 30 Frames vorhanden sind. Dennoch wäre noch Problem 3. Die Lautstärke unter Last ist schon fast brutal. Okay, meistens isses in Spielen laut. Trotzdem dürfte ein Grundrauschen von der Graka immer vorhanden sein. Und was ist dann mit atmosphärischen Szenen beispielsweise in Horrorshootern in denen durch subtile Stille eine gruselige Stimmung erzeugt wird? Oder Rollenspielen wo es auch öfter mal leise zugeht? SOwas wird durch einen lauten Lüfter extrem ruiniert. Ob es nun ein Brummen oder jaulen oder kreischen ist, ist da dann schon wieder fast egal.

Hinzu kommt, das die Preise für GTX und Ultra demnächst dann auh nochmal fallen werden. Wourch sie durchaus wieder interessant sein dürften. Davon abgesehn dürfte auch Nvidia bald wieder was neues bringen. Vermutlich einen neuen Chip Richtung 9800GTX, der vermutlich auch wieder einiges reißen wird.

Ergo, man darf gespannt sein. Ein gute Karte ist die X2 allemal, jedoch ist die Konkurrenz nicht ohne und ihre Fehler dürften dem ein oder anderen geneigten Käufer (wie mir) sauer aufstossen und das warten auf die 9800GTX erleichtern um zumindest zu schauen, was Nvidia mit ihrem neusten Chip abliefern.
 
An die Boardkritiker:

"Da der PEX 8547 ein PCIe-1.1-Switch ist, ist die Radeon HD 3870 X2 allerdings nur zum älteren PCIe-1.1-Standard kompatibel, obwohl die RV670-Chips durchaus PCIe 2.0 unterstützen"
 
mehrere gpus sind auch nich zwingend besser denn im gegensatz zu cpus bestehen gpus ja bereits aus vielen recheneinheiten. ob mehrere komplettkonstrukte (x2, gx2) mehr leistung bringen wie eine verdopplung der recheneinheiten einer gpu wage ich zu bezweifeln.
ich denke dass die multi-gpu-lösungen immer nur ein zwischenprodukt bleiben wenn die eigentliche gpu ihr end-of-life erreicht hat (7900, 3870, 8800) um nocheinmal den alten gpus einen verkaufsschub zu geben kurz bevor die neuen erscheinen (g80, r700, g100).
mit der r700 geht ati im grunde einen ganz anderen weg. durch die verwendung mehrerer kleiner kompletteinheiten als größere einzel-gpu sollten sich in erster linie deutliche einsparung in der produktion realisieren lassen (höhere yield-rate, da weniger transistoren je "teil-die"; nur eine gpu für alle klassen der baureihe da 1x r700 low-end, 2x r700 midrange, 3x r700 upper mainstream....)
außerdem dürften sich durch diese bauweise vorteile für die "aufgabenverteilung" ergeben. z b eine r700 einheit befasst sich ausschließlich mit der physik, die anderen einheiten werden durch physik nicht gebremst...
ein seht interessantes konzept das imo nicht mit multi-gpu vergleichbar sein wird...
 
Das ist nun wirklich ein guter Test von CB, gratuliere!

Einzig enttäuschend wirkten auf mich die Ergebnisse in Call of Juarez - hatte in anderen Tests irgendwie weit höhere frameraten gesichtet..

aber da wird das bald erscheinende nächste TreiberRelease denke ich nochmal nachfixen^^

ich meinerseits warte jedenfalls auf den Release des RV770 - vllt erledigt sich dann auch das Problem mit den MikroRucklern :eek:
 
ich finde trotzdem, dass sich die x2 einem SLI/CF-test stellen muss, das hat man damals bei nvidia nicht anders gemacht, da es ja nichts anderes als eine multi-gpu-lösung ist. auch sind zwei 8800gts etwa gleich teuer - wie schon angesprochen wurde. insofern muss sich auch eine 9800gx2 vor einem herkömmlichen SLI/CF-verbund beweisen. das gehört einfach dazu!

so long and greetz
 
Die Karte ist sicher vor allem für Besitzer von P35-Boards und ähnlichen Chipsätzen interessant die mit CF liebäugeln da sich das 16-4 Problem erledigt. Als ehemaliger 7950GX2 Besitzer ist die Karte für mich allerdings aktuell nicht interessant, erst mal warten wie haltbar die im Dauerbetrieb und was sich dann noch für Macken rausstellen
Gruß
 
An sich kein schlechtes Pilotprojekt, aber mehr als das ist es auch nicht.
Die Karte ist in allen Belangen, obwohl sicherlich nicht schlecht, nicht gut genug, um die zurecht gestellten Erwartungen zu erfüllen (sry, aber 15% mehr Leistung? sehr dürftig).
Ich sehe diese Karte eher als PR Gag, um bis zum R700 nicht völlig in der Versenkung zu verschwinden. Wer ne ATi Karte haben möchte, sollte eher zur normalen 3870 greifen, die ein sehr attraktives und viel besseres Produkt ist.
 
Wiedermal ein sehr schöner Test von euch! Dickes Lob an dieser Stelle. :daumen:

Es freut mich zu hören, dass ATi nun wieder oben mitmischen kann, das zu einem sehr fairen Preis. Doch den Preis zahlt man dann in Titeln, in denen kein CF/SLI unterstützt wird. Da brauche ich nicht das Geld ausgeben um auf eine solche Leistung zu kommen. Das ist auch der Grund für mich, dass ich mir niemals eine solche Dual-GPU Karte oder CF/SLI zulegen würde. Rohleistung ist damit sehr gut, wenn es genutzt werden kann.

Ich warte da lieber auf die neuen Generationen G100/R700, also Single-GPU Power, die definitiv genutzt werden kann - immer. :)
 
@105

ich finde es spielt eigentlich keine Rolle wie die Leistung die geboten wird zustande kommt , mich interessiert vorrangig was ich fuer mein Geld bekomme .Persoenlich finde ich diesen Trend bei CPU`s und GPU`s nicht so toll,mangelnde Qualitaet wird mit Quantitaet ausgeglichen.Die neuen Sachen sind zwar nicht wirklich schneller , aber durch Dual bzw Quad Core bei CPU`s am Ende eben doch ein bisschen. Echte Mehrleistung gabs in den letzten Jahren nur durch aufpumpen der bestehenden Architektur. Mehr Kerne,mehr Cache,mehr Stream-Prozessoren,mehr Speicher usw...
Einen wirklichen Durchbruch gabs die letzten paar Jahre nicht mehr.

Das Multi-CPU/GPU Konzept laeuft sich frueher oder spaeter tot , viele Sachen lassen sich einfach nicht parallelisieren.Je mehr Kerne es werden umso ineffezienter wird das Ganze,sogar Dual Core ist schon weit davon entfernt doppelt so schnell zu sein.

ATI hat nichtsdestotrotz fuer das Geld ein Top Produkt aus dem Hut gezaubert was wieder konkurrenzfaehig ist.Ganz fair und vergleichbar ist die Sache natuerlich nicht, aber am Ende kommt schliesslich nur auf den Preis an . Unter 400 Euro ist ganz klar ein Kampfpreis bei dem ATI nichts/nicht viel(?) verdient.

Wegen guter Publicity bzw aus marketingtechnischen Gruenden gibts die Karte zu dem Preis, die Karre aus dem Dreck ziehen fuer ATI oder gar AMD wird nichts... :)
 
Zuletzt bearbeitet:
Einer muss mir mal was erklären.

Clive Barkers Jericho, UT3, BioShock und Rainbox Six Vegas benutzen alle die Unreal Engine3. Warum schwanken aber die Performancesteigerung zwischen einer GPU und 2 GPUs trotz selben Grundgerüstes zwischen fast 10% und 100% ?
 
Gute Arbeit :daumen:

Wenn ich 410€ für ne GraKa hben sollte, dann nimmt man doch lieber 2*HD3870 wie 1*HD3870X2, oder? Immerhin hat die "normale" GDDR4 :D


mfG AmK
 
Oh mey, könnt ihr mir nicht sagen wies mit dem Lochabstand ist? Hier nochmal die ursprüngliche Frage:

Wie siehts mit den Abständen von den Löchern aus bei den Kühlkörpern? Ich möchte mir 2 WaküKühlkörper draufhauen, und wenn die Karte die gleichen Abstände hat wie die HD3870 kann ich ja die verwenden.

Ich muss mir jetzt aber echt was überlegen: entweder ne HD3870X2 (sehr günstig und schneller als ne Ultra) oder 2 8800GT (etwas teurer als ne HD3870X2, dafür aber um 20% schneller)....
 
naja 2 karten sind schneller als eine oder was will uns dieser test sagen? man darf auch nicht vergessen, dass es die nvidiakarten schon bald 14 monate gibt.
und ob ich jetzt 100 oder 150fps habe ist auch egal. bei den spielen wo es allerdings drauf ankommt sackt die karte wieder ab. nun gut mit der neuen generation von nvidia ist die sache eh wieder gegessen, da von amd vor 2009 nix mehr rauskommt.
 
Ich finde es ja erstaunlich, wie viel man mit einem optimierten treiber (nur bei crysis) rausholen kann. ich finde das ergebnis trotzdem nicht sooo toll wie CB es darstellt. in HD ohne AA/AF und bei 8xAA liegt ATi klar vorne, aber die ergebnisse unter der "paradedisziplin" 1600x1200 mit 4xAA+16xAF sind doch im vergleich zur ULTRA eher ernüchtern. ATi schlägt die ULTRA ein jahr später mit einer dual-gpu um 10% - wenn man noch die mikroruckler bedenkt- ist das eigentlich nicht soooo toll.

naja warten wir erstmal ab, wie die 9800GX2 so wird (vermutlich auch nicht so toll)
 
Ycon schrieb:
sry, aber 15% mehr Leistung? sehr dürftig

Ist ja auch eine Refresh Karte und dafür ist der Performancesprung echt gut. In Größenordnungen von 50% sind immer nur neue Architekturen schneller.
 
BullRun schrieb:
Das Multi-CPU/GPU Konzept laeuft sich frueher oder spaeter tot , viele Sachen lassen sich einfach nicht parallelisieren.Je mehr Kerne es werden umso ineffezienter wird das Ganze,sogar Dual Core ist schon weit davon entfernt doppelt so schnell zu sein

Diese Aussage kann ich nur halb teilen. Natürlich ist dem ganzen eine Grenze gesetzt, allerdings gibt es nicht die große Alternative (keine?) die indessen einspringen kann. Siehe die CPU-Entwicklungen Quad-Core - einen Prozessor der diese Leistung alleine bringt ist jedenfalls im mom nicht möglich. Daher umgeht man das ganze indem man mehrere kleine zusammenbringt. Solange hier keine Alternative besteht, sehe ich das hier als Möglichkeit an. Auch wenn das ganze ineffizienter wird, die Leistung steigert sich trotzdem.

Der größere Nachteil ist eben der Stromverbrauch - auf der anderen Seite dürften Einkernlösungen in der Produktion weitaus teurer sein um vll. die gleiche Leistung oder nicht allzu viel mehr zu bringen --> Bedenke auch Ausschuss
Ich denke, dass hier noch weiterhin Entwicklungspotential besteht:
- Gleichwertige Taktraten auch bei MultiGPUs gegenüber Einkernpendanten
- Bessere Kühlung
- Bessere Implementierung dieser Grafikkarten in Games
- Mikroruckler beseitigen (unter anderem auch Drop Downs)
- Stromverbrauch senken
- Bessere Treiber
 
Ein guter Test. Allerdings wäre der Vergleich mit einem SLI G92 Gespann (8800 GT und 8800 GTS 512) auch sehr interessant, dann ließe sich in etwa die Leistung der 9800 GX2 vergleichen. Aber was solls, die X2 lohnt also für absolute Freaks. Für Otto-Normalverbraucher tut es auch eine gute und günstige HD 3870 oder wenn man auf Nvidia steht eine 8800 GT(S). ;)
 
BullRun schrieb:
sogar Dual Core ist schon weit davon entfernt doppelt so schnell zu sein.
Lüge.


BullRun schrieb:
Das Multi-CPU/GPU Konzept laeuft sich frueher oder spaeter tot , viele Sachen lassen sich einfach nicht parallelisieren.
GPUs sind schon seit Ewigkeiten "Multi".
Nur das heutige SLI/CF Konzept ist einfach schrott, das 3DFX Prinzip war deutlich besser, eine wunderbare Skalierung.


Drachton schrieb:
- Mikroruckler beseitigen (unter anderem auch Drop Downs)
Wird immer nur am Rande erwähnt. Leider.
Das damit eine ganze Welt zusammenbricht wird verschwiegen.
Alle SLI/CF Test sind dadurch wertlos gewordenm, die FPS Angaben von SLI/CF nicht mit Einzelkarten vergleichbar.
 
Erstmal ein Dickes Danke an CB für diesen Test ! :daumen:

btt:
Ich kann mir beim besten willen nich erklären,was sich einige immer erhoffen,wenn Ati/nvidia ein neues Produkt auf den markt werfen!

Es werden immer nur FPS etc gesehn,was is mit zukunftsweisenden merkmalen ?

PCie 2.0 / DX10.1 (was ja mit dem SP1 für vista kommen soll)
Dann die Lautstärke,im IDLE bereich sehr ruhig kaum hörbar und da diese Karte nunmal nich für den Office rechner is,sondern sich eher an de Hardcore zocker richtet ,revidiert sich die lautstärke sowieso!
Denn dieser zocker bereich spielt sicherlich nich ohne sound bzw mit headset ;) oder aber auch mit ner 5.1 anlage!
Desweiteren,is die karte noch guenstiger als das aktuellste flaggschiff nvidias!
Somit sprechen mehr dinge für einen kauf,als gegen einen kauf !
Und das rls des Treibers is auch grad mal das 1.,wenn man bedekt das ca 10% mehr leistung bei crysis dabei rumspringen,mal sehn was noch so folgt in den monaten ^^


Slave

nie den tag vor dem abend loben ;)
 
Weils hier grad steht. Ich würde die Lautstärke NIE als revidiert ansehen, nur weil die Karte hauptsächlich für Spieler in Frage kommt. Grund steht in meinem ertsen Post hier: Die Atmosphäre von ruhigen Abschnitten in Games wird dadurch oftmals völlig ruiniert. Horrorshooter mit ihrer subtilen Stille sind hier ein exzellentes Beispiel.

Das selbe gilt für Filmwiedergabe, was auch vielen Spielerechnern sicherlich vorkommt. Die Grafik ist hier quasi Idle und würde entsprechend stören, wenn sie zu laut ist.
 
Zurück
Oben