Test ATi Radeon HD 3870 X2 im Test: AMDs ersehnter Griff nach den Sternen

Realsmasher schrieb:
Beispiele :

Anno 1701 (alles max) -> x2 40fps, alle anderen karten nur 20
Oblivion -> 45fps, alle anderen unter 23
prey -> dasselbe (43/23)
vegas -> genauso (47/28)
bioshock -> 39 statt 27
world in conflict -> 30 statt 20


also ich finde das sind eine Menge Spiele und im Beispiel von Bioshock und WiC auch recht neue.

natürlich hat man in niedrigen Auflösungen keine Vorteile, aber wer hat von einer CF Lösung dort denn etwas anderes erwartet ?

Clive Barker's Jericho

Gothic3

Call of Juarez

Crysis

ich halte einfach nichts von Dualchip-lösungen.


vor allem eins:

jede neue Grafikkarte wird sich in Zukunft an Crysis messen müssen.


Ich warte auf die G100/ R700
[/B][/B]
 
Also keine Ahnung was ihr alle habt, aber ich find die Karte murx. Highend sollte dann doch eher eine ordentliche DX 10 unterstützung besitzen oder? Warum wird die Karte dann in so zeimlich jedem Game (zumindest für mich relevanten 1280x1024 max details) von der Ultra noch getopt?
Klar im so aussagekräftigem 3dmurks is sie wieder Top aber bei DX10 is Ende sehr schade.....
Die Karte sollte ja dann eigentlich zukünftge DX10 Spiele ordentlich darstellen und nich jetzt schon am Ende sein.
Was hier im mom so getestet is für die Karte Teils ja auch nurnoch sograde OK.....
 
Oh ja, hab ganz vergessen hier mein Lob auszusprechen. :)
Der Artikel ist um längen besser als der von PC Welt. Was die da für einen - entschuldigung - Schei* zusammengeschrieben haben ... Tiefer können die schon gar nicht mehr sinken ...
 
Für das geld bekommt man fast 4 3850 Karten für XCrossfire.
Die müssten eigentlich schneller sein.
 
Soso man komme kaum um die rum wenn man eine Highendkarte wolle?
Find ich aber schon, den einen Grund bringt ihr ja selber gleich gut rüber:

Wenn CrossFire in einem Spiel optimal funktioniert, rendert die Dual-GPU-Karte deutlich schneller als Nvidias Flaggschiff. Wird CrossFire nicht unterstützt (wie z.B. in Gothic 3), fällt die Karte allerdings auf das Niveau einer Radeon HD 3870 oder in der Regel noch darunter zurück.

....und richtig "toll" macht den ganzen SLi/Crossfirequatsch doch die mittlerweile leider allseits bekannte Mikrorucklerei:
https://www.computerbase.de/artikel...#abschnitt_das_multi_gpu_problem_mikroruckler

Nie im Leben würd ich mir so ne Karte antun, ausserdem finde ich es albern Atis Rückkehr in die Highendsparte deswegen zu bejubeln, das sind sie doch erst wenn sie mit einer Singlekarte gegen eine Singlekarte von Nvidia bestehen, einfach zwei GPUs zusammenpappen sieht doch viel mehr nach Verzweiflungstat aus, und schön laut isse als Krönung auch noch....oder mal wieder muss man bei Ati ja sagen...würg.

Man kann nur hoffen der ganze GX2 und X2 Kram wird im Sommer von guten Singlekarten der neuen Generation von beiden Herstellern gleich wieder beerdigt.
 
SSJ schrieb:
jede neue Grafikkarte wird sich in Zukunft an Crysis messen müssen.

An dem Parade nVidia Spiel wo alles aud deren HW zugeschnitten wurde... naja für mich nicht sehr aussagekräftig.
kA überhaupt was alle mit dem Game haben, ich habs mir nicht geholt. Klar ist die Grafik genial, aber ein Spiel das nicht mal mit bester Hardware auf Max. Quali spielbar ist, ist auch irgendwie senseless. Und für die paar Std. Spielspaß bietet es zu wenig.

@MidnightJam
Naja um das zu klären dauerts noch bis März;)

einfach zwei GPUs zusammenpappen sieht doch viel mehr nach Verzweiflungstat aus, und schön laut isse als Krönung auch noch....oder mal wieder muss man bei Ati ja sagen...würg.

Papp du mal zwei GPUs zusammen wenns eh so einfach is :) Die Ati sieht immerhin deutlich durchdachter aus als die GX2. Lautstärke... im Idle is sie leiser als die nVidia Karten und unter Last hat man sowieso die Boxen an. Zudem: wers leise haben will setzt eh meistens nicht auf den Referenzkühler
 
Zuletzt bearbeitet:
der Testbericht auf Hardocp zeigt ein etwas anderes Bild gegen die GeForce 8800 GTX da dort auch die niedrigsten FPS in den Spielen Berücksichtigt werden und da sieht man das viele Games in höheren Auflösungen und AA mit der Nvidia Karte Smoother im niedrigsten Framebereich laufen als mit der X2, in manchen games kann sie aber gleichziehen oder ist sogar besser


ich finde die X2 von ATI und die GX von NVIDIA sind nicht so berauschend, diese zusammengeschusterte Lösung, dann lieber doch 1 wirkliche High End Karte mit höheren Speicherinterface

ich warte noch ein bisschen bis so eine erhältlich ist
 
Na ganz toll! Und wieder habt Ihr die ATI nur mit einem veralteten Intel i975X gebencht. Könnt Ihr Euch denn nicht endlich mal ein neues Board leisten???
 
martma schrieb:
Na ganz toll! Und wieder habt Ihr die ATI nur mit einem veralteten Intel i975X gebencht. Könnt Ihr Euch denn nicht endlich mal ein neues Board leisten???

Und wieder hast du den Text weder gelesen noch verstanden! Kannst du dir nicht mal ein Gehirn leisten? (Wie man in den Wald hinein ruft, so schallt es heraus)
 
hmm wieso wurde das P/L Verhältnis nur in 1280x1024 angegeben? Bei der GTS 512MB war es 1600x1200 ;)
Naja ist nicht so schlimm kann man sich ja ausrechnen :)

Und wann testet ihr mal mit Widescreenauflösungen.. ich denke 50% der leute da draußen verwenden 1680x1050 nicht 1600x1200....

aber sonst netter Test! Danke an die CB Crew :D
 
Danke CB für den Test.

Obwohl ich sonst eigentlich immer gerne ab und zu meine Kiste aufrüste
und obwohl bei mir in dieser Sache nun über ein Jahr nichts mehr passiert ist,
was für mich schon fast eine lange Zeit ist, kommt für mich weder die GX2 noch
die X2 in Frage. Ich würde meine GTX sofort weitergeben und mir was Neues holen,
wenn's was gäbe das mich überzeugt.

Müsst ich jetzt grad eine CF/SLI Karte nehmen wärs wohl die X2,
aber ich habe einfach keine Lust mich mit noch mehr Game Problemen
rum zu schlagen, dass kanns einfach nicht sein. Ich denke dabei auch
and die PC's meiner Kollegen, zu denen ich schaue, wenns mal
nicht so läuft wie es soll.

Also ATI und NV, bringt mir was gescheites, dann kauf ich's auch...

Gruss Seft
 
@martma: kannst du mir ma erklären wo das problem mit dem i975 chipsatz liegt? das is doch sowas von wayne. das einzige was interessant gewesen wäre wäre ein test auf nem 680i gewesen um zu sehn ob leute die kein sli-taugliches board haben irgendwelche nachteile oder probs mit der karte bekommen...

@Tommy: mir ist aufgefallen dass die 3870x2 bei euch teils bedeutend besser abschneidet wie auf den anderen testseiten (wurde hier glaub ich auch schon mehrfach erwähnt, z b weiter oben von Crono666) wie kann das? ich hoffe ihr habt euch jetz nich von den ganzen ati-fanboy-kiddys aus dem cf/sli-artikel einschüchtern lassen?
 
Zuletzt bearbeitet:
Crono666 schrieb:
der Testbericht auf Hardocp zeigt ein etwas anderes Bild gegen die GeForce 8800 GTX da dort auch die niedrigsten FPS in den Spielen Berücksichtigt werden und da sieht man das viele Games in höheren Auflösungen und AA mit der Nvidia Karte Smoother im niedrigsten Framebereich laufen als mit der X2, in manchen games kann sie aber gleichziehen oder ist sogar besser

danke für die ansprache zu diesem thema :) das bemängle ich bei viel zu vielen tests im netz... da werden max frames oder avg frames angegeben aber nicht die min frames *kotz*

Ball_Lightning schrieb:
An dem Parade nVidia Spiel wo alles aud deren HW zugeschnitten wurde... naja für mich nicht sehr aussagekräftig.

ATI hatte inzwichen genügend zeit hier die treiber anzupassen... mal abgesehn würde ich als hersteller gerade deswegen alles versuchen nvidia in einem unterstützen spiel zu schlagen ;) das macht sich doch immer positiv.

von daher schon ne etwas schwache leistung, schließlich ist das game toplevel.

der CoD4 vergleich fehlt uns leider bei CB, aber in den anderen tests sieht es da auch nicht so toll für die x2 aus.
 
SSJ schrieb:
Clive Barker's Jericho
Gothic3

Call of Juarez
Crysis

Erstere beide skalieren sehr gut wenn man die exe umbenennt. Da CB das nicht getan hat haben wir natürlich keine konkreten Werte, aber selbst bei nur 50% skalierung wären es in Jericho immer noch 30fps und in gothic 3 auch um die 25.

COJ und crysis sind grafikdemos extra von Ati bzw Nvidia zugeschnitten auf die Hardware. Wer die spielen möchte und sich deswegen extra hardware kauft, der kann das gerne tun, aber für sinnvoll halte ich es nicht.


Versteh auch nicht warum alle Welt Crysis als neue Herausforderung sieht...ein CMD Dirt mit Patch 1.0 shadern braucht z.b. mindestens genausoviel Leistung. Nicht umsonst haben alle 8800gtx Besitzer rumgeheult weil sie nichtmal in 1280*1024 zocken konnten und extra für sie kam ein Patch der die maximale Grafikqualität gesenkt hat :rolleyes:

Naja an den Verkaufszahlen von Crysis sieht man doch eigentlich eindeutig das dieses Spiel nur für eine Minderheit interressant ist.
 
T-DSC schrieb:
Also keine Ahnung was ihr alle habt, aber ich find die Karte murx. Highend sollte dann doch eher eine ordentliche DX 10 unterstützung besitzen oder? Warum wird die Karte dann in so zeimlich jedem Game (zumindest für mich relevanten 1280x1024 max details) von der Ultra noch getopt?
Klar im so aussagekräftigem 3dmurks is sie wieder Top aber bei DX10 is Ende sehr schade.....
Die Karte sollte ja dann eigentlich zukünftge DX10 Spiele ordentlich darstellen und nich jetzt schon am Ende sein.
Was hier im mom so getestet is für die Karte Teils ja auch nurnoch sograde OK.....

Seltsam, im Performance-Rating, also der Zusammenfassung, ist sie in DX10 mit der niedrigen Auflösung (geraaade so) schneller als eine Ultra.

Edit: Bin gerade mal die einzelnen Spiele durchgegangen. Für das Rating wurde wohl 1600x1200, oder so, genommen. Aber es bleibt noch zu sagen, dass die Karte eh nicht für so niedrige Auflösungen gemacht ist und Crossfire ja in manchen Spielen (noch) nicht läuft...
 
Zuletzt bearbeitet:
Fehler im Artikel ?

Kann es sein, dass bei den Vergleichs-FPS fürs Übertakten die frames der 8800gts 512 benutzt wurden und nicht die der 3870 x2??

weil wenn ich die werte dort in den benchmarks suche, passen die nie für die ati-karte sondern nur für die 8800er.

bitte mal überprüfen.
 
Schreib das am besten direkt an CB: news(at)com... .de
 
oh bitte nich schon wieder diese treiber-gerüchte -.- die treiber für die 3870 (cf) sind absolut in ordnung.

durch die spieleprofile wird die 3870x2 in den einzelnen spielen einen deutlichen performance-sprung machen. in den spielen wo keine profile für angefertigt werden bleibt sie auf 3870 niveau. das is numa einfach eins der größten mankos an diesen karten (auch an der gx2!) dass man auf die anpassung der spiele warten muß wärend man mit der gtx z b von vorn herein und auch schon in der beta-version die volle leistung erhält... dass die spiele profile nich für alle spiele im test vorliegen finde ich dabei sogar gut weil es immer irgendwelche spiele geben wird die noch zu neu sind und für die die profile noch auf sich warten lassen. damit spiegelt das schon ne realistische situation wieder...

edit: willkommen im cb-forum Randalmaker :)
 
Zuletzt bearbeitet:
Sagt mal wo kommt eigentlich der totale Schmarrn her, das für CMR: Dirt und Crysis angeblich cheat treiber bzw. Patches gekommen sind? Sind wir jetzt wieder auf dem Niveau angelangt? Ich habe beide Spiele und so sehr ich mich auch angestrengt habe, konnte ich bei keinem der Spiele auch nur annähernde grafische Veränderungen durch Patches oder Treiberwechsel erkennen. Patch 1.1 für Dirt hat eigentlich nur dafür gesorgt, dass das Spiel überhaupt lief ohne das man erstmal die Datenkompression oder ähnliches für den jeweiligen Ordner abstellen musste. Flüssig liefs mit ner GTX zu dem Zeitpunkt jedenfalls. nach dem Patch warens vll 3-4 Frames mehr (bei deutlich über 40 reichlich egal), aber es gab definitv kein Herumgebastel an der Grafik. Geht zum Optiker bzw. sucht nicht mit dem Willen, etwas in der Richtung zu finden. den wer will, der findet natürlich (eingebildete) grafische Mängel.

Desweiteren ist es ne ziemliuch Frechheit Crysis herab zu würdigen. Es muss einem ja keinen Spass gemacht haben, es dann aber als Grafikdemo abzustempeln ist ziemlich respektlos. Mir hat es jedenfalls ne menge SPass gemacht. Desweiteren it es grafisch deutlich anspruchsvoller was die Rechenleistung angeht. da kommt ein Dirt nicht heran. Nur weil es rucklig lief bei manchen, da es wirklich mies portiert war, bedeutet nicht, das es dadurch als Referenz gleichwertig ist.
 
Zuletzt bearbeitet von einem Moderator:
Zurück
Oben