Test ATi Radeon HD 3870 X2 im Test: AMDs ersehnter Griff nach den Sternen

Danke CB für den test! also ca 400€ für diese karte, kann man ausgeben, finde ich nicht zu teuer.
Aber bei den aktuellen games wie "Crysis" werden die "Crysis" fans enttäuscht sein, das nicht mal 2 GPU´s eine einzelne nVidia karte schlagen kann.
Oder bei Call of Duty4: Modern Warfare
HIER
hmmm.......
 
Sugave7 schrieb:
Oh mey, könnt ihr mir nicht sagen wies mit dem Lochabstand ist?

laut xs sind es NICHT die gleichen Löcher wie bei der 3870. wenns sein muss such ich die quelle nochmal raus.


Shizzle schrieb:
Clive Barkers Jericho, UT3, BioShock und Rainbox Six Vegas benutzen alle die Unreal Engine3. Warum schwanken aber die Performancesteigerung zwischen einer GPU und 2 GPUs trotz selben Grundgerüstes zwischen fast 10% und 100% ?

hmm :

UT3 bis zu 90% schneller
vegas bis zu 108% schneller
Bioshock bis zu 109% schneller

kann da nicht sehen wo das schlecht skaliert.

ok, natürlich in niedrigen Auflösungen wo die cpu limitiert.
sieht man z.b. sehr schön an bioshock : 1280*1024 ohne AF ist praktisch genauso schnell wie 1600*1200 mit 16xAF, sobald der CPU Flaschenhals wegen der Auflösung entfällt skaliert CF perfekt. (eigentlich sogar besser als perfekt)

Das Jericho nur ähnlich gut skaliert wenn man die exe umbenannt sollte mittlerweile klar sein. Schade das sowas eben im Artikel nicht dargestellt wird.


xXstrikerXx schrieb:
auch sind zwei 8800gts etwa gleich teuer

naja wenn für dich 500€ oder mehr das gleiche sind wie 380€(bzw ziemlich bald wohl noch weniger), dann kauf dir halt 2 gts.




edit @ LatinoRamon :

warum kramen eigentlich ständig Leute hier irgentwelche Benches raus von Testern die unfähig sind aktuelle Treiber zu nutzen und CF zu aktivieren ?

hier gibts nen realistischen COD4 Benchmark : KLICK
 
Zuletzt bearbeitet:
Ich denke,xXstrikerXx meinte 2 8800 GT. Das S soll sicherlich das Mehrzahl s sein. ;) Ist bissi kompliziert bei der Karte und der VErwandschaft. =D
 
und selbst damit kann man es nicht vergleichen.

Mal abgesehen davon das die meisten SLI Boards in meinen Augen eh Schrott sind, kosten sie auch noch ne Stange mehr.
 
Nun ja, rund 50,- Tacken teurer das stimmt schon. aber dafür laut dem kürzlich gemachten SLI, Crossfire oder Einzelkarte-TEst auch nochmal ein Stückchen schneller in der Gesamtperformance Qualität. Normale Performance sollte in diesem Bereich die untergeordnete Rolle spielen. wer spielt bei solcher Leistung ohne AA und AF?
 
bei Enthusiast wurden durchaus die aktuellsten ati-treiber verwendet ;)

Enthusiast schrieb:
We are using the latest drivers for both video cards, for the 8800 GTX that is 169.28 beta driver, and for the 3870 X2 it is an ATI Catalyst provided driver with the latest Crysis performance fixes for CrossFire.

egal wie, so nen frameverlauf würde ich auch gerne mal bei CB und anderen hardware-seiten sehn wollen ;) deutlich aussagekräftiger als irgendwelche balkendiagramme mit durchschnittswerten.

:tschau:
 
@ Mustis : Solange man nur 4xAA will stimmt da ja.

Ob ich mir wegen den ~15% mehr Leistung aber ein teures und unkompatibles Sli Mainboard ans Bein binde und nebenbei eine Kombi habe die für 8xAA schlichtweg untauglich ist bleibt fraglich.



edit : vielleicht meinen sie damit ja auch den letzten Crysis hotfix Treiber ?

Jedenfalls machen die Ergebnisse keinen Sinn. Anandtech hat doppelt so viele Fps in den gleichen Einstellungen. Könnte das wohl darauf hindeuten das CF aktiv ist im gegensatz zum [H] ?
 
Zuletzt bearbeitet:
Einmal mehr eine Karte die mit viel zu lautem Lüfter und zu hohem Verbrauch punktet. Was soll man sich denn erhoffen. Bald kommt die 9800gx2 von nVidia die zwar mit einem "neuen" Chip versehen sein wird aber sicher proportional zur zusätzlichen Leistung aus mehr verbraucht. Ich finde man hat schon an der 7950gx2 gesehen das das auf lange Zeit keine gute lösung ist. Bald darauf waren die Geforce 8 da, die schneller und leiser waren... Aber mei wers unbedingt braucht...
 
Alles hat seine Vor- und Nachteile. Auch 8xAA ist mit dem gespann kein Thema solange die auflösung nicht über 1280 geht. Was mir mit meinem 19 Zöller durchaus reicht. Liegt dan eben am Anwender, was besser für ihn ist. Und das SLI Mobos so inkompatibel (nicht un-, sieht ja gruselig aus. :p) sein sollen, dazu ist mir jetzt nicht soviel bekannt.
 
Unyu hat Plan.
Also Microruckler.... das geht ja mal GAR NICHT!
(Edit: auch Whisper-X hat Plan ;) )
 
@ Drachton

Genau, ich denke auch das es an Alternativen fehlt, CPU`s muessen ja x86- und Grafikkarten muessen Windows bzw DirectX kompatibel sein. Das schraenkt vielleicht die Entwicklung so sehr ein das nichts weltbewegendes mehr zu erwarten ist ,das schon uralte x86 Konzept ist vielleicht schon so gut wie ausgereizt und inner Sackgasse .

Vielleicht wird RISC wieder modern und fuer Windows angepasst... das waer mal was wo vielleicht ein grundsaetzlicher Leistungssprung absehbar waere (?) ..... mal sehen was kommt
 
Realsmasher schrieb:
UT3 bis zu 90% schneller
vegas bis zu 108% schneller
Bioshock bis zu 109% schneller
Das ist halt die Sache, in wie weit diese Skalierung richtig ist.
Was bleibt nach Abzug der Mikroruckler an Mehrperformance? 30%?
Ohne Frametimes werden wir es nie wissen.


Realsmasher schrieb:
aber dafür laut dem kürzlich gemachten SLI, Crossfire oder Einzelkarte-TEst auch nochmal ein Stückchen schneller in der Gesamtperformance Qualität. Normale Performance sollte in diesem Bereich die untergeordnete Rolle spielen. wer spielt bei solcher Leistung ohne AA und AF?
Wer spielt überhaupt ohne AA/AF?


Play schrieb:
Unyu hat Plan.
Also Microruckler.... das geht ja mal GAR NICHT!
Wenigstens ignorien mich nur 99% der User. :cool_alt:
 
Unyu schrieb:
GPUs sind schon seit Ewigkeiten "Multi".
Nur das heutige SLI/CF Konzept ist einfach schrott, das 3DFX Prinzip war deutlich besser, eine wunderbare Skalierung.


Leider funktioniert das heute nicht mehr so einfach - die Frames in Zeilen aufzuteilen sorgt für sicherlich für eine ordentliche Lastverteilung innerhalb der Szene, aber die Architekturen sind inzwischen zu komplex.
Wenn es noch so gehen würde, hätten wir derartige Lösungen.

Man munkelt, ATi würde mit der kommenden Architektur durch extrem hohe Transferraten zwischen den Cores äquivalent zu von Grund auf größeren Cores vernünftige Skalierungen erreichen, aber aktuelle Multi-Chip-Lösungen kranken einfach am Prinzip.
 
Realsmasher schrieb:
Jedenfalls machen die Ergebnisse keinen Sinn. Anandtech hat doppelt so viele Fps in den gleichen Einstellungen. Könnte das wohl darauf hindeuten das CF aktiv ist im gegensatz zum [H] ?

anandtech gibt für mich nur max frames an... das würde dann in etwa auf die 20 - 30fps unterschied bei [H] auf die max zutreffen.

insofern find ich diesen verlauf der fps wirklich interessant.

;)

Leider funktioniert das heute nicht mehr so einfach - die Frames in Zeilen aufzuteilen sorgt für sicherlich für eine ordentliche Lastverteilung innerhalb der Szene, aber die Architekturen sind inzwischen zu komplex.

nicht die architektur ist daran schuld sondern das arbeiten mit den vielen zusätzlichen befehlssätzen... sprich den shadern und sonstige effekte.
 
Zuletzt bearbeitet:
MadManniMan schrieb:
Wenn es noch so gehen würde, hätten wir derartige Lösungen.
Richtig.
Ich wollte nur klarstellen, das ich SLI/CF nicht generell so crap ist.

Wenn es ordentlich funktioniert können von mir aus auch 1000 einzelne Chips auf der Karte sitzen, aber im Moment läuft es eben nicht.
 
Also so ist die Karte garnicht schlecht aber unter DX10 bricht sie brutal ein. In fast jedem Spiel ist die Ultra schneller. Ich denke trotzdem dass die 9800 GTX schneller sein wird.
Es liegt warscheinlich auch am Treiber dass sie nicht sooo schnell ist aber gut für AMD.

Hoffentlich kommt AMD wieder ganz nach oben dann gibt es wieder schöne Konkurenzkämpfe.

mfg Kivi
 
IgG schrieb:
HardOCP hat einige interessante Benchmarks (außer Crysis in 1920x1200):
  • Call of Duty 4: Die X2 ist im Durchschnitt langsamer als eine GTX
  • Crysis: Die GTX schlägt die X2 (sogar trotz höherer Einstellungen)
  • HL2:EP2: Die X2 schlägt die GTX deutlich
  • UT3: Die GTX schlägt die X2
Gerade in den neueren Spielen (UT3, CoD4, Crysis) hätte ich erwartet, dass die X2 mehr kann :eek:. Hoffe mal, dass das wirklich nur an schlechten Treibern liegt.

Wobei man hier evtl. auch eine CPU Limitierung in Betracht ziehen kann, die CB Tester schreiben ja, dass die ATI manchmal nicht mehr kann, weil die CPU am Ende ist und wenn man jetzt einmal vergleicht:

CB Test: Intel Core 2 Extreme X6800 (übertaktet auf 3,46 GHz, Dual-Core)
HardOCP Test: Intel Core 2 Duo X6800 @2.93 GHz

Und ich kann mir gut vorstellen, dass die 2 ATI GPUs eine deutlich höhere CPU Last erzeugen können als die eine Nvidia GPU.

Wir bräuchten einfach eine CPU zum testen, der selbst 2 zu 100% ausgelastete GPUs, nur ein müdes Lächeln abgewinnen können :D
 
Realsmasher schrieb:
laut xs sind es NICHT die gleichen Löcher wie bei der 3870. wenns sein muss such ich die quelle nochmal raus

Quelle wäre gut. ;)

Ach ja: wie sieht das Zubehör aus? Hat es dort nen Adapter bei der von PCIe 6pin auf 8pin geht??

*ich habs heute so mit fett geschriebenen Dingen...*
 
Erstmal: Klasse Test...

Ich wünsche AMD viel Erfolg mit der Karte. P/L-Verhältnis passt für mich.

Ja, wieso ist eine 330EUR günstige, über 1 Jahr alte GTX gerade in neueren Spielen schneller (CoD4, Crysis, UT3)?
Da würde ich sagen warten wir noch 1-3 Treiber-Aktualisierungen ab. Vor allem is das die Schuld der Spieleentwickler. Das wird sich aber auch noch ändern!
 
@Redakteure

Boa ihr seit ja schneller als die Polizei erlaubt;)

dickes Lob :daumen:
 
Zurück
Oben