Test Test: ATi Radeon HD 4870 X2

RICHTIG, zumal 2xGTX280 NUR auf NV BOARDS gehen!
 
Wozu dann noch Benchmarks?
Gute Frage. Eine direkte Vergleichbarkeit zu Single-GPUs ist de facto durch aktuelle Messungen imo nicht möglich.
Finde dich ab damit, die X2 ist die mit Abstand schnellste Graka. Und daran gibts NICHTS, ABER AUCH GAR NICHTS ZU RÜTTELN.
Großbuchstaben ändern nichts an den Mikrorucklern. Die Karte erreicht vll die höchsten Fps, deswegen läuft ein Spiel aber nicht besser :rolleyes: Ein langer Balken hat nichts zu bedeuten, wie so oft im Leben ...

@ Realsmasher

Der Vergleich sollte das nur illustrieren, praktisch geht das freilich nicht. Es fühlt sich aber beim Aiming und Movement so an. Das ist die Problematik - die Fps einer Multi-GPU-Karte fühlen sich nicht an wie auf einer Single-GPU, egal ob X2 oder GX2.

cYa
 
wunder mich immer noch über die temperaturen. hab ne x1900xt und die wird schon heiss, aber 80° im idle ? das kann doch auf dauer nix sein, ausser man kühlt die karte irgendwie extra. werd mal abwarten wie die karten so auf dauer laufen, im mom reicht das um mir erstma keine 48xx zu kaufen
 
deathhour schrieb:
edit:
WIe mein Vorgänger es gesagt hat der TEST hier dient nur als INDIKATOR! Belese dich noch bei anderen tests dann weißte was sache ist!
EIn SLI gespann kostet bei weitem mehr! Du brauchst ein gescheides 780i board oder irgendson teuren schnick schnak, dann 2xGTX280 das wären dann 650€--->ca.250€ mehr als eine SINGLE lösung ala HD4870x2, die auf jedem BOARD läuft, die EIN SLOT benötigt und die obendrein schneller, "evtl leiser" ist!

Teurer ist ein GTX 280er SLI System sicher, aber das ist High-End und da sind 650.- für Grafikkarten auch nicht wirklich viel.

Wie kommst du aber auf die Idee das ein GTX 280 SLI System nicht auf die Leistung einer X2 kommt, wenn hier im Test die X2 schon mühe hat mit den 260 SLI mitzuhalten?

Zwischen 260er und 280er liegen gut 25% ;)

und leiser verstehe ich auch nicht ganz, da eine 280er deutlich leiser ist als die X2...
 
ich habe ewig Shooter gezockt mit SLI und das Ruckeln war nie ein Problem ausser, wenn das Spiel schon von selbst angefangen hat zu ruckeln...
 
Einige Leute fragen immer nach dem Netzteil für die 4870 X2, das kann man noch nicht genau sagen, weil CF mal wieder nicht will und Furmark nicht funktioniert. Man hat schon mit einem Kern Furmark laufen lassen und dabei ist die Karte schon zu heiß geworden und hat sich teilweise schon abgeschalten(abgeschaltet;)).(ist das Kühlsystem etwa nicht stark genug?) Wenn man wie im Testsystem alles extrem übertaktet, reicht gerade noch ein 600 -650Watt Netzteil.

Ansonsten wurde bereits alles gesagt über die Karte. "Genoo" hat das sehr gut beschrieben, warum man sich noch immer kein SLI + CF System anschaffen sollte.
Im großen und ganzen deckt sich der CB Test mit PCGH auf die im Vorfeld so eingegangen wurde. Wer für Microruckler und CF Saklierung 430€ ausgeben möchte kann das gerne tun, die meisten möchten aber gerne für so einen Batzen Geld auch 100% Qualität sehen.
CF und SLI sind nur für Bastler, die no-go Nachteile überwiegen im Moment einfach noch. Bis dahin gilt:

Die HD 4870 X2 ist die schnellste µRuckler Karte.
Die GTX 280 ist die schnellste Karte ohne µRuckler.
 
Zuletzt bearbeitet:
wuschiii schrieb:
wunder mich immer noch über die temperaturen. hab ne x1900xt und die wird schon heiss, aber 80° im idle ? das kann doch auf dauer nix sein, ausser man kühlt die karte irgendwie extra. werd mal abwarten wie die karten so auf dauer laufen, im mom reicht das um mir erstma keine 48xx zu kaufen

Ich frag mich immer wieder was ihr andauernd mit den Temperaturen habt, ist hier im Forum evtl. auch jemand anwesend, der Zusatzkühler an seinem Auto verbaut nur weil ihn die 90° C Wassertemperatur im Motorblock stören? (Zur Info wer es nicht weiß, ein Auto hat 2 Kühlkreisläufe welche über den Thermostat verbunden und geregelt werden, wird im kleinen Kühlkreislauf die Temperatur zu hoch wird der Durchfluss zum großen Kühlkreislauf und Kühler (weiter) geöffnet) Ergo ein Motorblock hat konstant um die 90° Wassertemperatur, egal ob ich im Leerlauf irgendwo stehe oder die Karre mit Vollgas über die Autobahn prügle.

Und genau so verhält es sich bei den Grafikkarten, es gibt einen Temperaturbereich, den man nicht erreichen sollte, alles was darunter liegt ist in Ordnung, ob ich da nun 10° darunter liege oder 50° ist egal weil bei erreichen der kritischen Temperatur fährt der Chip die Leistung runter bzw. schaltet ab.
 
Bandaleros schrieb:
@ Dural

nicht jedes mb hat 2 steckplätze für 2 grafikkarten, aber bei der x2 ist es egal ob ein oder zwei steckplätze sie passt drauf, was man bei 2x gtx 280 oder 2x gtx 260 oder 2x 4870 nicht sagen kann ;)

Aktueller Chipsatz Intel:

X48 2x16Fach PCI-E 2.0
P45 2x8Fach PCI-E 2.0

Auch bei AMD:
FX790 2x16Fach PCI-E 2.0

Ich sehe keine Grund eine X2 zu kaufen wenn man das gleiche auch mit 2x4870 haben kann die erst noch Kühler, Leiser, Besser zu Kühlen und Wahrscheinlich auch besser zum Übertakten gehen...

Sag mir bitte nur einen Vorteil einer X2 neben dem ein Slot (was ich nicht gelten lasse, da heute eh jedens MB in dieser Preisklasse zwei hat) die für eine X2 und gegen zwei einzel Karten (4870) spricht?
 
Schaut euch mal den PCGH- oder auch andere Tests an, dort schneidet die X2 in fast allen Bereichen vollständig anders ab (siehe u.a. CoD4).

http://www.pcgameshardware.de/aid,655276/Test/Benchmark/PCGH-Test_Radeon_HD_4870_X2/?page=1

Fazit PCGH:

Unser altes Fazit bleibt bestehen: Die Radeon HD 4870 X2 verfügt über brachiale Rechenleistung, solange Crossfire funktioniert. Im Test mit Crysis zeigt sich, dass der aktuelle Treiber immer noch Probleme mit dem DX10-Modus hat. Ähnliche Kinderkrankheiten zeigen sich auch bei Race Driver: Grid. Die meisten anderen Benchmarks sehen die Radeon HD 4870 X2 zum Teil deutlich vor der Geforce GTX 280. Letztere bietet aber - wie jede Single-GPU-Karte - hochwertigere Fps, gänzlich frei von Mikroruckeln.

Beispiel CoD4:

http://www.pcgameshardware.de/aid,655276/Test/Benchmark/PCGH-Test_Radeon_HD_4870_X2/?page=5

Das Mikroruckeln ist anschließend sehr deutlich, 50 Fps fühlen sich subjektiv an wie 30.

Ich kriege schon die Krätze wenn ich sehe das wieder mit exe-renaming gearbeitet werden muß um ein paar FPS mehr rauszukitzlen.

Wenn CF in CoD4 wirklich so schlecht skaliert, dann frage ich mich wie die CB-Werte zustande kommen:

https://www.computerbase.de/2008-08/test-ati-radeon-hd-4870-x2/9/#abschnitt_call_of_duty_4
 
Zuletzt bearbeitet:
@Dural

Naja mag ja sein aber bedenke die TREIBER und die PROFILE!
Beim start der HD3870x2 lief FAST kein Spiel, es war brutal! Die Karte war richtig lahm erst nach 1-2 monaten hatte sie ihre "Pracht" entfalltet und die ultra angegriffen!

Wird hier nicht anders sein! Hab gerade mal bei pcgh.de geschaut die machen ja auch keine SLI vergleiche!
Die GTX260 SLI dient hier echt nur als Beispiel! Die HD4870X2 wird eben hier als ganzes mit den anderen karten verglichen!

Wegen dem Board gut hast recht, jedoch es gibt eben auch leute die nicht unbedingt ein neues board kaufen wollen! Und es gibt solche kranken wie mich die die karte in ein mATX gehäuse zwängen würden ;) :lol: scherz will die karte nicht ^^
 
Zuletzt bearbeitet:
Dural schrieb:
Sag mir bitte nur einen Vorteil einer X2 neben dem ein Slot (was ich nicht gelten lasse, da heute eh jedens MB in dieser Preisklasse zwei hat) die für eine X2 und gegen zwei einzel Karten (4870) spricht?

Das ist leider der einzige Vorteil. Leute die nicht auf ein CF-Board gesetzt haben oder ein SLI-Board haben können sich die Leistung von 2x 4870er ins Haus holen. Finde ich selber Schade, ich tendiere auch zu 2x 4870er-Lösung nach dem Test hier.
 
@Dural

ich habe nur erwähnt oder noch mals erklärt was vor mir schon mal gesagt wurde, natürlich habe die mb´s in dieser preisklasse alle 2 steckplätze, wenn wir aber so denken dann brauchen wir uns aber auch nicht aufregen das die karte so viel strom braucht etc. weil das in dieser preisklasse keine rolle spielt sondern einfach nur die max. leistung zählt oder?

wobei eine cf aus 2 4870 mehr strom verbraucht, im idle wärmer ist und unter last nur 4 grad kühler ist. weis also nicht was du willst, das übertackten wäre ein argument, mehr sehe ich aber auch nicht, lasse mich aber immer eines besseren belehren
 
Zuletzt bearbeitet:
*sabel*fingelleck*boa*^^
sieh siht nicht nur geil aus sondern sie hatt auch enorm viel leistung^^ die ist echt super die karte im preis fällt sie bestimmt auch noch ist schließlich amd/ati
jetzt hatt nvidia keine krone mehr und das mit dem vergleich von single gpu und dual gpu ist meiner meinung nach nicht schlimm da es eine graka ist und fertig!
wenn es jetzt 2 hd4870 gewesen wären gegen die gtx280 hätte ich es unfaif gefunden aber so ises mir recht!
 
Auf diesen Test habe auch ich schon gerwartet. Alles in allem eine sehr nette Karte.
Was mich aber wirklich schockiert ist die Lautstärke unter Last .... 65dB sind wirklich sehr sehr viel.
Ich denke es gibt einige die mit den Lautstärkewerten nicht viel anzufangen wissen und werden die Karte nach dem Einbau und dem "bösen Erwachen" zurückschicken.

Ich bin auf Kühler die vom Referenzdesign abweichen sehr Gespannt auch wenn ich bei einer solch derben Verlustleistung die es abzuführen gilt nicht wirklich daran glaube das es abseits von Wasser eine erheblich leisere Kühllösung geben wird.
 
deathhour schrieb:
@Dural

Naja mag ja sein aber bedenke die TREIBER und die PROFILE!
Beim start der HD3870x2 lief FAST kein Spiel, es war brutal! Die Karte war richtig lahm erst nach 1-2 monaten hatte sie ihre "Pracht" entfalltet und die ultra angegriffen!

Wird hier nicht anders sein! Hab gerade mal bei pcgh.de geschaut die machen ja auch keine SLI vergleiche!
Die GTX260 SLI dient hier echt nur als Beispiel! Die HD4870X2 wird eben hier als ganzes mit den anderen karten verglichen!

Wie das Zitan oben von PCGH, es ist und bleibt eine Dual GPU Karten die die ganzen Nachteile von CF hat, klar hat sie viel Leistung aber was bringt dir die wenn du dann die ganze zeit mit den Treiber usw. Probleme hast und die MR machen dann noch alle FPS im Tieferen Bereich kaputt.

Die ganzen Dual GPU Karten dienen nur für eins:
Man will die schnellste Grafikkarte auf dem Markt haben, egal wie viele Nachteile eine solche Grafikkarte hat, man könnte sogar meinen das es den Hersteller egal ist was die Kunden dann am ende wirklich für ein Produkt ab bekommen! Die MR könnten ohne Probleme per Treiber gelöst werden, würde aber Leistung kosten, aber das will man ja als Hersteller aber nicht, da zählen NUR MAX FPS!
 
Lustig, wie sich jetzt die Nvidia-Jünger aufregen, das kein GTX280-Sli Gespann dabei war und sich darüber aufregen, dass hier Grafikkarten mit zwei GPUs gegen Single-GPU-Grafikkarten antreten müssen.
Man schaut ja auch, ob ein Quadcore schneller in den Anwendungen ist als eine Dualcore CPU....es kommt nur drauf an, welche Leistung am Ende rauskommt und nicht wieviel Leistung es pro Kern usw ist.

Wenn man vergleichen will, welche Technik besser ist, muss man die Nvidia-Karten runterakten, denn der Shadertakt ist z.B. wesentlich höher als bei AMD. Auch meckert keiner beim vergleich der 4870 gegen die GTX2x0, obwohl die Nvidia-Karten mehr Speicher haben....

Was soll der Quatsch.
AMD hat nun die schnellste einzelne Grafikkarte. 2 GTX280 im Sli-Modus werden schneller sein, bezweifelt ja auch niemand. Aber was ist mit 2 4870 X2 gegen 2 GTX 280? Oder doch 3 GTX 280 ?

Wenn man schaut, welches der schnellste Serienstrassenwagen ist, fragt ja auch keiner, ob das fair ist einen Wagen mit 8 gegen einen mit 12 Ventilen antreten zu lassen oder nach der Anzahl der Turbolader, Kompressoren....

regt Euch nicht so sinnlos auf.
 
@ y33h@:
deinen Beitrag in der PCGH zum thema spielen auf xp oder vista fand ich ja sehr neutral geschrieben, aber was grafikkarten anbelangt bekomme ich das gefühl dass du nvidia einfach lieber magst als ATI, egal ob ati jetzt ausnahmsweise mal gute Produkte auf dem Markt hat.

Eigentlich ist dieses kommentieren sinnlos, die einen prahlen damit 2 gtx 280 zu haben, die anderen outen sich schon anhand des Benutzerbildes als ATI'ler.
Wollen wir nicht mal als gemeinschaft sinvoll darüber diskutieren?

@bloodie24 ich stimm dir da völlig zu, es ist außerdem sinnlos sich über den Stromverbrauch zu beschweren, wer sich die karte für 400 leisten kann, wird auch stromkosten bezahlen zu können.
6h am Tag, davon 3h spielen, also 3x70 watt + 3x250 watt (so ganz grob) macht also 960wh am tag, also rund 16 ct mal 280 tage (85 tage im Jahr wird man auch ohne pc überleben) macht das knapp 50 euro strom im Jahr, also ein ps3 game, oder anders 1/8 der anschaffungskosten, geht doch eigentlich!
 
Zuletzt bearbeitet:
Hoffentlich gibt es auf CB bald einen "was ist heute maximal Möglich Test", sprich Quad CF mit 2x HD 4870 X2 2GB und TRI-SLI: 3x GTX 280 1024MB. Das würde ich gerne auch in dem selben Test sehen, einfach um zu sehen welche Firma es schafft das absolute Maximum aus ihrer Plattform zu holen, und natürlich die Werte besser miteinander vergleichen zu können.

MfG Kasmo
 
@Dural
mmh hast ja auch recht aber wie du oft siehst scheint sich ATi gerüstet zu haben für die HD4870 X2, die CF Variante stürzt manchmal noch ab in games wärend die HD4870 x2 ordentlich läuft! Finde die haben die treiber schon ganz gut gemacht, wenn man bedenkt das Powerplay funnzt und evtl noc hmehr leistung rausgeholt wird!

Es wird ja auch gesagt das dieses sogennante "Crossfire Interconnect" noch nicht funktioniert! Das soll ja die Bandbreite nochmal erhöhen!


@Bloddie24
Hoffe CB macht irgendwann mal wieder so einen monster test wie damals bei der HD3870x2!
nach dem monto SINGLE,DUAL oder QUAD ^^

@Kasmopaya
Da war einer schnelelr als ich xD mit dem wunsch nach einem max. leistungstest! ^^ :lol:
 
Zurück
Oben