Test ATi Radeon HD 4870 X2 im Test: Zwei GPUs greifen nach der Krone

y33H@ schrieb:
Weil so gerne PCGH kritisiert wird - bei hartware.de schneidet die Karte mindestens genauso mies, eher schlechter ab.

cYa

Die haben auch mit dem Cat8.6 getestet, trotzdem läuft Crysis bei denen auf der X2 schneller als auf der 280GTX
Bei PCGH: 280GTX 24,7FPS 4870X2 15,9FPS

hartware.de 280GTX 15FPS 4870X2 24,0FPS
 
@ Dai6oro

Die testen auch ne Multiplayer-Demo. Die hat mit dem Single-Player nichts zu tun.

@ BzbE

Toll, alles unspielbar. Zudem steht da nicht, was die benchen. Island? Ice? Sonst was? Also nicht vergleichbar. btw ist vollkommen egal welcher Treiber, ab dem 8.6 hat sich da kaum bis nichts getan (außer sowas wie Schwanzmark).

cYa
 
Zuletzt bearbeitet:
y33H@ schrieb:
Weil so gerne PCGH kritisiert wird - bei hartware.de schneidet die Karte mindestens genauso mies, eher schlechter ab.

cYa

Das war bei hartware.de schon immer so.Die beiden Seiten sind bekannt dafür die andere seit schlecht darstehen zulassen.Ka ob da geld aufs Konto oder so geht.
 
die x2 dinge die nicht perfekt sind, werden eben erst mit der nächsten generation gelöst, im moment gehts nur um extreme lesitung.

Es geht bei keinem Produkt nur um extremste Leistung(und nicht mal die hat die X2 bzw. Quad X2 inne), sondern immer um das Gesamtpaket, warum glaubst du hat ATI unbedingt PowerPlay 2.0 zum Release der 4870X2 zum laufen gebracht(mehr oder weniger).

und das ist nun mal so, ich sag mal im durchschnitt aller seiten im inet usw ist die x2 50% schneller als ne GTX280, das ist EXTREM viel.

50%Balkenlänge ist also extrem viel... Das sind aber nicht die FPS die man wahrnimmt. Ungleichmäßige FPS Verteilung kostet schon mal den Großteil der Balkenlänge der X2. Was bleibt dann noch übrig gegenüber der GTX 280? Fast gar nix...(Bei den Leuten die Microruckler, Mauslägs, etc, nicht wahrnehmen stimmt das natürlich nicht, die haben die volle "Balkenlänge", einfach mal die X2 für 2 Wochen testen und zurück schicken)

und nochmal, wenn dann einer jammert, dass er in ner 30er auflösung mit max details und aa usw jammert, er hätte n microruckler erwischt.... dann wird eben runtergeschraubt.

Darum gehts doch, man kauft sich doch nicht so eine teure High end Karte, um dann wegen den Microrucklern irgend wo Kompromisse einzugehen und die Qualität zurück zu schrauben.
Denn wo die GTX 280 mit 30FPS noch flüssig läuft braucht man für die X2 ca. 50-60FPS, eine menge Leistung geht also schon drauf um die stets präsenten, ungleichen FPS auszugleichen -> wer will das?
 
Zuletzt bearbeitet:
Aja stimmt OK würde einiges erklären. Trotzdem wärs interessant zu erfahren wie die X2 mit unterschiedlichen CPUS skaliert. Wars nicht mal PCGH die bei der 3870 x2 getestet hat dass die mit großer CPU Power wesentlich besser skaliert?

Wollt hier auch net auf einzelne Benches eingehen. Interessant wärs allemal.



mfg

PS: @CB könnt ihr nicht ein video von eurem Crysis Bench machen von 1280x1024. da habt ihr ca 30 FPS. Also müssten sich da Microruckler bemerkbar machen. Ich will die jetzt mal sehen.
 
Naja die Testen mit 4GHz Quad Core, mehr CPU Leistung gibt es derzeit einfach nicht, da muss man auf neue CPUs warten.
 
mir fällt dazu nur eins ein....... HABEN WILL!!! >.< mirkoruckler fand ich nie wirklich angenehm .... speziell in wichtigen situationen.... aber da sehe ich mal drüber hinweg bei einem solchen schmuckstück ^^
 
@ Dai6oro

Wird bei Gelegenheit sicher gemacht.

cYa
 
hab mal bei toppreise(schweiz) gesucht seid heute abend sind diese angebote

Bezeichnung

Preis(CHF)
MMZ
Versandpreis
Versandkosten
Verfügb.

Händler





HIS HD 4870X2 2 GB PCIe 2.0 / 2 GB GDDR5 512bit 3.60GHz / R700 750MHz / 1600p / DX10.1 / HDCP / 2xDVI+HDMI+HDTV-out... (H487X2F2GP) 672.90 687.80
(14.90)






HIS Radeon HD4870X2 - 2 GB (PCIe) H487X2F2GP ATI Radeon HD4870X2 - 750 MHz GPU - 2 GB GDDR5 @ 3.6Gbps (512-bit) - 2 x DVI-I - HDMI 731.00 743.00
(12.00)
 
AceBleiche schrieb:
2 x 280er Nvidia im SLI lassen auch diese ATI alt aussehen.

1. Bestreitet keiner
2. Sind das zwei Grafikkarten gegen eine Grafikkarte
3. Ist das ganze viel teurer
4. Geht das nur auf Boards die SLI unterstützen
5. Die X2 läuft auf jedem Board mit PCIe1.0
6. Sonst noch Fragen?

@y33H@: Könnte das evtl. am QC von CB liegen? Nur mal so, weil COD unterstützt ja anscheinend auch mehrere Cores. PCGH testet momentan doch noch mitm DC, oder?

@Volker: Könntet ihr mal (falls ihr die Karte noch habt natürlich) 2 Kerne deaktivieren und dann CoD nochmal durchbenchen. Reichen ja eine kleine und eine große Auflösung.
 
Kann man bei Intel QC Kerne deaktivieren? Dachte da geht nur beim Phenom?!

Für mich interessanter. Wann kommen die 1GB Karten der 4870 und der Test dazu. die X2 ist imo wie die GTX280 auch ein Nischenprodukt.

mfg
 
@ KAOZNAKE

Japp, CoD4 kommt von der 360, da ist Multi-Core ja mit im Paket. Mit einer GTX 280 limitiert erst in 1.920x1.200 samt 4x/16x die GPU, von daher kann es gut sein, dass die X2 mit nem 4-GHz-Quad besser abgeht.

@ Dai6oro

msconfig --> numproc

cYa
 
Laut Alternate ist die ja schon Lieferbar. Also, wer sie haben will kann jetzt bestellen!!! Und nur 479€ ;)

Aber ich würde nicht mehr als 300 € bezahlen. Ich hab ja auch zur Zeit kein Geld für so eine Graka. Aber im Dezember dürfte sich schon billiger sein.
 
Hmmm, weshalb vergleicht man überhaupt Multi-GPUs mit einer einfachen GPU? Das ist, in meinen Augen, einfach nur schwachsinnig und zwar ganz egal ob es sich um eine ATI-X2 GPU handelt oder eine NVidia-X2 GPU handelt. Ich vergleiche ja schließlich auch nicht einen neu entwickelten Enzo Ferrari mit einem etwas leistungs-schwächeren Porsche, oder?
Fakt ist, dass wenn NVidia den neuen GT200b Grafikchip (falls dieser so heißen wird) als Dual-GPU-Grafikkarte rausbringen würde, hätte ATI wieder das Nachsehen. Aus meiner Sicht sind diese Vergleiche einfach nur aufgezogen um einen der beiden Hersteller ins helle Licht zu rücken und, um einen durch die Medien künstlich geschaffen Kampf im Grafikkarten-Markt aufzuzeigen, mehr auch nicht. Jeder Gamer weiß ganz genau welche Produkte er bevorzugt und von welchen er lieber die Finger lassen würde. Diese blöden Streitereien zwischen den Kindern hier, welcher Hersteller nun der bessere ist, sind einfach lächerlich. Ich kann nur sagen, dass ich als Diplom-Informatiker mit beiden Herstellern sehr viel zu tun habe und beide ihre Vor- und Nachteile besitzen, ich persönlich allerdings seit gut 5 Jahren zu NVidia tendiere was nicht heißen soll, dass ich ATI schlecht reden möchte. :D
 
Meiner Meinung nach kann man die schon vergleichen. Technisch vielleicht nicht, aber ich als Kunde möchte für mein Geld das beste was ich kriegen kann, und wenn jetz ne single- und ne dual-gpu karte gleich viel kosten und die dual mehr Leistung hat nimm ich die. Von daher finde ich kann man die schon vergleichen. Wer hat für das gleiche Geld die beste Leistung. Und außerdem, es sind beide Ein-Slot karten. Es ist doch egal, wie die Hersteller zu der Leistung kommen. Klar wäre die ATI im nachteil, wenn nvidia z. B. ne 280gtx x2 raus bringt. Dann ist halt die ATI im nachteil. So geht das doch die ganze Zeit. Einer versucht besser zu sein als der andere.
 
ein würdiger nachfolger für die 9800gx2^^ schneller, hungriger, lauter, heißer,...
von allem ein bisschen mehr und die gleichen probleme wie bei der 9800gx2 auch.
die beiden kann man imho gut vergleichen, und da hat ati bei der leistung klar die nase vorn ;) dafür punktet die 9800gx2 immerhin beim preis und beim verbrauch... (im vergleich zur 4870x2!) trotzdem würde ich mir keine der beiden kaufen...
multi-gpu war noch nie mein fall...
 
Ich möchte jetzt einfach mal ein paar Postings von comisparty zitieren. Aus früheren News. Nur damit man sich mal ein Bild davon machen kann, wie hier Meinungsmache betrieben wird.

--

https://www.computerbase.de/forum/t...esst-die-konkurrenz-hinter-sich.425084/page-5

"wer da jetzt kauft und nicht auf ne 4870x2 warten kann, die alleine von der rechenleistung schon mal doppelt so schnell (2 teraflop zu 1 teraflop) wie ne 280 ist, der hat echt n reichen erbonkel."

Dazu kommen natürlich Microruckler.
---
https://www.computerbase.de/forum/t...sst-die-konkurrenz-hinter-sich.425084/page-14

"was soll die 260 reißen?

30% langsamer als die 280 mit der gleichen alten technik. und das noch teurer als ne moderne, feinstrukturierte 4870 mit GDDR5.
die wird der neue ladenhüter, wie seinerzeit die 2900xt.
PS hat wohn n grund, warum nvidia die 260 noch versteckt. *g* die ist doch kaum schneller als ne 9800 GTX und langsamer als ne GX2"

Jaja... die ach so langsame GTX 260... :-P
--
https://www.computerbase.de/forum/t...sst-die-konkurrenz-hinter-sich.425084/page-15

"crossfire skaliert bei aoc zB auch schon mit +90%
wer immer noch annimmt, die zukunft liegt in großen single gpus dürfte heute eines besseren belehrt sein.
die GT200 ist der letzte seiner art, ein dinosaurier zum aussterben verurteilt.
in der zukunft wird sich nvidia an ati orientieren.
und wenn ati es geschafft hat 1024vram für beide gpus gleichzeitig zur verfügung zu stellen und microruckler auch teil der vergangenheit sind, ja dann kannste die GTX 280 auch inne tonne werfen.
ach noch ne private frage.. *g*
wer hatte nu recht, mr unyu mit seinem verherrlichen der GT200 oder ich mit meiner skepsis. *g* bin ja so rechthaberisch *gg*"

Ich erlaube mir mal, auf die Frage im letzten Abschnitt zu antworten: Du hattest natürlich unrecht, wie immer. 2x 1024MB, starke Microruckler und nVidia, immerhin Marktführer für dedizierte Grafikkarten, sieht nicht mal einen Bedarf für eine X2.
--
https://www.computerbase.de/forum/t...sst-die-konkurrenz-hinter-sich.425084/page-16

"nochmal, wenn ati mit der 4870x2 beiden gpus 1024 speicher gleichzeitig zur verfügung stellt und microruckler geschichte sind und das teil viel schneller als ne 280 ist... ja was willste dann mit dem ding noch?"

EPIC FAIL ;-P
--
https://www.computerbase.de/forum/t...sst-die-konkurrenz-hinter-sich.425084/page-18

"@ lübke: welche karte gefloppt hat? ich erinnere an den fön von nvidia, die 5800, der größte flop der geschichte."

Und trotzdem leiser als die 4870X2.
--
https://www.computerbase.de/forum/t...sst-die-konkurrenz-hinter-sich.425084/page-31

"aber ati wird wohl bei der 4870x2 den speicher beiden gpus gleichzeitig zur verfügung stellen können und das thema microruckler soll auch der vergangenheit angehören.
wenns so ist,wovon ich mal ausgehe, wirds arg düster für nvidia."

Ja, du gehst von ziemlich vielen Dingen aus, die von Anfang an als unwahrscheinlich feststehen.
--
https://www.computerbase.de/forum/t...sst-die-konkurrenz-hinter-sich.425084/page-35

"nvidia kann einpacken, ich würd alle aktien verkaufen, der marktanteil wird einbrechen"

Ja, das liegt sicher an den behobenen Microrucklern und dem geteilten Speicher... oh, warte! :-P
--
https://www.computerbase.de/forum/threads/finale-taktraten-der-geforce-gtx-280-gtx-260.424427/page-3

"der g200 ist n griff ins klo, ist nun mal so und die 280er kaufen sich keine 2% der zocker. ist eher was für ne freakshow der ungeküssten *ggg*
zu teuer, zu lahm fürs geld und zu hoher stromverbrauch... ach ja und von dx10.1 haben die auch noch nie was gehört und wird bestimmt määäächtig heiß."

->> Das ist das bisher interessanteste Zitat. Denn die Nachteile der GTX 280 werden uns hier von cosmicparty als Vorteil verkauft.

Plötzlich ist es nicht mehr wichtig, ob eine Grafikkarte viel Strom verbraucht. Plötzlich ist die Wärmeentwicklung in Ordnung. Und die Lautstärke muss man in Kauf nehmen. Was aber das Tollste ist: wenn 2% der Leute GTX 280 kaufen, ist das schlecht. Aber die 4870X2 ist ja das absolute High-End und muss nicht oft gekauft werden.

Interessant, wie schnell und extrem man seine Meinung ändern kann, was?
--
https://www.computerbase.de/forum/threads/finale-taktraten-der-geforce-gtx-280-gtx-260.424427/page-7

"nvidia hat dx10.1 verpennt, nvidia hat stromsprtechnologien verpennt."

Jaja, das vielgelobte dx10.1 mit den nahezu unendlich vielen Anwendungen. Übrigens, funktioniert der Stromsparmodus bei ATi mittlerweile? Immerhin hast du diesen schon vor 3 Monaten gelobt.
--
https://www.computerbase.de/forum/threads/finale-taktraten-der-geforce-gtx-280-gtx-260.424427/page-8

"PS: bist du der, der im pcgh forum als extremer nervfaktor angesehen wird? *g* weil son fanboy der nur flamt ohne hintergrundwissen?"

Du meinst, sowas wie du hier bei CB? Ja, so Leute wie du sind echt schlimm.
--
https://www.computerbase.de/forum/threads/radeon-hd-4870-x2-schlaegt-geforce-gtx-280.428147/page-8

"@orbmuk2K: ist dir bekannt, dass ati dran arbeitet (mache glauben mit dem r770 wäre es schon so, andere meinen erst mit dem r800), dass die gpus auf EINEN speicher zugreifen können?"

Natürlich. ATi arbeitet übrigens auch daran, den Welthunger zu besiegen, einen AIDS Impfstoff zu entwickeln und die Venus zu kolonisieren.
--
https://www.computerbase.de/forum/t...llt-sich-gegen-geforce-gtx-260.436445/page-14

"die zeiten wo man 500€ für high end ausgeben mußte sind vorbei dank ati."

Und dabei haben sie jetzt die teuerste High-End-Karte im Angebot. Unglaublich!
--
https://www.computerbase.de/forum/t...llt-sich-gegen-geforce-gtx-260.436445/page-21

"das ist auch das kriterium, welches über erfolg und nichterfolg entscheidet, NUR dieser punkt.
die paar freaks, denen leistung über alles geht, egal zu welchem preis, die kannste an einer hand abzählen.
die sind NICHT markrevelant."

Auch sehr hübsch.
--
https://www.computerbase.de/forum/threads/finale-taktraten-der-geforce-gtx-280-gtx-260.424427/page-8

"PS:wer formuliert eigentlich so "tja verschissen was"? ich denke man kann sehen, wie man dich nun einordnen kann"

Tja, verschissen, was?


--
Einfach nur mal ein kleiner Ausflug in die Welt eines Fanboys. Leider ist der Raid nun zu Ende, ich hatte gehofft, ich finde noch die Aussage von ihm, in welchem er mosert (vor Release der 4870!), das die GTX 280 so warm werden und viel Strom verbrauchen. Wieder etwas, das bei der 4780(X2) plötzlich völlig in Ordnung ist.
 
Hardware_Hoshi schrieb:
Gratulation an diese "wieder" einmal völlig unnötige Kraftschleuder.

Manchmal gehts eben nicht mehr nur um den Nutzen, sondern wie hier vor allem ums Prestige. Die Karte ist die schnellste Graka am Markt (MR jetzt mal außen vor), die Leute reden drüber usw. Was glaubst du warum BMW oder Mercedes bei der Formel 1 mitmachen? Nicht weil sie dann bessere Autos bauen, das geht auch so. Das ist einfach ne super Werbung, aber auch nur wenn man ganz oben steht. Was umso wichtiger ist, wenn man praktisch nur zu zweit aufm Feld steht (DAMMIT und NVIDIA halt)

Rambo5018 schrieb:
Nvidia könnte eine dual-core GPU mit dem GT200 Chip bauen und ATI läge wieder hinten
Außerdem kann mein Kumpel mit seinem System (2x2,66ghz, 4GB RAM, 9800GTX) Crysis alles auf hoch und mit einer Auflösung von 1280x1024 absolut ruckelfrei spielen, von daher..

Können sie doch! Oder halt, vielleicht doch nicht...? GPU zu groß? Nicht mehr kühlbar? NV hat ja nicht mal den G92 auf ein PCB gebracht, wie soll das dann mit dem GT200(b) gehen? Und zwei PCBs zusammenstecken dürfte von der Kühlung her absolut nicht zu machen sein. Von daher...
Crysis auf 1280x1024 kann ich auch mit meiner 3870 auf hoch spielen. Dann wahrscheinlich noch auf XP, das ist doch keine Referenz-sone Karte ist für 24" aufwärts gedacht.

Mahagon Coral schrieb:
Im Kino, wie du schon sagst, 24 Fps, sieht man bei schnellen Bewegungen ein Ruckeln, aber da du es nicht merkst, existiert es ja schlicht und einfach nicht, oder ?

Bei 24p und langsamen Kameraschwenks ruckelts. Hab ich aber noch nie gesehen, von daher... Bin wahrscheinlich auch für MR unempfänglich. Alles eine Frage der Konditionierung, deswegen kommt yeehah damitwahrscheinlich auch überhaupt nicht mehr klar. Der sieht das sofort, weil ers ja auch besser vergleichen kann, wenn er dauernd Grakas testet ;)

BMW530d schrieb:
Hmmm, weshalb vergleicht man überhaupt Multi-GPUs mit einer einfachen GPU? Das ist, in meinen Augen, einfach nur schwachsinnig und zwar ganz egal ob es sich um eine ATI-X2 GPU handelt oder eine NVidia-X2 GPU handelt. Ich vergleiche ja schließlich auch nicht einen neu entwickelten Enzo Ferrari mit einem etwas leistungs-schwächeren Porsche, oder?
Fakt ist, dass wenn NVidia den neuen GT200b Grafikchip (falls dieser so heißen wird) als Dual-GPU-Grafikkarte rausbringen würde, hätte ATI wieder das Nachsehen.

1. Es handelt sich um EINE Grafikkarte (egal ob 98GX2 oder X2). Die X2 geht auf jedem MB ab PCIe1.0. Die kann jeder Depp kaufen und bei sich einbauen. Wo die Leistung letztendlich herkommt, ist doch wurscht. Wenns dir keiner sagt, würdest dus gar nicht merken. Deswegen.
2. Hab hier nen Test zwischen Porsche Carrera GT, Ferrari Enzo, Corvette und Bugatti Veyron rumliegen-der Bugatti sägt alles weg.
Vor ner Weile wurde in der AMS der Porsche Carrera S (vor Facelift, 355PS 6-Zyl, 3,8l Hinterradantrieb, Heckmotor) gegen den R8 (420PS, V8, 4,2l, Allrad, Mittelmotor) getestet. Soviel zu nicht vergleichen können ;)
3. Siehe oben
 
Zuletzt bearbeitet:
Ich hab' nicht alle Posts gelesen, deshalb nochmals die Frage:
Welches Netzteil wird bei der 4870X2 gebraucht ?! Es könnte nämlich sein, dass diesbezüglich für den ein oder anderen Interessenten zusätzliche Euros anstehen
und dann wäre die Karte doch nicht mehr so günstig...
 
Zurück
Oben