Test Test: ATi Radeon HD 4870 X2

The_1st_Knight schrieb:
Bitte nicht wieder sinnlos Öl ins Feuer gießen. Das Ganze wurde hier (von mir) schon anderweitig thematisiert, wenn auch imho nicht von einem so naiven Standpunkt wie von H3rby.

Weil? Schau dir einfach die Werte an beiden Benchmarks (man hat die GTX280 im Vergleich zum GTX280 SLI und die GTX280 im Vergleich zur HD 4870 X2), und bestimmte andere Karten hast du bei beiden drin. Und wenn du jetzt noch einfache Mathematik dazu nimmst, kannst du dir in etwa ausrechnen, wo ein GTX280 SLI im Vergleich zur HD 4870 X2 liegt.. Dass das nicht zu 100% stimmt, ist mir auch klar, sollte aber nah ran kommen.

Wenn du das nicht kannst, liegt es eher an deiner Naivität als an meiner..
 
Übersoldier75 schrieb:
es gab schon zu X1xxx-Ati-Karten wo man zwei GPUs verbaut hatte

die aber nie versucht haben krampfhaft irgenteine performancekrone zu holen, sonst hätte man dort nämlich keine beschnittenen chips (pro) verbaut, sondern vollwertige xtx.

Mal ganz davon abgesehen das dies keine Entwicklung von Ati sondern von einzelnen Graka Herstellern war.


Unyu schrieb:
@Realsmasher
"Last Verbrauch ok" - Wobei es gerade mal UT3 ist, kein FurMark, wo kein CF läuft.
"50%" - Das ist doch so eine Frage, sie kostet 33% mehr, aber was bringt sie dafür? Balken sind ja eindeutig nicht vergleichbar.
Und es gibt genug Spiele, wo CF nicht läuft (hier Extremfall Gothic 3), da ist die GTX 280 wieder schneller.

wen interessiert furmark ? kann ich das seit neustem Spielen ?

Das sie 50% mehr leistet für 20% Aufpreis ist die eine Seite, wem das nicht reicht, selbst schuld.

Die andere Seite ist jedoch das die schnellste Karte außerdem NORMALERWEISE zusätzlich mehr kostet.

Wir erinnern uns an 8800ultra, 7800gtx oder x1900xtx.

Fakt ist das dies P/L mäßig gesehen die beste Top-Karte ist die es jemals gab.

50% mehr leistung zum zweitplatzierten und das bei 400€ gabs noch nie.

Da kann man auch gerne über Ausnahme-Bugs wie G3 hinwegsehen.
 
Selbst wenn ein GTX280 bei 125% einer 4870X2 ist so kostet selbiges Gespann dann doch ca 157% mehr wie eine X2 noch dazu braucht selbiges mehr Saft.
 
sehr gut AMD/ATI
freue mich dass ihr so eindeutig die performancekrone gewonnen habt. g200b müsste schon 30% mehr taktrate haben UND gddr5 einsetzen, dass da dran was zu ändern wäre
für mich ist die x2 nix. ich habe keinen so grossen monitor. aber für 30 zoll besitzer ist sowas nun ne tolle option. hoffentlich kommt für solche leute bald eine wassergekühlte version raus
 
drago-museweni schrieb:
@ FredKune
Was ist dir den für ne Laus über die Leber gelauffen im vergleich zu einem 4870CF ist die X2 im idle sehr Stromsparend, und braucht auch nur 14Watt mehr als EINE 8800GTX ich finde das Powerplay 2 funktoniert unter lasst darf sie ruig die Leistung brauchen, auch wennn weniger wünschenswert währe.

Die Laus heißt 4870 X2.

Im Verhältnis zum 4870CF hast du sicherlich recht. Im Verhältnis zu einer einzelnen 4870 ebenfalls. Man darf aber nicht vergessen, dass das daran liegt, dass die 4870 verdammt viel im idle verbraucht. Da ist es keine Kunst nur etwas mehr zu verbrauchen. Auch die "nur 14Watt mehr als EINE 8800GTX" muss man in dem Kontext sehen, dass eine 8800GTX bereits ca. 90W idle schluckt. Nur weil andere Karten ebenfalls viel verbrauchen ändert das nichts daran, dass ich bei über 100W idle-Stromverbrauch bei einer Grafikkarte nicht davon reden kann, dass dort irgendeine Stromspartechnik richtig funktioniert.
Eine Grafikkarte, die zum Anzeigen des Windows-Bildschirms (ohne, dass sich irgendetwas bewegt) mehr Strom braucht als der gesamte Rest des PCs und mehr als ein QuadCore unter Vollast, verbraucht viel viel viel zu viel Strom. Die Karte leistet bei einem Vebrauch von 100W genau das, was eine HD2400 mit 20W (keine Ahnung wieviel das Ding genau hat) leistet. Ich weiß nicht wie Leute da auf die Idee kommen könnten das als Weiterentwicklung zu verkaufen. Die GTX280 würde als X2 auf jeden Fall weniger verbrauchen als die 4870 X2. Und auch die 30W mehr im Verhältnis zur 3870 X2 sind etwas merkwürdig, wo PowerPlay 2.0 doch eigentlich eine (nach eigenen Angaben) ganz ganz tolle Weiterentwicklung der tollen PowerPlay-Technik sein soll. Merkwürdig.
 
Was ihr alle zu übersehen scheint:

Man kann die Karte denk ich (Ausnahme Crysis) nur bei Auflösungen von 2560*1600px unter Vollast bringen und somit zu so einem rasant drehenden Lüfter mit wahrscheinlich 2000rpm gelangen!

Ich denke der LautstärkeUnterschied von guru3d / CB Test kommt daher, dass man ein X2 - CF System mit heutigen CPU`s (solange quadcore nicht effizient genutzt wird) gar nicht ausreichend befeuern kann...die CPU wird limitieren!
somit kommt guru3d auch nur zu Geräuschpegeln von 45-50db, welche eine HD4870 ebenfalls unter Last produziert;

Also:
Sollte man die X2 wie ich nur @1680*1050px betreiben wollen - was aufgrund der enormen MIN-FPS durchaus seine Berechtigung hat - und hat zudem vsync aktiviert

so bin ich überzeugt, dass die X2 meißt nur mit 60% ihrer Leistung fahren muss, man jedoch konstant 60fps haben wird und die Lautstärke erträglich bleibt! ;)

Naja, ich teste die Karte erstmal 10 Tage, dann schau ich weida :o

p.s. ich denke in FarCry2 wird die X2 mit nem E8400 (oced) ordentlich punkten können! :) - wird nicht so nV optimiert sein wie Crysis
 
Zuletzt bearbeitet:
tokad schrieb:
AI-off dürfte für die Bildqualität gar nicht so entscheidend sein. Im Bildqualitätstest von [H]Enthusiast hat die neue HD48xx Serie (einschließlich HD 4870 X2) besser als Nvidia abgeschnitten (obwohl ja für CF-Lösungen AI anscheinend zwangsaktiviert sein muß): http://enthusiast.hardocp.com/article.html?art=MTUzMiwxLCxoZW50aHVzaWFzdA==
Mal als Anfang zum einlesen über AI: http://www.pcgameshardware.de/aid,652945/Test/Benchmark/Duell_der_Texturfilter_Radeon_gegen_Geforce/

HardOCP testet CFAA. Im Edge Dedect Modus vielleicht brauchbar, aber was hat das mit AI zu tun? ;)

Realsmasher schrieb:
Das sie 50% mehr leistet für 20% Aufpreis ist die eine Seite, wem das nicht reicht, selbst schuld.
Die GTX 280 ist für 329€ lieferbar. http://www.alternate.de/html/product/details.html?artno=JCXWP1
Die 4870 X2 ist für 440€ nicht lieferbar. http://geizhals.at/deutschland/?cat=gra16_512;asuch=4870;v=e;xf=132_1024&sort=p
Macht für mich 33,7% Aufpreis. :confused_alt:

Und man kann ja auch ein GTX 260 SLI nehmen, hat fast die selben Nachtteile und Kosten. -> Kein Preiswunder, aber nett für die, die voll auf 2 GPUs abfahren und an ihrem Brett hängen.

Realsmasher schrieb:
Die andere Seite ist jedoch das die schnellste Karte außerdem NORMALERWEISE zusätzlich mehr kostet.
Wie 8800 GTS zu 8800 GTX. :)
50% Mehrleistung zum fairen Aufpreis.

Realsmasher schrieb:
wen interessiert furmark ? kann ich das seit neustem Spielen ?
Immerhin ist man dann auf der sicheren Seite, in Sachen Netzteil und Kühlung, wenn man da bescheid weiß.
Vielleicht lastet man ja mal diese Karte mit Proteine kneten voll aus und guckt in die Röhre.
 
Zuletzt bearbeitet:
elWray schrieb:
Was ihr alle zu übersehen scheint:
...
p.s. ich denke in FarCry2 wird die X2 mit nem E8400 (oced) ordentlich punkten können! :) - wird nicht so nV optimiert sein wie Crysis

Mag sein, dass die Lüftersteuerung halbwegs funktioniert (die Frage ist aber auch, wann die Karten auf volle Pulle stellt). Da das mit dem Stromsparen nicht richtig funktioniert, könnte ich mir auch vorstellen, dass die Karte nur "Pseudo-Stromspar-Modus" und "volle Pulle" kennt. Werde mir das bei guru3d mal anschauen. Vielleicht haben die anders gemessen.

Crysis ist zwar nV optimiert, aber die X2 ist dort ja dennoch schnell genug. Leider fehlen auch jetzt mal wieder die 2560x1600 Benchmarks, die mich interessieren würden bei der X2. Mit der angegebenen Auflösung dürftest Du bei FarCry2 keine Probleme haben, selbst wenn die für NVidia optimiert wäre.
 
Und wenn du jetzt noch einfache Mathematik dazu nimmst,...

Hab ich gemacht. Meine Rechnungen besagen aber, dass die GTX 280 SLI auf Basis der Einzelwertungen und der Skalierung der GTX 260 SLI (maximal ~80% Leistungszuwachs bei extremer Auflösung inkl. Qualitätsfilter) auf 10% bis maximal 18% Mehrleistung als die X2 kommen. Diese Werte sind aber absolut theoretisch und entsprechen laut dem Benchmark von Juni nicht der Realität.

Btw. 4870X2 CF erzielz annähernd das gleiche Ergebnis wie die GTX 280 TRI-SLI. Ich mag dazu jetzt keine Quelle posten, aber Google ist euer Freund!
 
guru3d misst mit 75cm Abstand, CB nur mit 15cm. Erklärt erstmal den Unterschied der db Angaben.


@ The_1st_Knight:

Dann fang mal mit den Benchmarks @ CB an, google ist nicht immer das nächste.. Und wenn 2 4870X2 genauso schnell sind wie 3 GTX280, dann sind 2 GTX280 wie viel schneller als eine 4870X2?

Ist zwar auch nur Theorie, aber entsprechen auch den CB Tests im Vergleich zu einer einzelnen GTX280 und auch der 4870, wenn man berücksichtigt, dass die 4870X2 besser skaliert als 2 4870.
 
Zuletzt bearbeitet:
FredKune schrieb:
Die GTX280 würde als X2 auf jeden Fall weniger verbrauchen als die 4870 X2.
Klar. Wenn das SLI gespann im Idle 213W braucht, kann eine GX2 Karte ja nur 50W weniger verbrauchen. :freak:

Naja, im Grunde hast du recht, denn die 9800GX2 hat ja auch weniger verbraucht als die 8800Ultra.
 
FredKune schrieb:
Die GTX280 würde als X2 auf jeden Fall weniger verbrauchen als die 4870 X2. .

wo haste denn das märchen her? wenn du die 4870 optimierst frisst sie nur enige watt mehr wie eine 3870. das gleiche gilt für die X2. eine GTX280X2 würde 100% noch mehr verbrauchen.

außerdem, wenn du schon so energetisch bewand bist, wie willst du mehr leistung mit weniger leistungsaufnahme bewerkstelligen?

dass die idle leistung bei allen aktuellen Grakas zu hoch ist,ist allen bekannt. aber gemessen an der rausgekommenen Leistung ist die idle leistungsaufnahme einer X2 auch nicht deutlich höher als die einer GTX280, vor allem,da man bei der X2 noch mit ein paar tricks sicherlihc bis zu 80watt sparen kann.

und mit verlaub, ich glabue sowohl AMD als auch Nvidia haben bei ihren Entwicklern und Ingenieuren mehr Hirnzellen als du. Wenn du glaubst, Intel bringt etwas "stromsparenderes", dann gucke mal die news der letzten wochen án. Intel baut gar keine stromsparmechanismen, dh, der Larrabee wird bis zu 300watt im idle ziehn.

zudem funktioniert Powerplay sehr wohl, sonst wäre der Idle verbrauch nur unbedeutend geringer als der Lastverbrauch.

die Lautstärke wird in den meisten fällen gar nicht erst erreicht,das sind peak werte, war schon bei der 3870X2 so. eine 2400, bzw eine 3450 oder 8600gt verbrauchen deshalb so wenig,weil sie wenig leisten,und man bei Ihnen keine kompenenten ausschalten muss, bzw sie überhaupt gar keine extrem stromhungrigen komponenten haben, die verlustleistung bewerkstelligen konnten, somit kannst du das nicht vergleichen.


gruß
 
Zuletzt bearbeitet:
The_1st_Knight schrieb:
Wenn man nur Single-Karten-Lösungen vergleicht dann bitte schön, nehmt die SLIs raus. Wenn nicht führt auch die schnellste SLI-Lösung auf die NVIDIA hat. DAS war mein Punkt.
Ich muss The_1st_Knight hier absolut zustimmen!
Warum führt man das GTX 260 SLI-Gespann auf, das GTX 280 SLI-Gespann aber nicht?
Das macht bei einem High-End-Karten-Test doch keinen Sinn?! Für mich sieht das leider auch so aus, als ob man endlich mal
wieder eine ATI-Karte ganz oben in den Benchmarks erscheinen lassen möchte.

Entweder sollte man NUR Single-GPU-Karten testen, oder man testet auch einige SLI-Kombinationen mit,
dann aber bitte nicht das beste SLI-Gespann des Konkurrenten weglassen!

Schade...
 
es ist ein unterschied,ob man zwei karten nimmt,oder nur eine. mensch,wenns hier nach einigen gehn würde,dürfte man eine 4870X2 nur mit zwei Nvidia Karten vergleichen, die mehr kosten, aber ansonsten sieht ja Nvidia so schlecht aus? gehts noch?


gruß
 
https://www.computerbase.de/2008-06...sli/28/#abschnitt_performancerating_qualitaet




gtx 280 sli

Rating – 1280x1024 4xAA/16xAF 163,6 4870x2 173,2
Rating – 1280x1024 8xAA/16xAF 185,7 4870x2 186,5
Rating – 1600x1200 4xAA/16xAF 177,0 4870x2 175,2
Rating – 1600x1200 8xAA/16xAF 186,5 4870x2 189,1
Rating – 2560x1600 4xAA/16xAF 189,2 4870x2 205,1


gtx 280 sli Preis: ca 620€ verbrauch: idle 213 watt last 557 watt
4870x2 Preis: ca 380€ bis 400€ verbrauch: idle 206 last 494 watt
 
Zuletzt bearbeitet:
Unyu schrieb:
Mal als Anfang zum einlesen über AI: http://www.pcgameshardware.de/aid,652945/Test/Benchmark/Duell_der_Texturfilter_Radeon_gegen_Geforce/
HardOCP testet CFAA. Im Edge Dedect Modus vielleicht brauchbar, aber was hat das mit AI zu tun? ;)

AI war höchstwahrscheinlich aktiv und die Bildqualität war besser als bei vergleichbaren Nvidia Qualitätseinstellungen. Es wurde nicht nur CFAA gestestet - der Test beschäftigte sich mit mehrern AA-Modi. CFAA war nur ein Schwerpunkt, da dieser neue AA-Modus Shader-gestützte Kantenglättung ohne massive Speicher- bzw. Speicherbandbreitenauslastung ermöglicht. Ist halt nur von Vorteil, wenn man keine Shader-instensiven Spiele spielt.
Mir ging es primär nur darum, dass über die Bildqualitätsbeeinträchtigung mit AI genörgelt wurde. Gut, der Test beschäftigt sich nicht mit Filtering, aber der generellen Aussage über die Bildqualität kann doch getraut werden, oder ;-)?

Außerdem solltest du nicht Äpfel mit Birnen vergleichen. Die HD 4870 X2 wurde erst heute vorgestellt. Die Preise werden sich sicherlich etwas unter 400 Euro einpendeln. Und somit ist dann der preisliche Unterschied zur GTX280 nicht mehr so groß :D.

MfG
 
H3rby schrieb:
guru3d misst mit 75cm Abstand, CB nur mit 15cm. Erklärt erstmal den Unterschied der db Angaben.

welcher Abstand ist gebräuchlich zum Messen?

wenn CB immer mit 15cm misst, ändert das jedenfalls nichts an dem Spitzen-LärmPegel
 
Schinzie schrieb:
es ist ein unterschied,ob man zwei karten nimmt,oder nur eine. mensch,wenns hier nach einigen gehn würde,dürfte man eine 4870X2 nur mit zwei Nvidia Karten vergleichen, die mehr kosten, aber ansonsten sieht ja Nvidia so schlecht aus? gehts noch?
Ihr versteht den Punkt nicht. Es wurden in dem Artikel ja auch zwei Karten getestet! Nämlich das GTX 260 SLI-Gespann! Die Frage ist doch nur, warum nicht das GTX 280 SLI-Gespann?

Bandaleros schrieb:
https://www.computerbase.de/artikel/h...ting_qualitaet
In dem Test wird aber leider nicht die HD 4870 X2 mit getestet, somit fehlt der direkte Vergleich.
Den kann man sich nur mühsam zusammenstückeln, indem man die Benchmarks beider Tests Seite für Seite miteinander vergleicht.
 
Zuletzt bearbeitet: (Schreibfehler)
@ RobinSword

habe ich mal auf die schnelle gemacht, hoffe das ist ok so ;)
 
Zuletzt bearbeitet:
Zurück
Oben