Test Test: ATi Radeon HD 4870 X2

@Schinzie
Warum ist dann das GTX 260 SLI Gerät drin?
Warum sind trotz Preisunterschiede Karten wie die 4850 oder die GTX 280 drin? - Ach ne dann wäre die 4870 X2 die einzige im Testfeld, schuldigung. :D

@tokad
Ich habe ja auch allen Grund über AI zu nörgeln. ;)
Die Jungs haben halt CFAA getestet, gut ist für die Polygonkanten besser als MSAA oder CSAA.
Dafür sieht TSSAA besser aus und SSAA haben sie gleich weggelassen.
 
Unyu schrieb:
was denn? 1 gpu gegen 2 gpu vergleiche sind unfair. aber dann strassenpreis nach etwa 8 wochen und release preis vergleichen ist nun fair? *und das der preis der gtx so dramatisch gefallen ist, was ansich sehr schön ist, war keine freiwillige entscheidung seitens nvidia... ich höre schon die stimmen*
tsts... wenn dann vergleiche bitte die verkaufspreise die jeweils x tage nach release anstanden
entsprechend was sollte die gtx280 nochmal kosten? 550€? oder war es mehr?

___ mist telefon... vor stunden angefangen mit dem posten, dann editierst du einfach so... mach das rückgängig ;p
 
Zuletzt bearbeitet:
CB testet die Karten doch außerhalb eines Gehäuses oder? Dh., wenn ich ein gut gedämmtes Gehäuse habe lässt sich die Lautstärke nochmal um einige dB senken.
 
man rennen hier ne trolle rum.

1.Treiber: es ist klar, das nicht alle karten jedes mal komplett neu durchgebencht werden für jeden Test/neue Treiberversion, warum auch, der unterschied ist idR marginal.
2.µRuckler: vollkommen irrelevant, die karte kommt selten in die Regionen >30 FPS (wo man es auch bei ner single karte auch schon tw. als ruckeln empfinden würde und die da garantiert öfters/länger landet)
3.GTX 280 SLI: hebt sämtliche Kritikpunkte der X2 auf (Lautstärke/Temperatur/Stromverbrauch) und hat mit den selben "Problemen" zu kämpfen. noch dazu wäre es ein vergleich eine karte (zwar mit 2 GPUs, aber es ist halt eine Karte) gegen 2 karten. wenn dann müsste man Quad-CF gegen Triple-GTX280 Sli testen, das wäre dann ein absoluter High-End Vergleich. Im normalen Test sollte aber gelten:
Karte gegen Karte und es ist dabei vollkommen egal, wieviel GPUs da drauf sitzen.
4.db-Skala: Doppelte Lautstärke macht ein Plus von 10db, besser wäre hier die sone skala, da diese linear ist und somit direkte vergleiche zulässt.
5.Lautstärke: und wie laut die karte am ende ist, ist mir vollkommen egal, wenn dann kommt sowieso ne wakü drauf.
6.Stromverbrauch: Lasst ihre eure dicken Maschinen alle 24/7 rennen oder wieso muckiert ihr euch so über den idle verbrauch? wer sich eine karte von dem Kaliber kauft und dann stromsparwerte einer pci-graka erwartet, sollte sich lieber gedanken über nen netten kleinen 200€ stromspar-pc + kvm switch machen, das wäre dann leise und richtig sparsam und am ende sogar günstiger.
was das teil unter last frisst, ist gemessen an der leistung ok und ein rechner rennt ja nicht den ganzen tag unter last.
7.Temperatur: Es gibt nur läuft oder läuft nicht, das paranoide Temps überwachen mancher ist fernab jeder Realität und die Karten wurden sicher auch bei höheren Zimmertemperaturen getestet und passend eingestellt.
8.FPS: Frame auf dem Bildschirm ist ein Frame und nichts anderes, es gibt keine echten oder unechten Frames. vorkommen können Framedrops (bei allen typen von karten) bzw. Unsynchronitäten (die Mikroruckler), die das spielerlebnis stören.

MEIN Fazit:
schöne Karte, angemessener Preis, mehr Leistung gibts halt zZ nicht auf einer Karte, für den ein oder anderen sicher nen schönes und langlebiges Spielzeug, wenn man den passenden Monitor dazu hat (und nicht unausgereifte Grafikdemos wie Crysis zockt)

@Zweifler & Nörgler:
Bringt vernünftige Argumente und nicht irgendwelchen Wischi-Waschi-Hier-und-Da-Gehörten Krempel.

@Fanboys: Ich kauf mir, was Leistungsmäßig gut ist und nicht was, nur weil es von irgendeiner speziellen Firma kommt. ebenso sollte man die leistung einer anderen karte auch akzeptieren können und nicht nur "fehler" suchen.
 
Schinzie schrieb:
wo haste denn das märchen her? wenn du die 4870 optimierst frisst sie nur enige watt mehr wie eine 3870. das gleiche gilt für die X2. eine GTX280X2 würde 100% noch mehr verbrauchen.
Die 4870X2 hat im Idle 206W; eine GTX280 158W. Wenn man mal davon ausgeht, dass eine 8800GTX etwa 90W idle frisst (was in etwa hinkommt), bedeutet das 102W für den Rest des Systems.
Eine 4870X2 würde demnach 104W idle verbrauchen eine GTX280 56W;
Zwei GTX280 lägen demnach bei 112W

Durch den gemeinsamen Speicher, weitere gemeinsame Teile und die Vorteile eines einzigen Boards würde auf jeden Fall mehr als 8W einsparen können und somit würde eine GTX280X2 unter einer 4870X2 liegen.

Schinzie schrieb:
außerdem, wenn du schon so energetisch bewand bist, wie willst du mehr leistung mit weniger leistungsaufnahme bewerkstelligen?
Ich habe nicht geschrieben, dass ich das möchte.

Schinzie schrieb:
dass die idle leistung bei allen aktuellen Grakas zu hoch ist,ist allen bekannt. aber gemessen an der rausgekommenen Leistung ist die idle leistungsaufnahme einer X2 auch nicht deutlich höher als die einer GTX280, vor allem,da man bei der X2 noch mit ein paar tricks sicherlihc bis zu 80watt sparen kann.
Im idle-Modus liefern alle die gleiche Leistung (nämlich einen Desktop und nicht mehr). Und die GTX schafft das mit 56W, die 4870X2 braucht dazu 104W. "Mit ein paar Tricks"? Ich möchte mal sehen, wie Du den Stromverbrauch der X2 um 80W auf 24W bringst. Außerdem, wenn man schon mit Tricks arbeitet, müsste man das bei beiden Karten tun.


Schinzie schrieb:
und mit verlaub, ich glabue sowohl AMD als auch Nvidia haben bei ihren Entwicklern und Ingenieuren mehr Hirnzellen als du.
Das darfst Du gerne glauben. Die Ingenieure geben sich aber immer wieder alle Mühe das Gegenteil zu beweisen.

Schinzie schrieb:
Wenn du glaubst, Intel bringt etwas "stromsparenderes", dann gucke mal die news der letzten wochen án. Intel baut gar keine stromsparmechanismen, dh, der Larrabee wird bis zu 300watt im idle ziehn.
Lies meinen Beitrag bitte auch zu Ende. Mir ist sehr wohl bewusst, was Intel dort gesagt hat. Ich habe aber auch geschrieben, dass Intel erstmal Erfahrung sammeln muss. Intel dürfte mit den aktuellen CPUs (sowohl Desktop als auf Notebook) gezeigt haben, dass sie durchaus sehr fähige Stromsparmechanismen bauen können. Die idle-Leistungsaufnahme moderner Prozessoren (übrigens ja nicht nur bei Intel, sondern auch bei AMD) ist wirklich schon ziemlich gut.

Schinzie schrieb:
zudem funktioniert Powerplay sehr wohl, sonst wäre der Idle verbrauch nur unbedeutend geringer als der Lastverbrauch.
Ich habe nicht geschrieben, dass es gar nicht funktioniert, sondern dass es nicht gut funktioniert. Außerdem hat man zwischen Idle und Last auch dann einen Unterschied, wenn man keine Stromsparmechanismen integriert. Der wäre zwar wirklich deutlich geringer, aber von "gut funktionieren" und "Weiterentwicklung von PowerPlay" kann nicht wirklich die Rede sein.

Schinzie schrieb:
die Lautstärke wird in den meisten fällen gar nicht erst erreicht,das sind peak werte, war schon bei der 3870X2 so. eine 2400, bzw eine 3450 oder 8600gt verbrauchen deshalb so wenig,weil sie wenig leisten,und man bei Ihnen keine kompenenten ausschalten muss, bzw sie überhaupt gar keine extrem stromhungrigen komponenten haben, die verlustleistung bewerkstelligen konnten, somit kannst du das nicht vergleichen.

Die Lautstärke ist aber für mich z.B. das K.O. Kriterium Nummer 1 bei der Karte. Selbst wenn es Peak-Werte sind, so wird die Karte beim Spielen doch durchaus störend wirken; zumal ich nicht komplett unempfindlich bin. Die hohen Temperaturen lassen auch nicht mehr viel Spielraum für weniger rpm. Herstellereigene Lösungen (bessere/teurere Lüfter) etc. könnte da etwas helfen. Natürlich leisten 2400&Co weniger. Aber im Idle-Modus ja nicht. Dort leisten alle das gleiche, nämlich fast gar nichts. Und dann sollen sie auch wenig verbrauchen. 300W unter Last kann ich noch ertragen (solange das Ding nicht so laut wird).
 
Schinzie schrieb:
die Lautstärke wird in den meisten fällen gar nicht erst erreicht,das sind peak werte, war schon bei der 3870X2 so. eine 2400, bzw eine 3450 oder 8600gt verbrauchen deshalb so wenig,weil sie wenig leisten,und man bei Ihnen keine kompenenten ausschalten muss, bzw sie überhaupt gar keine extrem stromhungrigen komponenten haben, die verlustleistung bewerkstelligen konnten, somit kannst du das nicht vergleichen.
Und woher möchtest du das wissen das die Lautstärke meist nicht erreicht wird?
Ich zitiere:
Unter Last zeigt sich die Radeon HD 4870 X2 dann aber von einer völlig anderen Seite. Während der Lüfter in der erst schnelleren Stufe noch nicht allzu unangenehm auffällt, dreht der Lüfter nach nur wenigen Minuten in unserem Testszenario bereits mit der vollen Drehzahl und ist unangenehm laut.
Keine Angaben also dazu. Es hört sich aber eher so an, als ob der Lüfter immer unter 3D so aufdreht.

Ganz ehrlich, ich glaube nicht das der Testraum bei CB mehr als 25 Grad hatte. Also doch eigentlich optimale Bedingungen.
Im Hochsommer können Räume schonmal über 30 Grad heiß werden. Dann dreht der Lüfter mit Sicherheit immer volle Pulle.
 
quotenkiller schrieb:
aber dann strassenpreis nach etwa 8 wochen und release preis vergleichen ist nun fair?
Weißt du, was die 4870 X2 und die GTX 280 am Freitag kosten? Dann können wir ja diese Preise nehmen, danke.
Oder wollen wir noch 2 Wochen dran hängen und die GTX 290 und 270 nehmen?

Die GTX 280 war von Anfang zu teuer angesetzt, wer das nicht gesehen hat war blind oder es war im Wurst, Gründe sind zahlreich.
High-End ohne Konkurrenz ist oft teuer.
Warum willst du die vor-8-Wochen-Preise mit den heute-nicht-lieferbar-Preise vergleichen?
 
Also gegen den hohen Stromverbrauch wird man wohl nichts machen können - da muss ATI mit neuen Treibern Abhilfe schaffen.
Aber gegen die Temperatur würde doch ein gutes gelüftetes Gehäuse helfen, oder?
Ich meine nicht Wasserkühlung, sondern 3 gute Gehäuselüfter - oder wäre das nur eine Verbesserung um 2-3°?
 
Der erste Test seit längerem, der mich nicht schon auf der zweiten Seite aukotzt, gut gemacht.

Nun zur Ruprik "Was könnte man besser machen"? Wie wäre es mit externen HD Videos von Games in brutal hohen Auflösungen mit allen Qualitätsfeatures aktiviert?
Ich will eine subjektiven EInschäzung wie sich die Grafikkarte InGame verhält, auch bei z.B. Kampfsituationen, sammt FPS-Anzeige usw. Ist diese 10Min-Arbeit wirklich zuviel verlangt? Nein .. aber es wäre ein großes Plus!

mfg,
Markus
 
In meinen Augen versagt die Karte auf voller Breite, da die Lautstärke unter Last an Körperverletzung grenzt und die scheinbar hohe Rohleistung durch die Microruckler relativiert wird.
Diese spielen nämlich sehr wohl eine wichtige Rolle, da man mit so einer solchen Karte nicht nur die aktuellen Spiele spielen will sondern auch kommende, wie Farcry2. Hier wird die Karte sehr schnell unter die 30fps gelangen.

Auf diese Karte habe ich umsonst gewartet. Schade, denn ich wäre durchaus bereit gewesen, noch mehr Geld auszugeben.
Die GTX280 kommt aufgrund der Lautstärke auch nicht in Frage, weshalb ich wohl oder übel weiter auf die 1GB Variante der regulären 4870 warten muss -_-
 
Unyu schrieb:
Weißt du, was die 4870 X2 und die GTX 280 am Freitag kosten? Dann können wir ja diese Preise nehmen, danke.
Oder wollen wir noch 2 Wochen dran hängen und die GTX 290 und 270 nehmen?

Die GTX 280 war von Anfang zu teuer angesetzt, wer das nicht gesehen hat war blind oder es war im Wurst, Gründe sind zahlreich.
High-End ohne Konkurrenz ist oft teuer.
Warum willst du die vor-8-Wochen-Preise mit den heute-nicht-lieferbar-Preise vergleichen?
weil hier doch so viele leute auf "man sollte nur vergleichbare hardware vergleichen" stehen. entsprechend muss dann auch der rest der rahmenbedingungen passen, daher auch bitte release preise der hersteller bitte vergleichen.
das der gtx280 preis zu hoch war, kann ich mir übrigens so gar nicht vorstellen. *erstaunt aufschau...*
 
1. Das Argument mit der Lautstärke zählt nur bissel. denn man muss die Karte ja auch 100% auslastung bringen, damit der Lüfter 100% drehen tut. da fällt mir ein, wieviel von uns haben einen 30Zoll moni mit einer über 2500 auflösung? vielleicht 0,5%!

2. Endlich scheint PowerPlay zu funzen, das freut mich sehr, hoffe das bringt auch bei einer einzellnen 4870 genau so viel wie der x2.

3. Ati hat sich meiner meinung nach endlich die preformenckrone verdient, respekt an ati.
P.S. und die krone wurde nicht gerade um 2-5% erobert, sonder fast (hoffe sage jetzt nichts falsches) um ca 35-45%, das ist eine enorme leistung wenn man mit den vorgänger und der konkurenz vergleicht.
 
Insgesamt denke ich auch, dass man ein GTX 280 SLI hätte mittesten sollen. Allerdings müsste auch viel deutlicher herausgestellt werden, dass es sich bei der X2 um eine einzelne Karte handelt und deswegen Vorteile gegenüber einem CF oder SLI Gespann existieren.
Zum einen wird kein Crossfire Mainboard benötigt und zum anderen wird kein zweiter Steckplatz belegt. Wer nebenher noch gerne TV-, Sound- oder sonstige Karten in den PC integrieren möchte weiß diesen Vorteil durchaus zu schätzen.
Das Problem der µRuckler wird glaube ich auch etwas überthematisiert. Vielleicht sollte man das Ganze mal ein wenig abstrahieren und nur die Spielbarkeit betrachten. Um die µRuckler zu umgehen, genügt es ja die Grafik zu reduzieren und somit die GPU zu entlasten. Die Spielbarkeit lässt also im übertragenen Sinne nach. Die Frage die bleibt ist doch, ob die reduzierte Spielbarkeit unter der einer einzelnen, stärkeren GPU liegt? In vielen Fällen ist die Antwort wohl immer noch nein, womit also das Problem der µRuckler auch ein Problem der Mentalität des Nutzers ist (ähnlich dem Problem damals bei Crytek, warum deren Spiel in höchsten Settings nicht spielbar ist).
Insgesamt hat sich AMD den Titel der Performanekrone durchaus verdient, allerdings ist der Stromverbrauch nach wie vor furchtbar. AMD sollte dringend an einer Lösung ähnlich der von nVidia basteln und die Karte im 2D-Modus abschalten. Bei diesen Verbrauchswerten voller Stolz auf die Stromsparmechanismen zu verweisen ist schon fast blanker Hohn. Der enorme Stromverbrauch unter 3D wird sich wohl leider nur durch zukünftige Strukturverkleinerungen eindämmen lassen oder durch untervolten, was in Anbetracht der Verbrauchswerte und der hochdrehenden Lüfter aktuell die einzige Möglichkeit sein dürfte.
 
CBlin schrieb:
Also gegen den hohen Stromverbrauch wird man wohl nichts machen können - da muss ATI mit neuen Treibern Abhilfe schaffen.

Tja, darauf warte ich jetzt auch schon fast zwei Monate bei meiner 4870. Ich glaube nicht, dass da noch was kommt.
 
mensch ihr und euere dualgpu streitigkeiten.

mal im ernst: die meisten von euch würden sich gerne nen porsche, ferrari, maybach oder was auch immer kaufen. Da is ein motor drin. Würdet ihr die jetzt nicht kaufen, wenn da zwei motoren drin wären, die das ding noch schneller machen, bloss weil 2 motoren drin sind ?

ich behaupte jetzt mal ganz frech das 70% von dem gelaber auf "psychologischer kriegsführung" basiert; sprich dass es in jedem forum mind einen Unyu-vogel gibt der in jedem post alles was mit ATIs multi gpu lösungen zu tun hat schlecht macht. Würde nVidia jetzt ne GTX280bX2 (wat für ein name:D) rausbringen die auf der gleichen technik basiert, wäre die technologie auf einmal die beste der welt. Aber so geht das nunmal, ein Unyu erzählt seine geschichten, 10 newbie-user die keine ahnung haben (und nVidiasympatisanten sind weil bei ihren games nVidia hinten drauf steht) erzählen es weiter und schwuppdiwupp: hat man so ziemlich 90% der anti- ATI-front (wieder son geiles wort:lol:). maximal 10% aller leute hier haben überhaupt ne ahnung von der technik, bzw haben schonmal mikroruckler gesehen.

Meiner meinung nach ne schöne karte, aber die sollten sich was anderes zur kühlung einfallen lassen wie Sapphire einmal bei einer HD3870 gemacht hat, irgendwie wasser verdampfen oder so mithilfe dem VaporX system. Das hat ja auch etwas gebracht. Verbrauch war nicht anders zu erwarten bei der leistung...

Greetz

Edit: hier is der link zum VaporX system
 
Zuletzt bearbeitet:
GTX280 Sli testen, das wäre dann ein absoluter High-End Vergleich. Im normalen Test sollte aber gelten:
Karte gegen Karte und es ist dabei vollkommen egal, wieviel GPUs da drauf sitzen.

Jo, dann lasst den Vergleich mit der GTX 260 SLI weg. Mir wurst, aber dann jammern auch wieder einige rum. Es ging mir von Anfang darum, dass hier nicht konsequent alle anderen Alternativen gezeigt wurden. Entweder ... oder ... ! Aber nicht mal so und mal so!
 
Wär mal cool wenn man von der HD4870 (nicht x2)
n test durchgeführt werdn würd
 
@ The_1st_Knight

hab auf der seite 7 mal beide tests zusammen gezogen falls es dich interessieren sollte
 
280 Watt? Das ist das CF Gespann, eine X2 wird mit "nur" 206 Watt im Idle angegeben und verbraucht nur 10 Watt mehr als eine einzelne 4870.

Das halte ich für grandioses PowerManagement. Leider ist die Statistik durch die stark Rot gefärbte 1. Zeile sehr irreführend.
 
Zurück
Oben