Test Test: ATi Radeon HD 4870 X2

Die Fps. der Karte erkauft man sich mit schon brutalen Energiewerten und einer Lautstärke, die sich mehr
als gewaschen hat. Ich stelle mir ernsthaft die Frage: Wer will so ein verschwenderisches und lautes Monster kaufen, da muss man schon sehr leidensfähig sein.
Das Fazit der CB ist mir diesbezüglich zu unkritisch, dennoch ein sehr guter, flotter Test - Danke !

Edit: wann werden die Fps. endlich in min./durchschn./maximal eingeteilt ?
 
Danke für den schönen Test, die 4870x2 gefällt sehr gut vor allem der niedrigere Idleverbrauch im gegensatz zu einem Crossfire gespann, dieses schein aber teilweiße trotz des geringeren Speichers besser zu laufen, aber in anderen Spielen ist die x2 wieder deutlich schneller.
 
.-MagnuM-. schrieb:
Hallo,
weiß jemand wie es mit 2 Monitoren aussieht? Ist das bei der möglich weil es ja nur eine Karte mit 2 Chips ist?

Also 2 Monitore kannst du an jede Graka anschließen egal ob single oder multi gpu.

The_1st_Knight schrieb:
Klar sind die Anschaffungskosten höher, aber das hat nichts mit der reinen Leistung zu tun. Das würde sich dann ggf. im P/L-Verhältnis finden (das ja auch zu den Tests gehört).

Ok um deine Logik mal zu rekapitulieren:
- man kann eine einzelne X2 mit einem 280 SLI vergleichen
- die enormen mehrkosten der beiden 280er sind dabei egal

So und nun erklär mir bitte warum ich dann nicht auch ein CF aus 2x 4870X2 mit vergleichen darf? Klar die kosten mehr, aber das ist ja egal wie du uns erklärt hast.
 
toll. damit ist dier neue könig. und in 2560x1600 bricht sie kaum ein.
die lautstärke ist noch ok, die leistungsaufnahme sieht auch ganz gut aus.
aber es gibt die microruckler noch. das ist mir schon ein dorn im auge. da greife ich lieber zu einer 4870. ich zock eh net in so hohen auflösungen. und crysis ist ausgelutscht.
 
@göschle
Ich denke mal die Leute, die diese Karte kaufen, sind zumeist eh "Freaks" und die werden diese Karte dann meist unter Wasser setzen oder aber einen anderen Luftkühler montieren - bei Verfügbarkeit.
 
Wie kann man diese Karte feiern?
Über 65db in Spielen ist eine Frechheit. Die Temperatur von 91 Grad bei Vollast-Lüfter ist ebenso zu hoch.
Testest man nicht im wohl klimatisierten 25 Grad Zimmer, sondern in einer 35 Grad Dachgeschoss Wohnung, kommt die Kühlung selbst im 2D Betrieb an die Grenzen.

Bei aller Liebe, aber diese Karte ist nicht praxistauglich.
 
Also die Leistungswerte sind enorm, wenn auch nicht so gut wie erwartet (Schlechter als 2 GTX260 im SLI..), die Lautstärke ist unterirdisch, die Stromaufnahme im idle erfreulich, die unter last (auch im Vergleich zu dem SLI Gespann) zu hoch!

Und die Erklärung, warum eine 4870 X2 schneller ist als 2 x 4870, wäre für mich nur, dass Crossfire noch zu schlecht skaliert ohne extra Chip..

Und das Microrucklerproblem kommt schon bei den nächsten Spielen wieder öfters zu tragen!


Alles in allem für den Preis okay.


Nun wäre interessant zu wissen, ob die Treiber Schuld sind an den idle Verbrauchswerten oder die Karte selber, also ob alle anderen 48x0 User auch damit rechnen können, dass ihre Karten ab demnächst weniger schlucken!
 
falsch, 10Db mehr sind doppelte empfundene Lautstärke, bei 3Db verdoppelt sich nur die Schalleistung

Stimmt, habe ich auch gerade gesehen. Allerdings sind auch diese 10db subjektiv. Abgesehen davon waren im eben angesprochenen Vergleich 5db Unterschied genannt. In Wahrheit sind es aber 8db bzw. 7,5db... auch auf der "anderen Seite" werden also wahllos passende Zahlen zum vergleich genommen. Ich finde dieses Delta nach wie vor groß.

Ok um deine Logik mal zu rekapitulieren:
- man kann eine einzelne X2 mit einem 280 SLI vergleichen
- die enormen mehrkosten der beiden 280er sind dabei egal

So und nun erklär mir bitte warum ich dann nicht auch ein CF aus 2x 4870X2 mit vergleichen darf? Klar die kosten mehr, aber das ist ja egal wie du uns erklärt hast.

Hab ich nicht gesagt. Ich habe lediglich bemängelt, dass die Leistung der 280er nicht aufgeführt ist um so möglicherweise ein gewisses Fazit ziehen zu können. Na klar kann man einfach noch eine CF-Lösung aus zwei 4870X2 testen und somit die möglicherweise schnellste Kombination von GPUs zu erzielen. Aber darum geht es in dem Artikel ja gar nicht. Es erschließt sich mir nur nicht wieso man mal ein SLI-Gespann aufführt und mal nicht... Wenn man nur Single-Karten-Lösungen vergleicht dann bitte schön, nehmt die SLIs raus. Wenn nicht führt auch die schnellste SLI-Lösung auf die NVIDIA hat. DAS war mein Punkt. Alles andere führt diese Kritik ad absurdum! Ich habe hier nicht ATI sondern den Autor kritisiert!
 
Zuletzt bearbeitet:
ja, zur dezibel sache. hatten wir schon mal bei der GTX280. 3 dezibel ist nur die verdoppelung der schallstärke. 6 sind der theoretische wert (glaub ich), und 10 die subjektive verdopellung.

naja,zur karte.


wie erwartet die momentan schnellste und leistunstärkste Karte auf dem Planeten.
eine GTX290 oder ähnliches, wie es kollege Unyu voraussagt, ist noch nicht mal angekündigt. Nur ein shrink,aber wann und was es bringt ist ungewiss.

mit der X2 kann man endlich auch auf 30" spielen,und wenn man sich ein wenig mit CF beschäftigt läuft auch überall die X2 deutlich schneller.

Microruckler hingegen isnd subjektiv,einige nehmen sie erst gar nicht wahrm bzw andere stören sie nicht. fakt ist jedoch,wenn man über 30fps MIN bleibt, werden sie zu 95% erst gar nicht wahr genommen, und das ist bei der karte in jedem spiel, bis auf Crysis, der Fall. punkt.


gruß
 
Schade, schade, schade...

Eigentlich hatte ich mich dem Gedanken gespielt mir eine HD 4870 X2 zu kaufen, wenn AMD es wirklich schafft PowerPlay 2 zum Funktionieren zu bringen. Was Computerbase im Test mit "funktioniert ordentlich" beschreibt, kann ich nur als "völlig unzureichend" kommentieren. Das die Karte knapp 200W unter Last mehr braucht als eine 8800GTX könnte man in Anbetracht der Leistung evtl. noch verzeihen, wenn man sich aber die hohen Temperaturen (mal ehrlich CB; die Temperaturen sind alles andere als i.O.), den mit über 100W hohen Idle-Verbrauch der Karte, die wohl mehr als 350W unter Last und den Flugzeug-Turbinen-Lärm unter Last anschaut, könnte einem der Gedanke kommen, dass AMD absichtlich auf alle Kunden geschissen hat und mit der Karte aktuell lediglich krampfhaft die Performancekrone holen wollte. (Was durchaus gelungen ist). Wer damals bei der 8800er-Reihe geschrien hat, sollte jetzt ebenfalls aufstehen und protestieren.
Positiv hervorzuheben ist bei dieser Karte lediglich die Lautstärke im Idle-Modus. Das ist zwar ein wichtiges Kriterium, aber zumindest mich wird es kaum bewegen diese Karte zu kaufen.

Mein persönliches Fazit:
Diese Karte ist eine einzige Fehlentwicklung und absolut nicht marktreif. PowerPlay 2.0 erzielt so ziemlich die traurigsten Ergebnisse seit es "Stromspartechniken" gibt, die Lautstärke unter Last ist in Deutschland vermutlich sogar aus gesundheitlichen Gründen verboten und nur wenn man ein ATI-Fanboy wäre gerade noch als "absolute Frechheit" zu bezeichnen und die Leistungsaufnahme unter Last, die für Temperaturen und Lautstärke verantwortlich ist, führt vermutlich dazu, dass die Karte im Handel nur mit einem Vertrag on E-On angeboten werden darf (vermutlich liegt ein entsprechender Sticker der Karte bereits bei).
Das eigentlich traurige an der Sache ist aber, dass meine letzten zwei Grafikkarten keine NVidia-Karten waren, weil ich NVidia so toll finde, sondern dass ATI es schafft mich einzig und allein mit ihren eigenen Produkten dermaßen abzuschrecken, dass nur noch die Konkurrenz übrig bleibt. Da jedoch beide Firmen nicht sonderlich fähig in der Entwicklung von Chips zu sein scheinen, warte ich jetzt mal darauf, was Intel uns noch bringt und spätestens wenn Intel Zeit hatte ein bisschen Erfahrung zu sammeln, werden die beiden Möchtegern-Grafikkarten-Entwickler feststellen, dass man mehr als zwei Gehirnzellen anstrengen muss, um ein gutes Produkt auf den Markt zu bringen und eine Karte nicht so viele W verbrauchen sollte wie sie EUR kostet.

P.S.: Gibt es schon ein Forum, wo man sich erkundigen kann wie man am besten vorgeht, wenn der Nachbar aufgrund des Lärms einer ATI X2 verlagt?

Schinzie schrieb:
ja, zur dezibel sache. hatten wir schon mal bei der GTX280. 3 dezibel ist nur die verdoppelung der schallstärke. 6 sind der theoretische wert (glaub ich), und 10 die subjektive verdopellung.

Ääh...NEIN. Die Subjektive Verdopplung lässt sich mit dB überhaupt nicht ausdrücken, weil sich mit dB nicht die subjektiv empfundene Lautstärke angeben lässt. Selbst zwei Geräuscht mit gleichen Schalldruckwerten (dB) können als subjektiv unterschiedlich laut empfunden werden. Daher eignet sich die eine dB-Angabe auch überhaupt nicht zur Angabe von Lautstärken bei Produkten, was aber dennoch (leider) niemanden davon abhält diese zu benutzen. Hauptsache man hat so ein tolles Messgerät; man muss ja nicht auch noch wissen, ob es sinnvoll ist.

Schinzie schrieb:
wie erwartet die momentan schnellste und leistunstärkste Karte auf dem Planeten.
eine GTX290 oder ähnliches, wie es kollege Unyu voraussagt, ist noch nicht mal angekündigt. Nur ein shrink,aber wann und was es bringt ist ungewiss.

mit der X2 kann man endlich auch auf 30" spielen,und wenn man sich ein wenig mit CF beschäftigt läuft auch überall die X2 deutlich schneller.

Microruckler hingegen isnd subjektiv,einige nehmen sie erst gar nicht wahrm bzw andere stören sie nicht. fakt ist jedoch,wenn man über 30fps MIN bleibt, werden sie zu 95% erst gar nicht wahr genommen, und das ist bei der karte in jedem spiel, bis auf Crysis, der Fall. punkt.


gruß


Auf 30" kann man damit wirklich gut spielen. Leider habe ich kein Dual-DVI-Kabel zu Hause, dass 10m lang ist, so dass ich den PC in den Keller stellen kann, um nicht mehr ganz so von dem Lärm genervt zu werden.
Bei 50W idle und 50dB unter Last greife ich gerne zu, sobald die Karte 300 EUR kostet. Ansonsten würde ich mir die Karte alleine aufgrund der Lautstärke nichtmal für 1 EUR kaufen.
 
Zuletzt bearbeitet:
KAOZNAKE schrieb:
Außer dir schaltet glaub kein ATI-User AI aus, weils einfach keine optischen Nachteile hat,
1. Korrekt, weil jeder weiß wie AMD alles an AI gekoppelt hat, ohne AI geht halt nichts, leider denn das war früher besser oder ist sogar heute bei der Konkurrenz besser, siehe voll nutzbares HQ.
2. Schlicht falsch.
Texturfilteroptimierungen sind an AI gekoppelt.
Gibt genug Beweise, wie AI-on minderwertig ist.
AMD lässt nur seinen Kunden nicht die Wahl, welche Bildqualität sie möchten.

KAOZNAKE schrieb:
Ist ja nicht wie bei NVIDIA, wo ich außer bei HighQuality nur Matsch sehe (Geforce 7)
GF7 HQ ist höherwertiger als RV770 AI-on.
Matsch ist falsch, nimm das Wort flimmern.

KAOZNAKE schrieb:
Das die Mickroruckler überhaupt nicht bei allen Spielen auftreten, ist wohl auch noch nicht zu dir vorgedrungen.
Ich spiele auch Spiele abseits der Norm und vor allem mache ich keinen Bogen um die µRuckler geplagten Spiele.
Wär ja noch schöner, jetzt diktiert die nicht verfügbare 440€ Karte schon, was man spielen soll?

KAOZNAKE schrieb:
280er SLI wurde von CB nicht getestet
https://www.computerbase.de/2008-06/test-nvidia-geforce-gtx-280-sli/
 
Zuletzt bearbeitet:
Die miese Crysis Performance wird diesem Schreihals das Genick brechen.
Crysis ist eben die Grafikmesslatte.
Und wenn man sich schon so ein sinnfreies Ding zulegt, will man auch in Crysis deutlich mehr fps.

Das ist nicht der Fall. Die Leistung ist sogar noch unter einem 260er Gespann. Das ist nicht berauschend.
 
FredKune schrieb:
P.S.: Gibt es schon ein Forum, wo man sich erkundigen kann wie man am besten vorgeht, wenn der Nachbar aufgrund des Lärms einer ATI X2 verlagt?

Keine Ahnung, aber das wurde schon bei den ASUS TOP Karten der 4870 und GTX280 angebracht. Konzentration ist bei dem Lärm fast nicht mehr möglich, hier sollte ATi vielleicht ein Sennheiser Headset anstelle eines aktuellen Spiels dazu legen..


PS: Ein GTX280 SLI Gespann müsste bei ca. 125% einer 4870 X2 liegen, wenn ich die Benchmarks mir so anschauen. Das könnte CB echt mal zusammen führen!
 
Zuletzt bearbeitet:
@ FredKune
Was ist dir den für ne Laus über die Leber gelauffen im vergleich zu einem 4870CF ist die X2 im idle sehr Stromsparend, und braucht auch nur 14Watt mehr als EINE 8800GTX ich finde das Powerplay 2 funktoniert unter lasst darf sie ruig die Leistung brauchen, auch wennn weniger wünschenswert währe.


@bartio
Crysis ist Ressurcen fressend programiert, und mit erscheinen von Crysis Warhead, fliegt Crysis hoffentlich aus dem Testpackur.
Ja und ein GTX260 gespann kostet aber im mom auch mehr und die Nvidia karten laufen generell besser bei Crysis, was vielleicht auch teilweiße daran liegt das NV Crysis unterstützt hatt. Schau COD4 an da siehts anders aus aber gewaltig anders.
 
Zuletzt bearbeitet:
@bartio
Das zeigt nur wieder mal, dass Crysis nicht optimal programmiert ist. Nicht umsonst ist CF so viel langsamer als SLi in diesem Titel. Also Crysis würde ich definitiv NICHT als Maßstab nehmen.

Was mich nur bei den ATi Karten (generell) stört ist, dass z.B. in BioShock oder auch Gothic 3 AA nicht funktioniert. DAS finde ich viel schlimmer als ein paar FPS mehr oder weniger.
 
Unyu schrieb:
Geil. :D


Solange AFR am Werk ist eben nicht.
Und solange AI-off AFR abschaltet erst recht nicht.
Ich würde AI ausschalten, aber AMD will seinen Kunden scheinbar Bildqualität vorenthalten.

Und µRuckler sind da, so wie seit Wochen bekannt, die FPS handeln sich nach wie vor um Fake FPS. Ein AFR FPS ist wertloser als ein Single FPS. Punkt.

µRuckler durch viele FPS überdecken?
Großes Kino, dann lieber eine 4870 1024 oder GTX 260. Dann sind halt 60% weniger Leistung, wo ich jedoch mit weniger FPS zu frieden sein kann.

Die Multi GPU Lüge ist wohl noch nicht zu jedem vorgedrungen, aber ist ja ok, sind nur 440€ und ein geil langer Balken bei Ai-off.

AI-off dürfte für die Bildqualität gar nicht so entscheidend sein. Im Bildqualitätstest von [H]Enthusiast hat die neue HD48xx Serie (einschließlich HD 4870 X2) besser als Nvidia abgeschnitten (obwohl ja für CF-Lösungen AI anscheinend zwangsaktiviert sein muß): http://enthusiast.hardocp.com/article.html?art=MTUzMiwxLCxoZW50aHVzaWFzdA==

Der einzige Wermutstropfen bei dieser Karte ist die Lautstärke unter Last. Die anderen Mankos wie der zu hohe Stromverbrauch oder die recht hohen Temparaturen sind in dieser Leistungskategorie verschmerzbar. Was die Mikroruckler angeht, wird meiner Meinung nach viel zu heiß gekocht. Mit welchen Auflösungen spielen die meisten? Wahrscheinlich 1680 x 1050. Und mit dieser Auflösung bezweifle ich, dass man mit dieser Karte in die Verlegenheit von vielen Mikrorucklern kommt. Crysis wäre eventuell die einzige Ausnahme. Aber wie schon öfters erwähnt, würde es da dann bei Betrieb einer Singlechipkarte mit den gleichen Qualitätseinstellungen auch ruckeln ;-).

MfG
 
Zuletzt bearbeitet:
Geiler Test mal wieder!

Also die Karte ist ja mal richtig gut, genau wie erwartet. Allerdings nervt die Lautstärke bestimmt tierisch. :mad:
 
Ein GTX280 SLI Gespann müsste bei ca. 125% einer 4870 X2 liegen, wenn ich die Benchmarks mir so anschauen. Das könnte CB echt mal zusammen führen!

Wie zur Hölle hast du das berechnet? Wenn man mal davon ausgeht, dass die 280er Karten so skalieren wie die 260er. Dann ist das SLI-Gespann nur marginal schneller (basierend auf der Leistung einer einzelnen 280er). Die Karten wurden aber separat getestet, wenn auch im Juni. Der Link wurde hier schon mehrfach gepostet.

Bitte nicht wieder sinnlos Öl ins Feuer gießen. Das Ganze wurde hier (von mir) schon anderweitig thematisiert, wenn auch imho nicht von einem so naiven Standpunkt wie von H3rby.
 
Zuletzt bearbeitet:
@bartio
Crysis ist Ressurcen fressend programiert, und mit erscheinen von Crysis Warhead, fliegt Crysis hoffentlich aus dem Testpackur.
Ja und ein GTX260 gespann kostet aber im mom auch mehr und die Nvidia karten laufen generell besser bei Crysis, was vielleicht auch teilweiße daran liegt das NV Crysis unterstützt hatt. Schau COD4 an da siehts anders aus aber gewaltig anders.
FÜr COD4 brauche ich aber auch keine Monsterkarte. COD4 läuft auf jeder Single-Karte in hohen Einstellungen wunderbar.

Crysis braucht eben viel Power (aus welchen Gründen auch immer) und solche Grafikblender wie Crysis sind eben die Daseinsberechtigung für X2-Karten.
Und da sieht es nicht überragend gut aus.

Ich bin weder ein nvidia noch ATI Fanboi. Bin nur von der neuen Generationen beider Hersteller ein bisschen enttäuscht.
Lautstärke, Hitzeentwicklung, all das sind für mich KO-Kriterien und da fallen GTX200er und die Radeons 48x0 durch.
 
bartio schrieb:
Die miese Crysis Performance wird diesem Schreihals das Genick brechen.
Crysis ist eben die Grafikmesslatte.
Und wenn man sich schon so ein sinnfreies Ding zulegt, will man auch in Crysis deutlich mehr fps.

Das ist nicht der Fall. Die Leistung ist sogar noch unter einem 260er Gespann. Das ist nicht berauschend.

Crysis ist eine der wenigen Ausnahmen, in dem die HD 4870 X2 hinter dem GTX 260 SLI Gespann liegt. Aber hast du auch an den Preis gedacht. Zwei GTX260 Grakas kosten mehr als eine HD 4870 X2. Und wenn du Spiele mit höheren Auflösungen und Qualitätseinstellungen spielen willst, bist du mit der X2 besser bedient.

MfG
 
Zurück
Oben