Test ATi Radeon HD 4870 X2 im Test: Zwei GPUs greifen nach der Krone

maclion schrieb:
egal wie man das Ganze sieht, eins bleibt aber als bitterer Nachgeschmack übrig - wenn es so in den nächsten Jahren weiter geht mit der Entwicklung dann gute Nacht. Wann ist endlich der BreakEven erreicht wo Leistung nicht gleich mit hohem Stromverbrauch, Lautstärke und Wärme einhergeht?`
Es kann so in den nächsten Jahren kaum weitergehen. Das ist das einzig Schöne an der Sache. Knapp 100°C unter Last bei Flugzeug-Turbinen-Lautstärke sind ohne Verbesserungen kaum noch steigerungsfähig. Da wird man sich mal hinsetzen und etwas überlegen müssen. Bisherige GPU-Entwicklung heißt ja: alle 6 Monate 5 Minuten hinsetzen und alle Zahlen nach oben schrauben, Stromverbrauch/Lautstärke etc. ignorieren, die Karten auf den Markt werfen, wenn die ersten Prototypen "funktionieren" und anschließend den Treiber programmieren.
 
@CB: Super Test... Auch find ich es toll dass man mal auf die Microruckler eingegangen ist.


Endlich schafft es AMD/ATI mal wieder die Performance Krone zu übernehmen... Wurd auch mal wieder Zeit. Die 4870 X2 ist halt man eine Highend-Graka. Hier regen sich Leute auf dass sie so laut ist und viel zu viel Strom frisst.... WTF???? Ich mein wenn man sich so eine Graka kauft, dann is einem Der Strom und die Lautstärke doch völlig egal...(Außerdem kommt dazu, dass die Lautstärke von jedem Menschen unterschiedlich empfunden wird, Mein Zalman CNPS 9700 is für mich auch total leise, wo andere Sagen er is viiiel zu laut (nur als bsp.))

Mircoruckler gibt es bei jeden Dual GPU lösungen. Nvidia hat da diesselben Probleme. Ich denke dass es auf der 4870 X2 sogar besser gelöst ist als auf einen SLI gespann (oder z.b. 4870 CF), denn die zwei GPUs befinden sich auf EINER Karte, somit können sie auch besser kommunizieren.

An alle Nvidia Fanboys:

Seht es doch mal von der positiven Seite. Nvidia wird sich jetzt wieder bemühen einen noch bessere Leistung mit ihrer nächsten Reihe auf den Markt zu bringen. Es wird jetzt wieder ein bisschen besser auf dem Grafikkarten Markt und man erlebt sowas wie die 9000-Serie von Nvidia vlt nicht nochmal. Nvidia hatte lange genug die Performance Krone und sie haben sich darauf ausgeruht. Erst als es aufkam, dass die 4800-Serie super gut werden soll, haben sie wieder was gutes erfunden (GTX 280).


Meiner Meinung nach bringt dieser Performance-Kronen-Wechsel wieder ein bisschen Pepp in die Grafikkarten Welt. Mal sehen was uns in nächster Zeit erwartet.
 
Und wiedermal ein super Test :)
Super Karte muss ich schon sagen, dass das rote PCB weg ist finde ich jetzt nicht weiter tragisch.
Zur Leistungsaufnahme, Lautstärke und trotzdem sehr hoher Temperatur sag ich mal lieber nix... da ist noch einiges zu verbessern.
Jetzt bin ich sehr gespannt wie die Antwort von Nvidia heißt.. die es, denk ich, sicher geben wird.
 
@-Unreal-


Meinst du vielleicht mich?
naja ich würde auch keine 500€ für ne Graka ausgeben. Die X2 kostet ja auch nur 400€:D
1-2 Monate und dann wird sie auf Nieveu von ner GTX 280 sein.

Mfg Kivi 123
 
Wow... beeindruckend das Teil vor allem zu en preisen wirklich interessant :)

Wenn man bedenkt das sie bei Geizhals ab 395€ gelistet ist,kann man hoffen das sie sogar noch günstiger werden Siehe Hier

Aber selbst zu dem Kurs richtig gut...

Naja und Lautstärke war doch klar und ist behebar,nen anderen Kühler drauf und gut ist es ;)

Das die gut Stromziehen wird war ja wohl klar aber da es nur im Spielbetrieb ist geht das noch finde ich...

Alsod afür bin ich echt am überlegen mein SLI aufzugeben und mir eine davon zu holen,ich denke das knallt gut :)


lg
 
@ Kivi 123
Wenn du schon so argumentierst...

Tolle Karte, nur rund 400€ + ne kleine Wakü (200€) zum Selberbasteln dazu. "Das ideale Bastelset für Ihren 14-jährigen CSS-Sprössling der gerne mal Crysis probieren möchte".

:freak:
 
Abgesehen davon, was gleich an die CB gerichtet von mir geschrieben wird, muss ich ATi endlich nach langer Zeit einmal zugestehen, dass sie mittlerweile etwas gelernt haben. In einigen Bereichen liegen sie nun dank der Dual-GPU vorn, jedoch gibts noch viele Mängel auszubessern, wie den lauten Lüfter. Das ist ein absolutes No-Go für jeden Spieler, das müsste ATi eigentlich wissen und da etwas besseres entwickeln.

Ich bin gespannt, wie hoch das Potential wird, wenn der Treiber noch mehr verbessert wird, vor allem hinsichtlich des immensen Stromverbrauchs im Idle, schliesslich sind die meisten wohl 80% der Sitzung am PC eher dem "Idle" verschrieben. Unter Last - tja, da war klar, dass sie viel verbraucht, jedoch überraschenderweise weniger als bisher vermutet. Nicht schlecht, aber immer noch deutlich zu viel.

Alles in allem gesehen vor allem für sehr hohe Spielauflösungen interessant, wobei gerade im eSport dies dank der ganzen dämlichen Tweakereien vollkommen egal ist. Wie mans dreht und wendet - muss jedem selbst überlassen werden, ob er sie sich kauft. Die Karte aber hochzuloben ist der falsche weg.



@CB

Ich hab mir jetzt den gesamten Test durchgelesen, und muss folgendes Fazit stellen: Eine Schande, dass ihr auch weiterhin eine Dual-GPU Karte mit einer Single-GPU Karte direkt vergleicht, und nicht ein einziges mal auch nur ansatzweise darauf eingeht, dass es prinzipiell unfair und unsachlich ist, derlei Vergleiche zu ziehen. Ihr geht nie darauf ein, was wohl wäre, wenn 2x GTX280 verwendet wird - hier habt ihr ausschliesslich zwei GTX260 im SLI Verbund getestet (und diese nichteinmal wirklich explizit im direkten vergleich erwähnt). Ich finde das regelrecht armselig und zeugt von eurer mittlerweile stark positiven Haltung gegenüber ATi. Mir geht der Verdacht durch den Kopf, dass ihr ABSICHTLICH keinen GTX280 SLI-Verbund erwähnt habt.

Sorry, CB, Objektivität ist absolut etwas anderes. Ihr lobt hier eine (wahrlich keine schlechte, aber auch keine Perfekte) Grafikkarte unsachgemäß hoch, die es zwar schafft jedwede Single-GPU hinter sich zu lassen (oder CF-Verbund aus eigenem Hause), erwähnt aber wie gesagt niemals den GTX280-Verbund, mit dem nVidia potentiell weiterhin die Performancekrone inne hätte. Sowas nenn ich schlicht und ergreifend Schiebung.

Und wenn ihr das nun als "geflame", "Beleidigung" oder whatever bezeichnet und ins Aquarium verschiebt, dann werd ich mir meinen Teil denken und meine Accountlöschung beantragen, dann gehts ins lächerliche. Leider hab ich das hier schon oft gehabt, dass meine CB-Kritischen Beiträge grundlos Gelöscht wurden, was mich mittlerweile mehr zu diesem Tonfall bewegt, sorry.


@Zimon

wenn nv eine 280gx2 bringt *lach* dann wird die auch mit der 4870x2 verglichen....

Nein, dann wird mit 4870 x2 im Crossfire-verbund verglichen, weil ATi sonst dumm da steht.
 
Zuletzt bearbeitet:
FredKune schrieb:
Es kann so in den nächsten Jahren kaum weitergehen. Das ist das einzig Schöne an der Sache. Knapp 100°C unter Last bei Flugzeug-Turbinen-Lautstärke sind ohne Verbesserungen kaum noch steigerungsfähig. Da wird man sich mal hinsetzen und etwas überlegen müssen. Bisherige GPU-Entwicklung heißt ja: alle 6 Monate 5 Minuten hinsetzen und alle Zahlen nach oben schrauben, Stromverbrauch/Lautstärke etc. ignorieren, die Karten auf den Markt werfen, wenn die ersten Prototypen "funktionieren" und anschließend den Treiber programmieren.

Sehe ich auch so. Zumal wir langsam in Regionen kommen, in denen Games wirklich realistisch aussehen. Irgendwann können sie nichtmehr realistischer aussehen, da werden dann andere Kaufgründe entscheidend sein.
 
TchiboMann schrieb:
@CB

Ich hab mir jetzt den gesamten Test durchgelesen, und muss folgendes Fazit stellen: Eine Schande, dass ihr auch weiterhin eine Dual-GPU Karte mit einer Single-GPU Karte direkt vergleicht, und nicht ein einziges mal auch nur ansatzweise darauf eingeht, dass es prinzipiell unfair und unsachlich ist, derlei Vergleiche zu ziehen. Ihr geht nie darauf ein, was wohl wäre, wenn 2x GTX280 verwendet wird - hier habt ihr ausschliesslich zwei GTX260 im SLI Verbund getestet (und diese nichteinmal wirklich explizit im direkten vergleich erwähnt). Ich finde das regelrecht armselig und zeugt von eurer mittlerweile stark positiven Haltung gegenüber ATi. Mir geht der Verdacht durch den Kopf, dass ihr ABSICHTLICH keinen GTX280 SLI-Verbund erwähnt habt.

Sorry, CB, Objektivität ist absolut etwas anderes. Ihr lobt hier eine (wahrlich keine schlechte, aber auch keine Perfekte) Grafikkarte unsachgemäß hoch, die es zwar schafft jedwede Single-GPU hinter sich zu lassen (oder CF-Verbund aus eigenem Hause),

Ob da 2 GPUs drauf sind oder 50 ändert nichts daran, dass es eine Karte ist. Und das ist es, was die Leute interessiert. Wieviel leistet diese eine Karte und wieviel zahle ich dafür?

Es heult ja auch keiner rum "Wie kann man nur behaupten ein Q6600 sei schneller als ein E6600. Das ist ja sooo unfair. Immerhin hat der Q6600 4 Kerne und der E6600 nur 2". Stimmt. Ändert aber nichts daran, dass er schneller ist.

Ebenso bei der X2. Ja, die Karte hat 2 GPUs. Aber das ändert ja nichts daran, dass sie schneller als eine 280 GTX und verhältnismäßig wenig mehr kostet.

Das wäre so als würde man behaupten man könne die beiden nicht vergleichen, weil die Spannung des Speichers unterschiedlich ist.
 
Guter Test, endlich über die Mikroruckler berichtet.

Naja, ich würde dann eher zu 2x GT260 greifen.
 
Übrigens wird die 4870 X2 für "nur" 395 € bei Geizhals gelistet, das sind lediglich 75 € mehr als die 280 GTX. Wir können also erwarten, das die nächsten 1-2 Wochen die Preise nochmal sinken, was jedem zugute kommt.
 
Was kostet es denn an Strom wenn man die Karte unter Vollast 6h laufen lässt? (durchnittler Strompreis)
 
Könnt ihr bitte mal dieses "µRuckler gibts/merkt man erst unter 30 Fps"-Geblubbers lassen? Das ist in Crysis oder CoD4 selbst bei nominellen 50-70 Fps vorhanden und mit der X2 fühlt sich das Spiel an wie 25 Fps mit fetten Nachladehängern. Zehn X2-Fps sind 3-7 ruckelnde Single-GPU-Fps. Klar gibts Spiele, in denen die µRuckler kaum vorkommen, aber CoD4, CoD4 und viele UE3-Titel sind mit solch einer Karte selbst auf einem 22er TFT eine Qual.

cYa
 
hm, schon recht heftig das Teil. Aber nichts für mich.
Ich hab zwar ne hohe Auflösung mit meinem 26 Zoll Monitor (1920x1200) aber Crysis läuft grad noch so spielbar (mit 2x AA). Zu ner besseren Grafikkarte würd ich aber nicht generell nein sagen. Aber da warte ich noch ein bisschen.

Ich bin mal gespannt wann die ersten Dual-Core Grafikkarten rauskommen. Vielleicht wird Intel uns irgendwann mal ein Schmankerl servieren ;)

Gruß
Tobi
 
Sorry, aber keiner hier hat die Karte selbst getestet und kann somit auch keine Aussagen über Lautstärke oder Microruckler machen. Das sind doch alles nur Spekulationen mit dem Ziel die Karte in den Dreck zu ziehen.

a la:

"Bisherige GPU-Entwicklung heißt ja: alle 6 Monate 5 Minuten hinsetzen und alle Zahlen nach oben schrauben, Stromverbrauch/Lautstärke etc. ignorieren, die Karten auf den Markt werfen, wenn die ersten Prototypen "funktionieren" und anschließend den Treiber programmieren."

Das hat mit Objektivität nichts mehr zun. Das sind Beleidigungen gegenüber Ati/Amd.

Der Kunde schreit eben nach Leistung. Kein Hersteller ist in der Lage eine eierlegende Wollmilchsau zu bauen, die alle Bedürfnisse befriedigt. Man kann eben nicht das Flagschiff des Konkurrenten schlagen, wenn man den Energiebedarf etc nicht entsprechend hochschraubt. 5nm gibt es eben nicht die wenig Strom brauchen und trotzdem extrem effizient sind...
 
Also das mit den Mikrorucklern ist bei dieser Karte ja wirklich komplett egal!

bei normalen einstellungen KANN man mit der niergends unter 30fps kommen ;)

da diese karte selbst 2000er auflösung bei manchen spiele vollem AA und AF darstellen kann wird es in niedrigeren auflösungen nie zu mikroruckeln kommen können.

damit fallen diese natürlich komplett weg... weil in so hohen auflösungen ist die karte zu weit vorne... über 50% vor der gtx280. d.h. wenn die mikroruckler in manchen spielen für manche unbemkert anfangen stürzen alle anderen grakas ab oder haben 15fps.
womit das thema erledigt ist.

in 2 jahren wird es vielleicht wieder anders... dann hast mehr spiele die die power haben wollen und andere grakas die es besser darstellen können. nur... wer sich jetzt ne 4870x2 holt weil er alles bei maximalen auflösungen bei maxilmaler qualität spielt wird sich dann wohl auch eine neue holen.
 
Zurück
Oben