Test Test: ATi Radeon HD 4870 X2

Netter Test, nichts überraschendes dabei, alles in allem eine Super Karte, trotz der Problemchen. Ich muss aber sagen, dass mir auch beim PCGH Testvideo keine Ruckler aufgefallen sind, die nicht an den krassen Einstellungen lagen bzw. eben am Spiel Crysis selbst.

Komischerweise stören viele Microruckler-Flamer diese Dinge nicht wenns ne Nvidia Doppelchip Karte wär ;)
 
Ich hatte bis zur 4870 zwei 3870 und für eine kurze Zeit sogar vier 3870 und konnte keine Ruckler sehen.

Wenn man natürlich mit 15FPS spielt und dann meckert weil es ruckelt, kann ich nur sagen selbst schuld. Bei 15FPS würde ich auch mit einer Singel Karte nicht mehr spielen wollen.

Die 4870X2 ist eine echtes Monster, ist extrem laut, braucht extrem viel Strom, wird extrem warm aber bringt auch extrem viel Leistung.

Man kann wohl davon ausgehen das Sie mind. bis Anfang 2009 die schnellste Karte der Welt bleiben wird (Im Privatkunden Bereicht)

Ich bin mir sicher das die X2 sich trotz der (Nachteile) sehr gut verkaufen wird, da gerade die Freaks immer das schnellste wollen.
 
Error1 schrieb:
Beachtet man dies ist man ganz weit jenseits von 30 FPS und hier existieren keine Mikroruckler.

Die 30FPS Region stimmt zwar, nur hat man bei 30FPS AVG natürlich auch min FPS die weit unter den 30FPS sind, deswegen gilt für CF/SLI Systeme min. 50FPS AVG!!!

Bei gewissen Qualitäts-Einstellung hat man bei zahlreichen Games genau eine solche Frame Zahl.

Error1 schrieb:
Die Zukunft wir eh Multi-GPU sein, allein schon wegen der Wärmeabfuhr.

Ja ist logisch, den 2x150Watt sind nicht 300Watt sondern nur 150Watt... :freaky:

Multi GPU ist GRANTIERT nicht die Zukunft so lange die ganzen Probleme existieren. Eigentlich haben Multi GPU Systeme NUR Nachteile
gegen Singel GPU Systeme, sei es Verbrauch, Preis, Leistung, Temperatur und die Sinnlose Verschwendung von Speicher usw.
 
Zuletzt bearbeitet:
Wow... absolut stromhungrig, brüllend laut und ganz schön heiß... wieder so eine Hardware-Komponente, in der die unglaubliche Dum... äh *whatever* des Menschen zum Ausdruck gebracht wird. Erneut so ein Stück Hardware, das man nicht braucht. Und wenn ihr gegenteiliger Meinung seid, sagt mir mal bitte wieso ihr das Ding braucht und warum ihr nicht warten könnt, bis ein Modell mit gleicher Leistung und passiver Kühlung, ergo niedrigem Stromverbrauch raus kommt?!
 
Need nen ordentlichen WAsserkühler dafür :)
 
so, damit das microruckler gesabbel aufhört werde ich heute bzw morgen einen microruckler simulator programmieren.

Also ein kleines Minispiel(schnellen shooter) der auch auf einer singlechip Karte künstlich Microruckler erzeugt.

Dabei wird man die gewünschte Framerate sowie das gewünschte Delay frei wählen können.


So kann dann jeder testen wie stark die Auswirkungen für ihn wirklich sind.
 
Unyu schrieb:
1. Korrekt, weil jeder weiß wie AMD alles an AI gekoppelt hat, ohne AI geht halt nichts, leider denn das war früher besser oder ist sogar heute bei der Konkurrenz besser, siehe voll nutzbares HQ.
2. Schlicht falsch.
Texturfilteroptimierungen sind an AI gekoppelt.
Gibt genug Beweise, wie AI-on minderwertig ist.
AMD lässt nur seinen Kunden nicht die Wahl, welche Bildqualität sie möchten.


man müsste mal nen test sehen. irgendwie verzichten tester schon lange darauf, das mal unter die lupe zu nehmen. zu faul? zu dumm? kA
was A.I. auf jeden fall wegnimmt sind viele lichteffekte. prey zb wirkt blasser. plasma shots leuchten weniger, und glühen weniger nach beim auftreffen. bei call of duty 4 sind etliche sonnen/wettereffekte weg (wenn auch kaum zu merken). bei oblivion gibts weit weniger gras
ich spiele COD4 trotzdem flüssig auf 1680x1050 bei max details auf ner hd3850. ohne A.I. auch oblivion rennt bei max details auf dieser auflösung sehr gut. AA geht halt net, und AF geht bei ner rv6xx sowieso net wegen dem üblichen schuldigen, der texturfilterleistung

in anderen news: ich würde der 4870 x2 nix wegnehmen. mit nem fetten waterblock drauf ist das hauptproblem beseitigt. und die die über die stromaufnahme lästern - hallo, spielt ihr den ganzen tag? idle stromaufnahme ist eh toll geworden. und kann mit den nächsten treibern nur noch besser werden

greetz
 
Zuletzt bearbeitet:
Realsmasher schrieb:
so, damit das microruckler gesabbel aufhört werde ich heute bzw morgen einen microruckler simulator programmieren.

Also ein kleines Minispiel(schnellen shooter) der auch auf einer singlechip Karte künstlich Microruckler erzeugt.

Dabei wird man die gewünschte Framerate sowie das gewünschte Delay frei wählen können.


So kann dann jeder testen wie stark die Auswirkungen für ihn wirklich sind.


thx realsmasher
 
Error1 schrieb:
Beachtet man dies ist man ganz weit jenseits von 30 FPS und hier existieren keine Mikroruckler.Ich habe mit meinem System jetzt schon viele Frametimings aufgenommen und nur saubere, Einzelkarten identische Verläufe gehabt, mit maximalen 3ms Abweichung.

Und die sieht man auf keinen Fall-außerdem ist der Verlauf bei Singlekarten ähnlich "rau".

Wer kein Geld hat sich so ein unsiniges, stromverbrennendes System zu kaufen, der soll es lassen und weitehin auf seiner Krücke zocken. Mal ehrlich, bei diesem Hobby brauchen wir nicht über Strompreise zu reden! Highend oder eben nicht.

Alles Nachquatschen und Schlüsse ziehen, obwohl man selber keine Ahnung und Erfahrung
hat mit SLI/CF, wie scheinbar die Mehrzahl in diesem Thread hier, ist einfach kindisch und destruktiv.
mfg

Problem nicht verstanden. Agressive Argumentation. Vorverurteilung von Usern. Kein Informationsgehalt in diesem Post.

So lange CF richtig funktioniert stört der Frameversatz bei über 30FPS vielleicht weniger, aber er ist weiterhin da.
Gerade mit DX10 kommt der CF Treiber oftmals nicht richtig zurecht, was zu einem massiven Einbruch der Frameraten führt.
Brechale Rohleistung hin oder her. Gleiches gilt im Übrigen auch für SLI
 
Zuletzt bearbeitet von einem Moderator:
y33H@ schrieb:
@ Antimon
Beide Messungen sind nicht vergleichbar.

Ich wußte gar nicht, dass es zwei verschiedene Lautstärken zu messen gibt. :p

CB nutzt für die Lautstärke nur den schlappen UT3-Flyby, PCGH den deutlich fordernden FurMark, welcher so seine Probleme mit Multi-GPUs hat.

Interessant, eigentlich sollte der geneigte Leser ja davon ausgehen können, dass er bei Tests unter Last Werte bekommt welche bei annähernd 100% GPU Auslastung ermittelt wurden, hier jetzt zu lesen, dass zum einen bei CB ein Test verwendet werden soll, welcher kaum Last erzeugt dagegen bei PCGH ein Test verwendet wird welcher die GPU zwar auszulasten vermag, dafür aber für eine x2 Karte gänzlich ungeeignet ist fördert nicht gerade das Vertrauen in die entsprechenden Tests, vor allem, wenn nach Deinen Angaben, der Umstand schon vorher bekannt war. :rolleyes:

Daher kann sich eine X2 nicht so aufheizen und wird auch nicht so laut. Zudem nutzt PCGH ein passives Testsystem, das von CB ist so schon recht laut. Weiterhin misst PCGH aus 1m, CB aus 15cm.

Die Grundlautstärke eines Systems dürfte relativ egal sein, so lange die Grafikkarte lauter ist als der Rest des Systems, ist sie leiser so sieht das dann aus wie im CB Test mit der Passiv Karte, weniger wie 43 db ist dann halt nicht drin.

Was die Distanz angeht ob nen Meter oder 15cm, so fett wird der Kohl dadurch auch nimmer, denn ne Karte die auf 15cm die 65db erreicht wird auf nen Meter Abstand nicht flüsterleise.

Sprich die Hauptursache dürfte somit sein, dass in diesem Test CB die Karte besser auslasten konnte, wenn auch nicht zu 100% (laut Deinen Angaben) und bei PCGH das Lautstärke Testverfahren für die x2 mangelhaft war.

Also erst mal nachschauen ... beide Werte sind nicht vergleichbar.

Jo das heißt auf gut deutsch noch paar weitere x2 Tests wälzen und mal wieder mittels vieler Tests ein Gesamtbild formen. Und wenn man´s wirklich genau wissen will, beim Online Versandhändler des Vertrauens ne x2 und ne GTX 280 bestellen und selbst austesten.......wofür machen dann PCGH, CB und alle anderen überhaupt noch ihre Tests, wenn man sie, übertrieben gewichtet an Deiner Aussage zum Lautstärketest, in der Pfeife rauchen kann?
 
Moin,

@Dural: Ich stimme dir zu, und so wars auch gemeint, dass man 50 FPS im Multi GPU Systemen auf jeden Fall haben sollte. Wenn nicht - ersetzen.
Mein System schlägt sich noch ganz gut - dass wird sich zum Ende des Jahres ändern.
Beim Kauf gabs die 280er oder so eine 4870X2 noch nicht und ein SLI war das schnellste was es gab.

Zur Wärme 1:Eine SLI-System nimmt nicht das doppelte einer Einzelkkarte auf, sondern max 3/4 der Einzelleistung.

2: Zwei Chips lassen sich besser Kühlen als ein großer, da die Oberfläche im Verhältniss
zum Volumen(Masse) steigt. Darum haben zwei Chips einen thermodynamischen Vorteil.

Ich habe bei "mir nur ein Spiel" wo ich in die kritischen Bereich von unter 40 FPS komme
und das ist Crysis. Alle anderen, ich spiele auf 1680*1050, sind über 60 FPS oder weit drüber. Und hier, kanste ja mal selber messen mit Fraps, gibst keine Ruckler.

mfg
 
Wäre es nicht möglich das eine GPU sich um PhysiX kümmert und die andere um GRafikberechnungen?
So hätte man doch das problem der "Mikroruckler" gelöst oder seh ich das falsch..?
Ich weiß PhysiX ist eig nur für NV aber es gab doch ma nen gemoddeten Treiber für i-eine 38**...
Aber bei einer GX2 wäre das doch dann möglich odeR?
Klärt mich mal auf! :)
 
Zum Stromverbrauch... powerplay 2.0 funktioniert erst mit dem nächstem Treiber.
Also wird der idle-stromverbrauch noch schön sinken ;-)
 
Ostfriese schrieb:
Wow... absolut stromhungrig, brüllend laut und ganz schön heiß... wieder so eine Hardware-Komponente, in der die unglaubliche Dum... äh *whatever* des Menschen zum Ausdruck gebracht wird. Erneut so ein Stück Hardware, das man nicht braucht. Und wenn ihr gegenteiliger Meinung seid, sagt mir mal bitte wieso ihr das Ding braucht und warum ihr nicht warten könnt, bis ein Modell mit gleicher Leistung und passiver Kühlung, ergo niedrigem Stromverbrauch raus kommt?!

Weil hier einige powergamer sind und das juckt uns nicht ob wir am ende mehr geld für strom ausgeben und die wärme ist auch relativ egal, solange wir davon nicht verbrennen. Dann gibt es noch schön 24-er bildschirme, wo man eventuell crysis ... bla bla weißt ja was ich sagen will.

Du kannst mal mit deine kinderkarte weiter cs zocken, da sagen wir ja auch nichts.

Gruß :)
 
Error1 schrieb:
2: Zwei Chips lassen sich besser Kühlen als ein großer, da die Oberfläche im Verhältniss
zum Volumen(Masse) steigt. Darum haben zwei Chips einen thermodynamischen Vorteil.
Das Volumen ist irrelevant oder wie kühlst du einen Chip? :lol:

EXTREM schrieb:
Ich bin mir sicher das die X2 sich trotz der (Nachteile) sehr gut verkaufen wird, da gerade die Freaks immer das schnellste wollen.
Der arme Freak muss schon 2 4870 X2 oder 3 GTX 280 nehmen, um das Schnellste zu haben.
 
Unyu schrieb:
Der arme Freak muss schon 2 4870 X2 oder 3 GTX 280 nehmen, um das Schnellste zu haben.


Das du immer gleich übertreiben musst :D, obwohl es mich interessieren würde, wie die systeme rennen und wie man spielen muss um noch unter 30fps zu kommen um µzuruckeln(frameversatzen^^)

hängt natürlich davon ab wie gut x-Crossfire und 3-way-SLI skalieren würden...
 
@ Antimon

dB(A) und Sone sind nicht 1:1 vergleichbar! Und die dB(A)-Werte von PCGH sind mit denen von CB auch nicht vergleichbar, da 1m vs. 15cm. Die Grundlautstärke ist keinesfalls egal, ebenso der Abstand. Von 15 auf 100cm wird eine Karte nicht flüsterleise, aber der dB(A)-Wert ist nicht umzurechnen. Und bei nur 15cm Abstand zur GraKa spielt dir die Frequenz von CPU-Kühler und Co freilich mit rein :freak: Offensichtlich hast du noch keinen Rechner/GraKa/whatever vermessen, also erzähle mir nicht, was sich wie ändert und was vergleichbar ist und was nicht!

Kluger Junge, wir nutzen ja nicht nur den FurMark, sondern auch "Mother Nature" (daher stammen auch die X2-Angaben), eben weil der Fur bei Multi-GPU Probleme macht :rolleyes: Zudem sagte ich, dass der Fur fordernder ist als der UT3-Flyby, nicht, dass letzterer kaum fordernd ist. Nur im Vergleich ist der Flyby eben deutlich anspruchsloser, die maximale Temperatur bzw. Lautstärke erreicht man damit nicht, da muss es schon Crysis oder gleich der FurMark sein. CB hat nicht besser ausgelastet ...

Ein Test kann nie alles zeigen und ist immer limitiert. Daher weichen Ergebnisse auch voneinander ab. Kein Test der Welt zeigt dir, wie sich die Karte in deinem System, mit deinen Settings und deinen Spielen verhält. Aber ein Test zeigt sehr deutlich die Tendenzen. Sollte dir eigentlich klar sein, mittlerweile zweifle ich jedoch an deinem Verständnis für die Materie.

cYa
 
Zuletzt bearbeitet:
zig*zag schrieb:
Also wenn ich mir folgenden Link anschaue, bin ich so froh über Singlechip Lösungen!

http://www.pcgameshardware.de/aid,6...weist_Mikroruckler_auf_der_Radeon_HD_4870_X2/
Will jetzt die ATi nicht beschönigen aber das ist mal echt ein blödes Beispiel, bei 10-15fps sieht das bei meiner Single Karte (jeweils ne ATI und nV) genauso aus und da gibt es keine Mikroruckler ^^ Es sollte jeden klar sein das mit jeder Karte bei solchen fps das Bild ruckelt, egal ob Single oder Multi-GPU.

Mal noch eine Story zu PCGH: die haben ja auch in ihrem Test angeben wieviel die Karte bei 100% Lüfterdrehzahl erreicht (12,5 Sone), das man das aber nie erreicht interessierte nicht und schon schlugen sich bei PCGH die beiden Lager wieder die Köpfe ein, die nV-Boys hakten drauf rum das ne GTX ja nur 4 Sone laut (nur ein Beispiel Wert!) wird und die X2 plötzlich 12,5 Sone daher kommt, das dies aber nie erreicht wurde spielte keine Rolle.
 
Zuletzt bearbeitet:
y33H@ schrieb:
dB(A) und Sone sind nicht 1:1 vergleichbar! Und die dB(A)-Werte von PCGH sind mit denen von CB auch nicht vergleichbar, da 1m vs. 15cm. Die Grundlautstärke ist keinesfalls egal, ebenso der Abstand. Von 15 auf 100cm wird eine Karte nicht flüsterleise, aber der dB(A)-Wert ist nicht umzurechnen. Und bei nur 15cm Abstand zur GraKa spielt dir die Frequenz von CPU-Kühler und Co freilich mit rein :freak: Offensichtlich hast du noch keinen Rechner/GraKa/whatever vermessen, also erzähle mir nicht, was sich wie ändert und was vergleichbar ist und was nicht!

Punkt 1, man beachte den :p Smiley :p

Kluger Junge, wir nutzen ja nicht nur den FurMark, sondern auch "Mother Nature" (daher stammen auch die X2-Angaben), eben weil der Fur bei Multi-GPU Probleme macht :rolleyes: Zudem sagte ich, dass der Fur fordernder ist als der UT3-Flyby, nicht, dass letzterer kaum fordernd ist. Nur im Vergleich ist der Flyby eben deutlich anspruchsloser, die maximale Temperatur bzw. Lautstärke erreicht man damit nicht, da muss es schon Crysis oder gleich der FurMark sein. CB hat nicht besser ausgelastet ...

Warum muß ich sowas über eine Forumsdiskussion erfahren? Zumindest meiner bescheidenen Meinung nach ist das etwas was entweder in´s Fazit zum Lautstärketest gehört wie hoch die Auslastung war, damit man sich ein Bild machen kann oder aber vorneweg in den allgemeinen Infos zum Test untergebracht werden sollte.

Ein Test kann nie alles zeigen und ist immer limitiert. Daher weichen Ergebnisse auch voneinander ab. Kein Test der Welt zeigt dir, wie sich die Karte in deinem System, mit deinen Settings und deinen Spielen verhält. Aber ein Test zeigt sehr deutlich die Tendenzen.

Das ein Test nie alles zeigen kann ist mir schon klar, allerdings kann man einen Test so auslegen, dass er ein optimales Ergebnis erzielt, andererseits kann man aber auch ein Test so auslegen, dass das Ergebnis in die eine oder andere Richtung freundlicher erscheint.

Das ist aber nicht das, was der geneigte Leser sehen will (mal abgesehen von den Fans der einen oder anderen Marke) der Otto Normaluser hätte gerne Fakten auf die er sich verlassen kann, meinetwegen liest er noch einen zweiten Test und macht sich dann ein Bild und das war bis vor ca. nem Jahr auch noch gut möglich indem man z.B. die CB und PCGH Tests miteinander verglichen hat, da war man bestens informiert, heute brauchts noch mindestens einen weiteren Test um sich zumindest n anfängliches Bild machen zu können.

Sollte dir eigentlich klar sein, mittlerweile zweifle ich jedoch an deinem Verständnis für die Materie.

Tjo das beruht ja fast auf Gegenseitigkeiten, ich zweifle mittlerweile daran, dass Du in der Lage bist die Sache neutral und objektiv zu sehen.
 
Zurück
Oben