Test Test: ATi Radeon HD 4870 X2

Error1 schrieb:
Moin,

@Dural: Ich stimme dir zu, und so wars auch gemeint, dass man 50 FPS im Multi GPU Systemen auf jeden Fall haben sollte. Wenn nicht - ersetzen.
Mein System schlägt sich noch ganz gut - dass wird sich zum Ende des Jahres ändern.
Beim Kauf gabs die 280er oder so eine 4870X2 noch nicht und ein SLI war das schnellste was es gab.

Zur Wärme 1:Eine SLI-System nimmt nicht das doppelte einer Einzelkkarte auf, sondern max 3/4 der Einzelleistung.

2: Zwei Chips lassen sich besser Kühlen als ein großer, da die Oberfläche im Verhältniss
zum Volumen(Masse) steigt. Darum haben zwei Chips einen thermodynamischen Vorteil.

Ich habe bei "mir nur ein Spiel" wo ich in die kritischen Bereich von unter 40 FPS komme
und das ist Crysis. Alle anderen, ich spiele auf 1680*1050, sind über 60 FPS oder weit drüber. Und hier, kanste ja mal selber messen mit Fraps, gibst keine Ruckler.

mfg

Das liegt aber nur daran das ein SLI/CF System die Grafikkarten nicht zu 100% Auslasten kann wie es bei einer Single GPU Karte eben der Fall wäre. Man kann aber davon aus gehen das zwei GPUs auch zwei mal mehr Verbrauchen, auch wenn es nicht immer vorkommt gerade eben durch die ganzen Probleme (schlechte Skalierung usw.)

Man bringt viel mehr Spiele in den 50FPS Bereich als du denkst, sogar mit meinem System (GTX280 SLI, QX9770) genug AA / hohe Auflösung und schon hat man 50FPS ;)

In Crysis hab ich mit 1900x1200 DX10 VH 51FPS und das ist mir schon fast zuwenig :rolleyes:
 
amüsant, wie jemand nen zweiten account erstellt um meine "objetivität" anzuweifeln. *g*

ist deswegen amüsant, weil ich niemals meine "gesinnung" verschwiegen habe.

es ist auch fairer dieses offensichtlich zu machen. unfair finde ich eher, wenn leute zB definitiv auf "obketiv und neutral" machen, dieses immer betonen, aber im endeffekt damit nur ihre "gesinnung" verbergen wollen.


dann wurde ich zB zitiert, ein post vom 16.06.08

"wer da jetzt kauft und nicht auf ne 4870x2 warten kann, die alleine von der rechenleistung schon mal doppelt so schnell (2 teraflop zu 1 teraflop) wie ne 280 ist, der hat echt n reichen erbonkel."

so, wo hatte ich da unrecht? zu dem zeitpunkt kostete ne GTX280 über 500€. ich denke die leute die zu dem zeitpunkt gekauft haben ärgern sich nun selber extrem. selbst wenn sie nicht die x2 kaufen wollten, hätten sie aber durch die abzusehende konkurrenz und dem daraus folgendem preisverfall profitiert.

also war der satz "wer da jetzt kauft....." wohl vollkommen zutreffend.


dann wird wieder was aus der vergangenheit zitiert um zu zeigen ich "irrte"
"der g200 ist n griff ins klo, ist nun mal so und die 280er kaufen sich keine 2% der zocker."

tja, so ists aber nun mal, ich hatte doch zu dem zeitpunkt vollkommen recht.
die nvidia hat sich extrem schlecht verkauft und nur massivste preissenkung konnte die karte wieder attraktiver werden und vor einem absoluten debakel gerettet werden.
vergessen, dass nvidia für ne GTX280 über 500€ haben wollte?
und selbst der ceo von nvidia hat heute zugegeben, dass sie sich verkalkuliert haben.


dann wird zitiert um wieder was "falsches" von mir belegen zu wollen.
"die zeiten wo man 500€ für high end ausgeben mußte sind vorbei dank ati."

ahso, da hatte ich also auch kein recht? nvidia mußte dank ati die preise extrem senken, vergessen?

und mit meiner vorhersage nach erscheinen der 4er reihe von ati, besser nvidia aktien zu verkaufen lag ich auch wohl richtig.
da haben wohl viele leute viel geld verloren.........hätten die mal auf mich gehört :evillol:

auch das fazit von demjenigen, ich hätte wohl nun "verschissen" ist wohl eher infantil.

alles in allem ein lächerlicher versuch mich persönlich anzugreifen. :D
 
Zuletzt bearbeitet:
MunichRules schrieb:
Leistung Leistung Leistung eher Verschwendung Verschwendung Verschwendung :rolleyes:

Könnt ihr mal mit euren Tuner Vergleichen aus der Autoszene aufhören.

Die haben doch alle ein Rad ab. Nur weil sie sich keinen Ferrari leisten, weil sie zu wenig Leistung auf der Arbeit bringen :evillol:, muss da in einen klitzekleinen Motor ganz viel PS rein. Und bei der nächsten Beschleunigung liegt wieder einen alte Omi unter Kühlergrill. :mad:

Tuner haben entweder zu kleine XXXX oder einen furchtbarer Minderwertigkeitsgefühl, sonst müssten sie sich nicht dauernd und überall in Szene setzen.
PURES OT
1. Man bekommt selten auf Arbeit das bezahlt was man verdient, man bekommt nur das, was man eben bekommt.

2. Wenn man aus einem 6R-Motor 800PS rauszüchten möchte, is dieser Motor im endeeffekt wesentlich teuerer wie ein V12 der das selbe leistet, weil wesentlich mehr Technik und know how dahinter stecken muss. Jedoch ist nun mal einfach eine wohltat mit einem selbst aufgebautem Auto zu possen als mit einem auto, was sich jeder Selbstverdiener im Laden um die Ecke kaufen kann.

Und ob man die OMA nun mit einem Ferrari oder einem Golf überfährt, interessiert diese denke ich relativ wenig. Obwohl ihr der Ferrari wahrscheinlich nur die Knöchel brechen würde, anstatt die ganze hüfte wie der Golf. dafür fällt sie beim Ferrari auch wieder tiefer.

Und zum Thema Tuner haben kleine XXXX oder minderwertigkeitskomplexe. Klingt für mich ehr als wärst du teileweise ganz schön neidisch darauf was andere leute aus Autos machen können... nicht jedes tuning geht um mortz PS, und nicht alles optische um 20zoll felgen. manche leute tunen auch ihre Moppeds, in dem sie von Trommelbremsen auf Scheibe umsteigen... lass den Menschen ihren Individualismus, weil nicht jeder alles von der stange haben möchte, sondern selber kreativität zeigen will...
 
Ich warte lieber auf die nächste von Nvidia, habe mom noch ne 8800GTX drin und muss sagen sie ist noch super kann noch alle Spiele gut spielen.

mfg
 
Feiner Test, aber mit alten Nvidiatreibern.

Schade, wenn die Microruckler nicht wären, hätte es meine nächste Karte werden können..
Aber solange des net im Griff is, bleibt mir bis auf weiteres CF und SLI aus dem Rechner draussen..


SPAWNI
 
Das liegt aber nur daran das ein SLI/CF System die Grafikkarten nicht zu 100% Auslasten kann wie es bei einer Single GPU Karte eben der Fall wäre. Man kann aber davon aus gehen das zwei GPUs auch zwei mal mehr Verbrauchen, auch wenn es nicht immer vorkommt gerade eben durch die ganzen Probleme (schlechte Skalierung usw.)

Man bringt viel mehr Spiele in den 50FPS Bereich als du denkst, sogar mit meinem System (GTX280 SLI, QX9770) genug AA / hohe Auflösung und schon hat man 50FPS

Ja vieleicht, wer weiß das schon sicher außer die Programmierer?
Fakt ist auf jeden Fall, dass die Multi-GPU Systeme gerade wenn Sie auf einer PCB verbaut sind deutlich weniger Verbrauchen als das doppelte einer Einzelkarte.

Das läßt sich natürlich durch Auslastung erklären, aber es wird auch an Perepherie(Anschaltungen, Schnittstellen, Spannungreglern) gesparrt und hier sparrt man dann natürlich auch Verlustleistung.

Aber da du ja Besitzer meiner Traumhardware bist, wie bist du mit deinem SLI zufrieden?
Haste mal den Verbrauch ermittelt?
Bin am Überlegen ob ich in naher Zukunft mir auch ein 280SLI Pärchen gönne, wenn die
Preise weiter fallen.

Habe ja schon gelesen, dass du unter Crysis mit einer spielst und wie siehst bei den anderen Games aus?

mfg
 
Error1 schrieb:
Ja vieleicht, wer weiß das schon sicher außer die Programmierer?
Fakt ist auf jeden Fall, dass die Multi-GPU Systeme gerade wenn Sie auf einer PCB verbaut sind deutlich weniger Verbrauchen als das doppelte einer Einzelkarte.

Das läßt sich natürlich durch Auslastung erklären, aber es wird auch an Perepherie(Anschaltungen, Schnittstellen, Spannungreglern) gesparrt und hier sparrt man dann natürlich auch Verlustleistung.

Aber da du ja Besitzer meiner Traumhardware bist, wie bist du mit deinem SLI zufrieden?
Haste mal den Verbrauch ermittelt?
Bin am Überlegen ob ich in naher Zukunft mir auch ein 280SLI Pärchen gönne, wenn die
Preise weiter fallen.

Habe ja schon gelesen, dass du unter Crysis mit einer spielst und wie siehst bei den anderen Games aus?

mfg

Deutlich weniger? Wie kommst du den darauf? Hier im Test verbraucht die X2 nur 3% weniger als zwei 4870er, das ist im Rahmen der Toleranz und kann durch kleine Spannungs Unterschiede entstehen.


Probleme mit den zwei 280er hab ich nicht, es läuft einfach wie es mit SLI eben halt so läuft ;)

Aber ehrlich gesagt reicht dank MR auch locker nur eine 280er für jedes Game, von dem her ist es doch recht Sinnlos zwei 280er zubesorgen.
Ob wohl bei den Preisen man ja dazu fast genötigt wird, es gab noch nie so viel Grafik für so wenig Geld.
 
Das einzige was ich am Test "nur die GTX 260" im SLI laufen liest und das ihr kein GTX 280 SLI gespann ins rennen schickten. Ich denke 500Watt unter last ist es mir nicht wert meine 8800GT Raus zu nehmen und gegen die ATI zu ersetzten und die Lautstärke finde ich = Horror
 
Die Lautstärke und die Temps werden sich mit alternativen Kühllösungen im Normalbereich bewegen.
Was bleibt ist natürlich der Verbrauch...
Wenn ich bedenke, dass meine jetzige Graka bei Load ca. 250W verbraucht, finde ich die 500W Horror.
Ich zahle zwar einen Pauschalbetrag für den Strom, trotzdem wäre das zuviel.
Da wäre die GTX 280 mit ihren 360W für mich schon Maximum.
Mann sollte bei der X2 dann noch den Anschaffungspreis für ein neues NT miteinkalkulieren und dann ist man schon bei 500€.
 
@ cosmicparty

Es geht darum, dass die X2 nicht doppelt so schnell ist. Wer 500€ für eine Grafikkarte ausgibt, macht sich um Geld sowieso kaum Gedanken.

Außer dem Preis hast du auch kein Argument, ne? Der G200 ist kein Griff ins Klo. Darum geht es.

Ja, nVidia hat die Preise gesenkt und nun kostet die ATi-Graka das Meiste. Glückwunsch! :P

Übrigens, die nVidia Aktien sind 10% gestiegen, ATi mal wieder gefallen. Du hattest also WIE IMMER UNRECHT.

Und dich persönlich angreifen... sorry, du bist geistig so weit unten, da kann man eh nicht mehr viel machen.
 
@ Error1

https://www.computerbase.de/2008-06/test-nvidia-geforce-gtx-280-sli/32/#abschnitt_leistungsaufnahme hier mal einen test zur gtx280 sli, der verbrauch ist unter last höher und im idle etwas mehr.

die lautstärke ist 5 dezibel leiser, glauber aber kaum das man den unterschied merkt.

in der anschaffung ist das alles dann teurer als sich eine einzelne 4870x2 zu holen.

http://geizhals.at/deutschland/a344252.html 320€ *2=640€ + ein vernüftiges sli mb (kp was das kostet denke mal aber so um die 90€)
 
Zuletzt bearbeitet:
Weiß einer von euch, ob es für die X2 in Zukunft z.b. von Artic eigene Kühllösungen geben könnte? Bzw. gibts überhaupt (außer Wakü) Alternativen für Dual-GPUs?
 
omg lorens, da in deinem post auch der bezug zu nwarrior zu lesen war, bist da das wohl :D

man darf nichts aus dem zusammenhang reißen. man muß eine äußerung immer im zeitlichen zusammenhang sehen.
und zu dem zeitpunkt mit der preisgestaltung um 500€ war die karte total überteuert.

und war ein griff ins klo in sachen verkaufszahlen für nvidia. ein flop quasi.
darf ich dich dran erinnern, dass die karte auch quasi für das geld kaum verkauft wurden und nvidia deswegen extrem die preise senken mußte?


und das sich nvidia verkalkuliert hat und deswegen sogar verluste hat, zeigt das eben. der ceo hat es selber zugegeben.

http://www.pcgameshardware.de/aid,6...gebnisse_bei_Nvidia_rote_Zahlen_Aktie_steigt/

also bei aller liebe, wo hatte ich dann da unrecht? wenn nvidia so weit die preise senken mußte, dass die nun sogar verluste deswegen machen? das die aktie im moment wieder ein wenig steigt, kann beiweitem den großen kursrutsch nach unten nicht kompensieren. sie liegt immer noch weit unten.


und doppelt so schnell in games habe ich nie gesagt, das war der bezug zur der rechenleistung. eben über 2 teraflop, während die GTX280 bei unter 1 teraflop liegt.

sie ist immer noch ca 50% schneller in games und wie war die aussage von nwarrior?
ich habs noch im kopf *g*

"wenn die 4870x2 schneller wird als die GTX280, dann hat nvidia was falsch gemacht"

:evillol:
 
Zuletzt bearbeitet:
MunichRules schrieb:
Leistung Leistung Leistung eher Verschwendung Verschwendung Verschwendung :rolleyes:

Könnt ihr mal mit euren Tuner Vergleichen aus der Autoszene aufhören.

Die haben doch alle ein Rad ab. Nur weil sie sich keinen Ferrari leisten, weil sie zu wenig Leistung auf der Arbeit bringen :evillol:, muss da in einen klitzekleinen Motor ganz viel PS rein. Und bei der nächsten Beschleunigung liegt wieder einen alte Omi unter Kühlergrill. :mad:

Tuner haben entweder zu kleine XXXX oder einen furchtbarer Minderwertigkeitsgefühl, sonst müssten sie sich nicht dauernd und überall in Szene setzen.



hat halt nicht jeder nen 19 zöller...

wenn du mal auf nem 30er gespielt hast, wirst du wissen, warum man nie genug grafikleistung haben kann
 
für 30er ist die x2 wohl die beste wahl. 50% schneller als ne GTX280 bei nem 30er sind schon ne welt und kein kleiner unterschied.
 
Na da haben wir es doch, wer auf die Multi GPU Lüge reinfällt, und wem die GTX 280 nicht reicht nimmt:

9800 GX2 oder 4850 CF oder 4850 X2
9800 GTX SLI
3870 X2 CF
9800 GTX Triple SLI
..... (unglaublich viel mehr Möglichkeiten)
4870 X2 oder 4870 CF oder GTX 260 SLI
9800 GX2 SLI
GTX 280 SLI
GTX 260 Triple SLI
4870 X2 CF
GTX 280 Triple SLI

Na, was ist schlimmer? :freak:

@bigbee
Die Alternative heißt Wakü. Aber nicht so ein Billig Set für 200€.
 
Zuletzt bearbeitet: (Karten vergessen)
Ich dachte eher so in Richtung Accelero-Kühlung, meine die gabs doch schon für die 3870x2 ? Auf eine 4870 sollte aber sowas doch passen oder? Ich hab eine ziemlich gute Gehäusekühlung die sich bei den aktuellen Kühlermodellen nicht auswirken würde (Coolermaster Stacker mit 3x120er drin). Ein alternativer Kühler mit offenen Lamellen würde dabei Wunder wirken.
 
WaKü kommt, aber mit Luft siehts düster aus aktuell.

cYa
 
Zurück
Oben