News Radeon HD 3870 X2 ab 379 Euro gelistet

suizid-man schrieb:
aber man muss bedenken das sie eine dual gpu karte ist. logisch das die dann in multi gpu optimierten spielen einen vorteil hat, wenn dies aber nicht der fall ist, dann fällt die framerate deutlich UNTER die einer ultra.

richtig. bei nicht optimierten Spielen ist sie nur so schnell wie eine einzelne 3870. ist aber unwichtig, weil nicht-cf-fähige Spiele zu 99% eh alte sind wo eine Einzelkarte auch mehr als schnell genug ist.


und eine 8800GT schlägt ja auch deutlich eine 3870

8800gt SLi schlägt 3870cf aber nicht eindeutig, sondern eher knapp und mit hoher Auflösung und AA zieht 3870cf sogar vorbei.

Siehe CB-Test, bzw dem von expreview wenn wir ein wenig mehr Realismus wollen(aktuelle Treiber + exen Umbenennung)


zum stromverbrauch der 3870X2 gibts natürlich im idle positives zu sagen, weil die eine gpu sich ja abschaltet, wer sagt das die neue nvidia das nich kann ?

die 2600x2 konnte es, die 1950prox2 konnte es, die 7950gx2 konnte es nicht.

Liegt vielleicht am Sandwichdesign ?

Aber ich will keine Mutmaßung anstellen ob man bei der 8800x2 eine gpu abschalten kann. Für warscheinlich halte ich es zum jetzigen Zeitpunkt nicht.


ich persönlich warte lieber noch ein bisschen da der G100 sicher so schnell ist wie 2 8800GT's...

aber mit Sicherheit nicht für unter 600€ zu haben ist.
 
das mit den nicht optimierten spielen, das die dann eh schnell genug laufen klingt sinnvoll. apropos hohe auflösung und aa: da nehmen sich die 8800gt sli und 3870CF/X2 nich viel wie du schon sagtest, aber dazu gehört nunmal auch ein entsprechender monitor... ich habe zur zeit noch einen 15" moni und brauche niemals über 1024er auflösung spielen, bei crysis mach ich aus leistungsgründen 800x600 und 2x AA, das gibt dann einen relativ guten kompromiss aus leistung und optik (halt auf meiner 15er möhre), möchte aber in den nächsten wochen auch auf 22" wide umsteigen. dort sind dann wirklich hohe auflösungen gefragt und ich habe wirklich schwer überlegt mir 2 8800gt's zuzulegen oder eine 3870X2... aber ich glaube ich warte dann doch auf einen "gt" abkömmling des g100, der dann hoffentlich einen schönes PL verhältnis zeigt. nur die frage ob sie dann in etwas so teuer wird wie dich 3870X2, welche ja auch gut mit leistung protzt. ati wird wenn sie noch bis 350€ fällt sicher einen guten "wiedereinstieg" ins highendsegment schaffen, vll auch nur vorübergehend bis die g92 multikarte kommt. wir sind gespannt und hoffen das ati dem g 100 bald paroli in einer single gpu karte geben kann. war doch ne schöne zeit als man ati oder nvidia gleichermaßen kaufen konnte wenn man hervorragende leistung wollte. also viel erfolg ati :)
 
@suizid-man

Irgendwie erinnerst du mich an Jan Jansen aus Baldurs Gate 2, im positiven Sinn. :lol:
Für deinen ersten Post, bist du hier einigen schon weit voraus Respekt!

weil sli doch immer noch ausgereifter ist als CF
Hmm, hat SLI schon jemals besser skaliert als CF, ich glaube nicht, kann mich jedenfalls nicht daran erinnern? Die bessere Softwareunterstützung in games wie zb. Crysis hat Nvidia wie immer sowieso, das macht wirklich sehr viel aus stimmt... aber ausgereifter, nicht wirklich ;)

wenn nvidia wollten und es für nötig sehen würden dann hätten sie die Ultra auch mit gut über 2Ghz schnellem GDDR4 geschickt... das is für die doch kein problem
Stimmt, sie haben der GF8 UND GF9 kein GDDR4 gegeben weil es fast keinen Performance plus bei NV Karten bringt und die Sache nur teuerer macht, bei ATI ist das allerdings anders, die haben ein sehr gute Speicherverwaltung und holen ein paar % aus gutem VRam raus.

weil die eine gpu sich ja abschaltet, wer sagt das die neue nvidia das nich kann ?
Würde behaupten das die GF9 das nicht kann, weil NV schon alle Mitteln in Hybrid-SLi gesteckt hat das mit einem Nforce 7 + vista ja die Karte ganz abschaltet(inkl. Lüfter, sie ist auch lautlos im 2D :) ) und dann auf 0W sinken lässt, doppelt gemoppelt kann ich mir nicht vorstellen...
https://www.computerbase.de/2008-01/nvidias-hybrid-sli-spart-strom/


die geforce 7 im sli die geforce 8 auch nich schlagen konnte
Stimmt, die gefroce 7 hatte nichtmal mit der X2 im Quad Sli eine Chance und ist min 100% langsamer.

Ich persönlich warte lieber noch ein bisschen da der G100 sicher so schnell ist wie 2 8800GT's...
Weise Entscheidung, warte auf die nächste Architektur nicht auf einen Refresh gut so!


Die GF 9 ist allerdings keine komplett neue Architektur, sondern nur ein überarbeiteter oder Refresh der GF8 (umbenannt trifft es auch), bei der HD 2000 und HD 3000 ist es das geiche, oder bei der GF 6 auf die GF 7 war es auch so. Die GF 10(die Q3, G100) wird nach aller Wahrscheinlichkeit, wieder ein Leistungswunder werden und es wäre unlogisch wenn sie noch in die GF 9 Generation packen würden ala 9900...

Ich denke auch das der Leistungszuwachs von GF 9 eher schwach ausfallen wird, was sind schon 30-50%. GF5 FX auf GF6 100% mehr Leistung, GF6 auf GF7(Refresh) waren es auch nur 30-50%.GF 7 auf GF 8 waren es weit über 100% das ist eben der Unterschied zwischen neuer Architektur und einem Refresh.

Wie sich die G10 gegen die Dual-core ATI schlägt, wird bestimmt spannend, ich rechne mit einer gewaltigen Leistungssteigerung durch Dual core.

MfG Kasmo
 
@ suizid-man: Du hast tatsächlich einigen was voraus, obwohl du gerade erst angekommen bist. Bestes Beispiel ist Ehrnst auf dieser Seite.

suizid-man schrieb:
das mit den nicht optimierten spielen, das die dann eh schnell genug laufen klingt sinnvoll. apropos hohe auflösung und aa: da nehmen sich die 8800gt sli und 3870CF/X2 nich viel wie du schon sagtest, aber dazu gehört nunmal auch ein entsprechender monitor...

Was du in deinen Beiträgen aber unterschlagen hast, ist, dass man noch das entsprechende SLI/CF-Mainboard braucht. Das Problem hat man mit einer (G)X2 nicht. Und die 8800 GT kam erst eine ganze Weile nach GTS, GTX und Ultra. Willst du (es) wirklich (darauf ankommen lassen) so lange (zu) warten?
 
Machs so wie ich, suizid man, warte noch etwas ab -bis März und schau wie sich die Sache Entwickelt-
Und kauf dir dann eine günstige HD3870 und warte und spare auf den R700 der Mitte bzw. im 3Q kommen soll^^
 
ist min 100% langsamer

Mensch, das ist ja fast Signaturverdächtig :D
Besonders das "min" dort gefällt mir sehr gut.


@ suizid-man :

stimmt schon das es nur in hohen Auflösungen lohnt, aber wer wird denn Sli/CF in niedrigen Auflösungen einsetzen ?

Natürlich könnte ich mir einige Nvidia Jünger vorstellen die sich 2 8800er im Sli reinhauen und dann mit 1280*1024 zocken, aber die Regel ist das wohl weniger.
 
scheint ja recht realistisch zu sein.

schade das ich (fast) keins der getesteten Spiele selbst mal getestet hab um das einschätzen zu können.

Sowas wie Dirt, Oblivion oder auch Jericho wäre schön gewesen, aber naja was solls.
 
Der Test von PCGH schreckt mich eindeutig vor dem Kauf ab. Da sind einfach zu viele Umgereimtheiten drin. In Bioshock unter Dx10 ist sie sogar langsamer als eine einzelne Hd3870, weil die Taktraten ja schlapper sind.

400€ sind für einen Kompromiss dann doch zu viel Geld. Eventuell wird das ja noch besser. Irgendwie kommen mir moderne Spiele nur noch wie große Baustellen vor. Das ist schade.
 
- Edit -

Sehe gerade, dass die doch den neuen Treiber genommen haben.

So, das würde ich mir wünschen: Eine HD3870X2 von HIS mit GDDR4 und nochmal angehobenem Chiptakt. :)
 
Zuletzt bearbeitet:
wenn da der neue treiber nicht einen riesen prung macht wird die karte ein hoffnungsloser fall

will hoffen das die benches auf PCGH nicht stimmen sonst sieht es wirklich übel aus
 
hmm, sie ist doch leicht schneller in bioshock dx10 oder bin ich jetzt blind ?

klick

natürlich nicht relevant, klar, aber langsamer ist sie nun auch nicht. Min fps immerhin vor der ultra.
 
also bei deinen link ist sie knapp 6 fps langsamer als die ultra die schon in rente geschickt wurde
 
Hä, na wie denn nun.

PCGH schrieb:
Der Treiber, den AMD uns für das Review ans Herz legte, ist eine Beta - Version 8.451.2. Mit ihm seien die besten Leistungen der Karte zu erwarten, so AMD.

Scheint neuer als der 8.1, aber älter als dieser hier zu sein:

PCGH schrieb:
Den kurzfristig am Donnerstag nachgeschobenen Catalyst 8.452.2 testen wir mit der HD3870 X2 nach, sobald es geht - die Abstürze in World in Conflict (DX9) hat der Treiber jedenfalls behoben, auch soll es laut AMD Verbesserungen bei der Crossfire-Skalierung in Crysis geben.

Na wie auch immer. In Bioshock funktioniert auch normales CF mit zwei 70ern nicht "wirklich".
 
der unten erwähnte 8.452.2 ist der neue.

Der andere (8.451.2) sollte ursprünglich für die reviews am 23.ten genommen werden, auch wenn der "uralt" 8.1er Catalyst schon unterstützung präsentiert hat.

D.h. Ati hat den releasetermin extra für den 52er verschoben, aber pcgames hat dennoch mit dem 51 gebencht.


also bei deinen link ist sie knapp 6 fps langsamer als die ultra die schon in rente geschickt wurde

wenn einem der durchschnitt wichtiger ist wie das minimum, dann könnte man das so sagen.
na und ?

Für ein Spiel wo cf offensichtlich nicht wirklich funktioniert oder wo die cpu limitiert oder was auch immer ist das Ergebnis doch nun wirklich nicht soo schlecht.
 
Schade, dass die Leistungsaufnahme etwas über der 3870 im CF liegt. Takten sich beide GPUs dann also doch nur mit PowerPlay runter? (rede natürlich vom Leerlauf, Last interessiert mich nicht)
 
Bei der 2600x2 musste man die zweite gpu manuell abschalten, das hat der Treiber nicht automatisch getan.

Von daher gehe ich mal davon aus das in den ganzen reviews immer beide laufen.

Nach der Abschaltung dürfte man nochmal 10-20W sparen.
 
Zurück
Oben