Test ATi Radeon HD 3870 X2 im Test: AMDs ersehnter Griff nach den Sternen

Weil Ram sich absolut nicht auf FPS-Werte auswirkt. ;) Deswegen isses reichlich sinnlos. Ram verringert Ladezeiten, ist ansonsten für Games aber eher nebensächlich.
 
IgG schrieb:
Ja, wieso ist eine 330EUR günstige, über 1 Jahr alte GTX gerade in neueren Spielen schneller (CoD4, Crysis, UT3)?

Und gerade in den neuen Spielen wird die Performance gebraucht...

Für nen 19" TFT kauft man sich keine X2, um dann auf 1280x1024 zu spielen. Wenn man aber nen 24" oder gar 30" hat und in nativer Auflösung zocken will, stellt die Karte dem Test nach alle anderen Einzelkarten ziemlich arg in den Schatten (bis auf Crysis, aber das wundert ja keinen bei nem nvidia-Aushängeschild :) )

Ich frag mich immer nur, wei die Karte in Rainbox Six Vegas gegenüber ner Einzelnen 3870 mit schnellerem Speicher über 100% gewinnen kann ^^

Und in 2560 in UT3 ist die X2 50% schneller als ne GTX. Für 1280 reicht auch meine X1950Pro noch.
 
Zuletzt bearbeitet:
Zwirbelkatz schrieb:
Super Test.
Einziger Kritikpunkt: Wieso 1600x1200, wenn doch die gängigen TFT Auflösungen bei 1680x1050 und 1920x1200 liegen?

Wer immer brav mitliest der weiß, dass mit dem kommenden neuen Testsystem auch die verwendeten Auflösungen umgestellt werden ;-) Kann man dir aber nicht vorhalten, ich hab mir auch bis vor Kurzem noch die gleiche Frage gestellt.

@ Soul_Ripper
Kann sein, dass für deine Frage das gleiche gilt. So kann man momentan noch besser mit den vorigen Test quervergleichen.
 
Also ich gönne das ATI sehr, das die wieder mal die "Krone" auf haben!
 
Ich bin der Meinung, dass ATI wieder versucht hat, die schnellste Grafikkarte auf dem Markt zu haben. Da ATI mit ihren Grafikkarten mit einer GPU eben schlechter(von der Geschwindigkeit her) ist, eine Dual-GPU Karte konstruiert. Klar ist sie schneller als eine 8800 GTX, aber sie hat ja auch 2 GPUs. Der Trend geht eben mehr zur Quantität als zur Qualität. Okay, die Vorteile sind, das sie eben weniger verbraucht und kostet als 2 GTX im SLI. Aber nVidias High-end ist im SLI nun mal deutlich schneller als eine 3870 X2, die ja eigentlich aus 2 GPU besteht. ATI würde mehr Bonus bekommen, wenn sie eine Grafikkarte mit einer GPU herstellt, die wenigstens der GTX/Ultra nahekommt. Leider baut nVidia nun auch eine Multi-GPU karte (9800GX2), statt eher die G100 (9800GTS/GTX) rauszubringen. Es komm noch viel mehr Probleme hinzu, wenn man versucht, 2 3870 X2 als Crossfire zu schließen. Viele wollen 2 High-end karten haben, um eine möglichst hohe Leistung zu erzielen. Ich persönlich bin auch auf der Suche nach 2 HIgh-End Karten, aber ich kauf mir lieber die G100, als die X2.
Also an ATI: Mehr auf Qualität als auf Quantität!

Gruß AEROON

PS: Falls in meine Predigt irgendwas falsch sein sollte, berichtigt mich bitte!:freaky:
 
Zuletzt bearbeitet:
Es ist in sofern was falsch, als das auch zwei dieser Karten im Crossfire-Modus laufen sollen. Allerdings hat AMD die Treiber für das Q1 08 angekündigt, nicht für Januar.
 
DvP schrieb:
Wer immer brav mitliest der weiß, dass mit dem kommenden neuen Testsystem auch die verwendeten Auflösungen umgestellt werden ;-)

:)
Dann bin ich ja zufrieden. Man liest immer "es kommt" aber dann vermisst man es eben doch. Was nicht heißen soll, dass ich diese qualitativ hochwertige Privatarbeit hier nicht schätze!

Zum Thema übrigens noch: Ich ringe sehr mit mir, ob ich mir eine Karte ins Gehäuse stecken will, die (mit System) 370 Watt verbläst unter Last.
Außerdem soll es silent sein, was sie wohl dann auch nicht mehr ist.
Müsste man mal eine vor Ort haben um zu sehen ob das wirklich dann auch störend laut ist beim Spielen.
Die 9800gx2 wird doch noch höher sein im Stromverbrauch, würde mich nicht wundern wenn nicht. Außerdem wird sie mir kosten.

@Aeroon
Von der Grundthematik stimme ich dir 100% zu. Quantität suche ich derzeit wieder vergebens. Ich dachte die Bresche sei geschlagen für Sparsamkeit, kleiner Strukturen und Silentsysteme. Dann kommt sowas :D
Was du "nicht" berücksichtigst: 2 GTX kosten exorbitant mehr als eine dieser AMD Karten.
Sprich 2x 310 gegen 390 Euro.
Ausserdem kann AMD durch den Die Shrink eben 2 GPUs dieses Kalbiers auf einem Brett verbauen. Technisch geht es - ist doch auch bemerkenswert.
 
Zuletzt bearbeitet:
Die Messwerte für die Lautstärke (beim Drüberfahren mit der Maus) in Prozent anzugeben ist schlichtweg falsch. Die Bel-Skala ist nämlich nicht linear sondern logarithmisch!
Und damit ist das Problem noch nicht zu Ende. Während nämlich nach Faustformel ca. 3db eine Verdopplung des Schalldrucks bringen, verdoppelt sich die subjektiv wahrgenommene Lautstärke etwa alle 10db.
 
Boa, sehr nice die Karte. Netter Test, auch wenn ich meistens nur das Performancerating, Beurteilung nd Fazit durchlese.
Ich denke, dass bei Spielen, in denen kein Crossfire unterstützt wird wie Gothic III, die Power einer HD3870 (der X2) reicht um das Spiel flüssig darzustellen. Von daher sollte da nicht das Problem liegen. Das mit den Microrucklern interessiert mich aber schon mehr. Wie genau soll das denn aussehen?
 
Wenns um AA und AF geht scheint die X2 ne gute alternative zur GTX zu sein. Nur ist der Preis da entscheidend. Denn wegen 5pfs mehr:freak:
 
warum meinen eigentlich alle dass die 9800gx2 unter last mehr verbraucht wie die 3870x2?
die 8800gt zieht unter last doch auch weniger wie die 3870 und die x2 ist höher getaktet wärend die gx2 angeblich sogar mit niedrigeren taktraten daherkommen soll...
im idle ist die x2 sparsamer aber unter last vermutlich die gx2...
 
Lübke schrieb:
warum meinen eigentlich alle dass die 9800gx2 unter last mehr verbraucht wie die 3870x2?
die 8800gt zieht unter last doch auch weniger wie die 3870 und die x2 ist höher getaktet wärend die gx2 angeblich sogar mit niedrigeren taktraten daherkommen soll...

Die 8800GT wird nicht auf der GX2 verbaut sondern die 8800GTS (G92) nur mit irgendwelchen veränderungen. Also stimmt das schon was so die Leute schreiben. Die Graka ist ja meist mehr im 2D Modus, also ist die AMD klar im vorteil.
 
ich hab mal ein paar fragen wegen euren benchmarks. ziehe ich jetzt mal die 3dmark06 ergebnisse raus finde ich etwas merkwürdig. ihr testet doch mit 3dmark auch in den default einstellungen auf der angegebenen auflösung.

warum hat dann in diesem test die 8800 ultra 11.978 pkt? in eurem test über die ultra waren es 12.525 und die gtx 11.664. also hat bei euch in diesem test eine ultra fast genauso viel pkt wie eine gtx beim test vor paar monaten (bei gleichem testsystem).

da ich aufgrund von temptests auch grad eben 3dmark06 laufen lies (auf einem frischen win xp) und mit einer ultra auf 14.400 und mit 2 ultras auf 16.500 pkt komme, frage ich mich schon wie diese werte von euch zustande kommen. besonders wenn man den artikel der aktuellen gamestar über die HD 3870 X2 liest. diese tests waren grad nicht so toll für die X2 (wie teilweise eure).
 
Es sind imho G92 chips der GTS und die fressen auch unter last noch mehr (und idle sind die ati chips eh konkurrenzlos).

Bzgl dem ganzen "Single GPU vs DualGPU ist nicht fair..." Gelaber - was zum teufel ist daran nicht fair wenn eine 400€ Karte mit durchschnittlich geringerem stromverbrauch (den mit abstand größten teil der zeit befindet sich die karten im idle und da sinds satte 50W weniger) eine gut 100€ teurere Ultra schlägt?
Was unter der haube steckt ist völlig egal - wenns jmd hinbekommt zu nem guten preis und stromverbrauch noch mehr GPUs unterzubringen dann bitteschön immer her damit.
 
@Soul_Ripper: ich wollte ja auch nich sagen dass die 9800gx2 sparsamer ist sondern es ging hier darum welche graka den höchsten verbrauch erreicht. ich hab ja geschrieben dass die x2 im idle die sparsamere sein wird (höchstwahrscheinlich) aber alle schließen daraus sofort dass die gx2 neue negativrekorde aufstellen wird und das wird als tatsache so hingestellt...
mit der gts hast du allerdings recht, darauf hab ich nich geachtet. allerdings werden die geringeren taktraten imo dafür sorgen dass die gx2 unter last nich so hoch kommen wird wie die x2...

@AEROON: hm was denkst du was den spitzenverbrauch zum nachteil von der gx2 bewirken wird wenn nicht der chiptakt? ich denke schon dass der das zünglein an der waage sein wird...

sind aber alles nur spekulationen. bevor die karte nicht da ist weis keiner wie das energiemanagement auf der karte geregelt ist...
 
Zuletzt bearbeitet:
Cool, und guter Test
werde sie mir holen ;)
 
Unyu schrieb:
Microruckler.
Wird immer nur am Rande erwähnt. Leider.
Das damit eine ganze Welt zusammenbricht wird verschwiegen.
Alle SLI/CF Test sind dadurch wertlos gewordenm, die FPS Angaben von SLI/CF nicht mit Einzelkarten vergleichbar.

Da hast du recht, hab schon überlegt ob ich mir eine 2. GTX reinhau, aber seit das mit den Microrucklern und Drop Downs bekannt ist, ist es ein absolutes "no go"
Hoffe ja das bei den Dualcore GPUs diese Thematik vom Tisch ist, da ja kein CF oder SLI mehr gebraucht wird...

Der viel höhere Stromverbrauch, fast 70W gegenüber einer GTX(ja im Idle ist sie schlecht, sie ist aber schon > 1 Jahr alt und darf das) im load und der viel höhere Geräuschpegel im load sind nicht akzeptabel in Relation zur Mehrleistung

10.1 fügt dem eh schon schwachen DX 10 Part, nochmals einige Effekte(nach Erscheinen der ersten games) hinzu und macht die Karte in DX 10 noch langsamer... :eek:

Sorry, hätte es ATI mal wieder richtig gegönnt, nach einer langen Durststrecke aber so nicht!

MfG Kamopaya
 
Zurück
Oben