Erste Bench der HD 3870X2

Da gibt es dann aber das Problem, dass bei solchen Karten die CPU schnell zum limitierenden faktor werden könnte. Dem geht man aus dem Weg, wenn man eben eine hohe Auflösung wählt. Daher grundsätzlich keine schlechte Wahl, die Auflösung so hoch zu schrauben, auch wenn man dadruch nun den Vergleich zur skalierung in niedrigeren Auflösungen verliert.
 
HereticNovalis schrieb:
im grunde zeigt der benchmarkscreen nur, dass die karte mit hohen auflösungen (sehr) gut klarkommt. wie es aber in niedrigeren auflösungen aussieht wäre interessant, da die wenigsten oberhalb von 1280x1024 bzw 1600x1050 spielen.

"runterrechnen" ist immer sone sache, dann müssten diverse cf/sli-lösungen in 1024/1280er res weit jenseits der 20k liegen ;)

ich glaub kaum dass jemand der in 1024 bzw. 1280 spielt sich so eine karte holen wird. dann kann man sich gleich ne billigere 8800GT kaufen oder ne einzelne 3870 und kann trotzdem alles auf maximum zocken.
ich glaube wenn man sich ne dual gpu karte holt, gerade dann will man in hohen auflösungen spielen.
 
LOLMark, SchwanzMark, ich-hab-den-längstenMark - das ist so albern. So dämlich.
Was soll das ganze? Dieses affige nachgeplapper anderer, welche auch nur wiederholen was vorherige geschrieben haben? Der Großteil wüsste aus dem Stehgreif nicht mal mehr wo überhaupt die Kritikpunkte an 3DMark überhaupt liegen?
Und trotzdem ist es schlicht ein synthetischer Benchmark, mit dem man die Leistung der Grafikkarte bzw. des ganzen Systems mit anderen vergleichen kann. Was ist daran falsch? NIEMAND behauptet das 3DMark allein ausreicht, um die Leistung einer Grafikkarte / eines Systems in allen Belangen zu beurteilen - das tut ein Spiel aber auch nicht, denn das eine Spiel mit den jeweiligen Qualitätseinstellungen läuft nicht so gut wie das andere. Daher vergleicht man die Hardware auch immer mit vielerlei Mittel.

Wenn es nach diesem dämlichen Gesabbel ginge wären 90% alle CPU Benches SchwanzMarks.

Und wenn jetzt wer mit Profilierung und Schwanzvergleich daher kommt: Darauf läuft es am Ende doch sowieso immer hinaus? Nicht nur das der eine dem anderen dann voller Stolz von 50FPS bei Max Details unter Crysis vorschwärmt - jeder 2. wenn nicht mehr hier haben ihre ach so toll Konfigurierten und vor allem individuell Zusammengestellten Computer in ihrer Signatur.

DAS ist die größte Profilierungsaktion überhaupt.

Aber was reg ich mich auf - ist ja schon ewig nen Trend, mit dem Trend zu gehen und keine eigene Meinung zu haben.

Edit:
Mein reden, Seppuku.
 
Zuletzt bearbeitet:
Hier gehts ja auch nur darum, die Rechenleistung dieser Karte zu verdeutlichen!
Von daher ist der 3D Mark und die Auflösung sehr wohl geeignet!
Wenigstens werden hier auch die SM 2.0 und 3.0 Ergebnisse angegeben und nicht nur die Endpunktzahl, in die die CPU-Leistung direkt auch mit einfließt.
Was hätte man denn von einem Crysis-Benchmark, der (obwohl ja Crytek so gut und viel mit Nvidia zusammengearbeitet hat...) keine gute SLI- geschweige denn Crossfire Unterstützung bietet?
Ist ein Open-GL Spiel aussagekräftig oder ein DX-Spiel?
Erst die Summe der Tests machts! Wenn nur ein Spiel getestet wurde, kann man genauso wenig/viel über die Leistung der Karte sagen, wie bei dem 3D Mark!

Edit:
@ milamber
genau meine Worte! Aber "anti sein" ist ja heute total cool...
 
...Jeder Satz trifft dich hart wie ne Kaffemaschine


Vll gibts die dann auch mal für 200€ wie die 7950GX2 :D

:affe: AmK
 
´nächstes Jahr bekommst du diese Karte bestimmt für unter 150 € wetten?
 
Nächstes Jahr um die Zeig... wer weis was da is....

Wenn die Games nur nosch schlecht auf Middle laufen, werde ich die nächste GraKa kaufen (vll wirds ja ne 3870X2^^ wer weis :D)

Geht Triple CF mit eine 3870 + 3870X2 ?^^


:affe: AmK
 
@milamber

dass man sein System in der Sig hat bedeutet nicht zwangsläufig dass man auf nen Schwanzvergleich aus ist. Es könnte ja sein dass man nicht in jedem 2ten Fred seine Sys-Komponenten aufzählen will wenn mal der rechner wieder spackt und man Hilfe braucht.

zum futuremark:
sicherlich ist es ein syntetischer Bench den sowohl nvidia als auch ati so gut es geht mit Treibern zu optimieren versuchen. aber gäbe es ihn nicht, wüsste man nicht was die HD 2900 XT wirklich zu leisten vermag, und dass die aktuelle ATI/AMD schwäche weniger ein hard- sondern ein softwareproblem ist.

wie schon jemand hier meinte. Erst durch die Summe der Tests bekommt man ein aussagekräftiges Bild, und da gehört der futuremark eindeutig dazu
 
Zuletzt bearbeitet:
was glaubt ihr eigtl wie sich die karte gegenüber der 9800 GX2 von Nvidida schlagen wird? meine vermutung ist ja, dass es wie mit den einzelkarten passiert. bei niedrigen auflösungen und ohne qualitätseinstellung (AA/AF) wird die gx2 die 3870 abziehen. aber wenns etwas anspruchvoller wird, wird die 3870 auch wieder vorbeiziehen können. oder wie seht ihr das?
 
ich schätze mal das nvidia wegen der zwei pcbs probleme hat die g92s besonders hoch zu takten (deshalb auch nur 30% schneller als eine ultra). nach bisherigen berichten sieht es so aus als könnte ati den takt der 3870 aufrecht erhalten, hamm ja auch weiterhin nen großen dual-slot-kühler druff. wenn der karte nicht die schlechtere skalierung von crossfire das genick bricht, dann könnte ati einen sieger in der hinterhand haben.
 
is die skalierung von cf echt so schlecht. hab immer gehört dass ati wesentlich besser skaliert als nvidia...
 
Zuletzt bearbeitet:
hmm auch mal wieder dazugelernt.

aber ich hab was interessantes gefunden (bwz. gamestar hats für mich gefunden ;) ):

Neues Bechmark-Ergebnis einer HD 3870 X2

Sieht doch mal nich schlecht aus. Man kann für Nvidia hoffen, dass ihre Ankündigung die 9800 GX2 sei 30% schneller als ne jetzige Ultra galt nich solch einem Benchmark.
Aber will nich den Teufel an die Wand malen. Vergleichen kann man die Karten erst wenn mehr Benches verfügbar sind, darunter auch spiele-benches
 
riDDi schrieb:
meist skaliert cf schlechter als sli, vor allem bringt es öfter auch garkeinen zuwachs. wenn ich mich recht erinnere skalierte sli mal durchschnittlich +60% und crossfire grade mal +50% o.ä.

Andersrum wird n Schuh draus SLI is das schlechtere bzw. das welches schlechter skaliert ;)

Ich bin dann auch so frei und kopier das 1280x1024 Testbildchen der X2 aus Dump´s Link

3d06_1.jpg
 
Zuletzt bearbeitet:
und wie wär es mit nen beleg?
ich mein jetzt kommt der nächste und meint xgi hat die bessere multi-gpu technologie

fakt ist zumindest das man bei nvidia den vorteil hat selbst profile zu erstellen, so gibt es schon mal so gut wie kein spiel das gar nciht von sli profitiert
 
joa danke antimon...habs nich so mit bildern. bin mehr so der hyperlink spezialist :P

EDIT: das mit CF und SLI würde mich jetzt echt mal interessieren ^^
 
Dump schrieb:
EDIT: das mit CF und SLI würde mich jetzt echt mal interessieren ^^

Es gab da schon nen Thread zu...oder war´s in einem der vielen 38x0/8800GT Threads wo das Thema durchgekaut wurde, ich hab allerdings im Moment weder Zeit noch Lust den zu suchen :D

Solltest Du aber bisserl Zeit haben einfach die Forensuche quälen gehen ;)
 
och naja ich hock hier eh nur im praktikum rum :P dann begeb ich mich mal auf die suche. hab schon so ne ahnung. hab ja oben auch schon geschrieben dass ich iwo gehört habe dass cf besser skaliert. wahrscheinlich dann hier.
wenn ich link habe stell ich ihn hier rein

EDIT: also ich hab jetz in dem thread bisschen was gefunden:

https://www.computerbase.de/forum/threads/radeon-hd-3870-x2-neue-bilder-und-details.363973/

post #16 und #28. aber besonders aussagekräftig sind die jetzt nicht find ich.
 
Zuletzt bearbeitet:
Man kann hier viel diskutieren und meinen. Feststeht, dass es kein Offizieler Benchmark ist und die Grafikkarte sonst niemand testen konnte.
Bleibt also abzuwarten, bis dieser Test von jeder Computerseite durchgeführt werden kann. Alles davor ist Marketing und Werbestrategie um Aufmerksamkeit auf sich zu ziehen.
Trotzdem ist es eine Interessante Karte, die bestimmt gute Leistung erbringt.
 
Zurück
Oben