Test ATi Radeon HD 3870 X2 im Test: AMDs ersehnter Griff nach den Sternen

Wollte mal fragen wer alles schon die Karte hat? Bemerkt jemand Mikroruckler oder so was ähnliches z.B. bei Crysis wenn es da knapp an die Grenze des flüssig spielens kommt.

Und was meint ihr zur HD 3870 X2. Irgendwie ist die in DX10 sehr viel schlechter als in DX9. Hat mir die Laune total verdorben. Ich habe garnicht draufgeachtet. Aber hier im CB Test ist sie unter DX10 manchmal hinter der Ultra. Hier die beiden letzten Tabellen:
Dort ist sie ein mal bei einer nicht vorhandenen Auflösung nur 3% besser. Und unter 2560x1600 um die 18% besser. Schade das dort nicht 1600x1200 getestet wurde. Denn mit der hohen Auflösung kann ich nicht sehen ob die auch unter normalen gängigen Auflösungen besser als die Ultra ist. Find ich irgendwie schade das es unter DX10 so läugt.

Meint ihr da kann sich noch was mit Treibern machen lassen oder ähnliches?
 
Achso du meinst das es an den Treibern liegt? Naja wäre schon schön. Dann könnte man ja noch einiges in DX10 rausholen. :) Danke für deine Antwort.
 
Woran soll es denn sonst liegen? Wenn die bei der DX 9 so viel Power hat wäre es unerklärlich, warum sie bei DX 10 abkacken sollte. Denn das ganze DX Zeugs ist ja sowieso nur Software.
 
Ja das ist richtig. Daran habe ich nicht gedacht. Das ist sehr zutreffend. Die kann ja nicht so schlecht sein nur wegen eines anderen Programmes(DX10). Ich hoffe das ATI das noch ausbessert. :) Naja danke euch schonmal sehr. Jetzt ist meine Laune nicht mehr so verdorben. :)
 
Meine war am Anfang auch total verdorben. Habe seit Anfang November auf die X2 geartet und lese dann die Benchmarks von DX9 und denke mir so: Geiillll!

Und dann wechsle ich zu DX10 und Hauptsächlich Crysis und war dann komplett enttäuscht. Aber es ist ja wahr...DX ist nur eine Software und wenn 9 geht wird auch 10 gehen.

Und das neue Treiber dafür kommen ist eigentlich auch klar, weil ATI die ganze Zeit nur Verluste gemacht hat und nun endlich wieder eine gute Karte gezaubert hat. ATI will ganz bestimmt nicht, dass der Titel für die Karte lautet: "High End Karte mit schlechtem Treiber Support"!

So delle
 
dx10 setzt vorallem auf shaderleistung und davon hat schon eine einzelne 3870 mehr wie eine 8800ultra.

Ich habe da großes Vertrauen in Ati, immerhin haben sie bei der 1xxx serie gezeigt das viel rauszuholen ist. Dort ist die Leistung immerhin um 20-30% gestiegen im Laufe des Jahres 2006 und bei der Serie war nur das Shadermodell 3.0 neu.

Hier jetzt hingegen ist die komplette Architektur neu !


Schön zu sehen ist das doch auch beim treibertest neu gegen alt : KLICK

35-40% schneller in crysis durch einen Treiber, dessen entwicklung nichtmal 2 Wochen in Anspruch genommen hat.


Fazit : da sind noch Dicke reserven und im Laufe der Zeit, wenn die "echten" dx10 Spiele dann mal kommen, werden wir davon auch noch profitieren :)
 
:) Zum glück gibt es auch noch Leute die positiv denken. :) Es hört sich alles zutreffend an. Ich glaube auch daran. Und das mit dem Treiber war schon mächtig was der in Crysis gebracht hat.
 
nicht vergessen wie beschissen die 8800er am Anfang unter DX10 gelaufen sind und Vista!
hab ich selbst erlebt!Auch in DX9 Games waren sehr viele Grafikfehler mit den dingern!
Und den V-Ram Bug haben sie heute noch,da helfen auch keine 384 Bit Speicheranbindung.
 
Zuletzt bearbeitet:
@Phossi
Was ein 384bit SI mit einem höherem VRAM Bedarf zu tun hat musst du mir erklären.


Auch interessant:

HT4u schrieb:
Und an diesem Punkt stellt sich unweigerlich die Frage: Was passiert wenn ein Spiel nicht oder nur unbefriedigend im Zusammenspiel mit AFR läuft? Genau diese Problematik durften wir mit dem aktuellen Shooter Timeshift erfahren, welchen wir für diesen Test neu in unserem Benchmark-Parcour aufnahmen. Das Spiel reagierte mit einer Flimmerorgie auf den Einsatz der Radeon HD 3870 X2, ähnlich einem TV-Gerät, das mit einer viel zu niedrigen Hz-Zahl betrieben wird. Auf einer normalen Radeon HD 3870 bereitete das Spiel hingegen keinerlei Probleme.
http://www.ht4u.net/reviews/2008/amd_radeon_hd_3870_x2/index6.php


Bei soetwas könnte die X2 auch 1000mal schneller sein (und das ist sie nicht), das Gebotene hier ist Mangelhaft.
Zum Glück werden immer nur ein paar Spiele getestet, auf die sich die IHVs gut vorbereiten können.
Bei anderen unwichtigen Spielen wirds noch lustiger.
 
@ Unyu :

von einem 384bit interface erwartet man einen guten Speicherdurchsatz.
Wenn der allerdings durch Daten verstopft wird die nicht wieder gelöscht werden, dann nützt das alles nix.

Natürlich kann man alle 15 minuten mal raustabben, solange das Spiel dabei nicht abstürzt, aber wem macht das schon Spaß ?


Die tester aus deinem Link sind scheinbar auch völlig unfähig.

Da der Anwender keinerlei Einfluss auf die Crossfire-Konfiguration nehmen kann, muss man sich mit diesem Umstand abfinden.

so ein Bullshit !
An den Namen der exe irgentein Buchstabe angehängt und schon läufts mit Einzelkarte, wenn wirklich mal solche Probleme auftreten.

Leuten die so ein review erstellen kann man eigentlich nur Vorsatz und Blödheit vorwerfen.
 
ach herje...

@Realsmasher: die daten werden doch nich im si sondern im ram gespeichert und darum kann das speicherinterface egal wie viel bit es hat auch nich "verstopfen"
und was die "unfähigkeit" der ht4u redakteure angeht: ich glaube du hast keinen schimmer was exe-renaming ist. man kann nich irgendwelche buchstaben an einem dateinamen verändern um beliebige konfigurationen zu erreichen. das exe-renaming ermöglicht bei einigen (!) spielen die verwendung von profilen die im offiziellen treiber noch nicht enthalten oder freigeschaltet sind. und da es keine offizielle sache ist und auch von irgendwelchen laien nicht angewendet wird gehört das auch nicht in den test da es das ergebnis zu ungunsten der nicht so versierten käufer verfälscht!

das die treiber die leistung pauschal um 20-30% erhöhen ist auch quatsch. die x1k steht im VERHÄLTNIS zur gf7 um diese leistung besser da weil die x1k bereits stark auf shaderleistung gesetzt hat was ihr aber damals nichts gebracht hat. in heutigen spielen profitiert sie aber massiev von dieser eigenschaft da die modernen spiele engines genau diese leistung fordern. mit den treibern hat das wenig zu tun. da wurden in einigen (!) spielen leistungssteigerungen durch anpassungen erreicht aber im großen und ganzen laufen die spiele heute nicht schneller wie damals
https://www.computerbase.de/artikel...n-hd-3870-x2-test.756/seite-14#abschnitt_prey
https://www.computerbase.de/artikel...on-x1950-pro-test.631/seite-16#abschnitt_prey
und dx10 ist auch keine reine softwarangelegenheit denn sonst wäre meine gf2 ja ne dx10.1 karte. ist sie aber nicht. wie effektiv eine gpu dx10 dekodiert ist sehrwohl architekturbedingt und hier hat nv nunmal in der ersten generation die nase vorn. was nicht heißen muss das sich das blatt mit der r700 nicht zugunsten von ati wenden kann. zwar waren die ersten treiber für die 2900 noch nicht ausgereift aber inzwischen hat ati das problem gelöst und kann nun auch seine dx10 hardware richtig ansteuern. also fangt bitte nich wieder mit diesen "wundertreibern" an. das hat schon bei der 2900xt nicht gewirkt. die ist auch heute noch nicht schneller wie die gtx was die fanboys ja damals so gern auf den treiber geschoben haben...
 
An den Namen der exe irgentein Buchstabe angehängt und schon läufts mit Einzelkarte, wenn wirklich mal solche Probleme auftreten
Es ist natürlich sinnvoll, sich eine GraKa mit zwei GPUs zu kaufen und dann nur eine GPU zu nutzen ...

cYa
 
@Lübke :

Natürlich verstopft das Interface. Wenn der Speicher voll ist kann es noch so groß sein, es wird nichts helfen.

Genau das hat Phossi doch oben geschrieben : wenn der Bug auftritt hilft auch das hohe Interface nix.


ansonsten scheinst du nicht zu wissen wie exe-renaiming funktioniert. Natürlich kann man eine beliebige Exe umbenennen wie man lustig ist.

Ob man CF damit (funktionsfähig) aktivieren kann ist die zweite Frage, aber abschalten kann man es IMMER, indem man schlichtweg dem Treiber vorgaukelt man zocke etwas, wofür kein Profil existiert.

Ist mir auch völlig egal ob das getestet wird, aber zu schreiben man habe "keinerlei Einfluss" stimmt schlichtweg nicht.


Deine 2 Links meinst du wohl hoffentlich eher als Scherz... Falls du oben gelesen hättest, so schreib ich 20-30% im laufe des Jahres 2006 !

Deine Links sind von 2007 und 2008, aber schön zu sehen das selbst dort NOCHMAL eine steigerung von 5% zu sehen ist, zusätzlich zu den Verbesserungen im Laufe von 2006.



y33H@ schrieb:
Es ist natürlich sinnvoll, sich eine GraKa mit zwei GPUs zu kaufen und dann nur eine GPU zu nutzen ...

Das ist wieder ein ganz anderer Punkt. Natürlich muss man sich darauf einstellen das manche(viele ?) spiele nur mit einer gpu laufen werden.

CF aber zu erzwingen und dann zu behaupten man hätte mit dieser Grafikkarte in JEDEM Fall Flimmern ist eine Lüge.
 
Das ist doch ein Thred nur für die HD 3870 X2 wieso fallen hier wieder Nvidia Grafikkarten. Immer die gleiche Diskussion. Man wird ja noch sehen was die Grafikkarte leisten wird. Was hat denn DX10 mit der Architektur zusammen? Die Karte punktet in DX9 mit großen Abstand und DX10 mit geringeren Abstand. Und das liegt nur an der Architektur? :rolleyes: Ist natürlich sehr logisch. Aber manche wollen es halt nocht nicht einsehen da sie noch eine 8800 GT oder ähnliches benutzten und versuchen die HD 3870 X2 runter zu reden. :lol:
 
@ Rush

du willst irgendwie net begreifen. Du scheinst nicht gerade einer zu sein, der wirklich viel ahnung von der ganzen materie hat. Und trotzdem kommst du dann wieder mit irgendwelchen unqualifizierten, falschen kommentaren.

Und nein ich bin kein nvidia fan boy. Zum beispiel gefällt mir die ganze vram-bug sache genauso wenig. Und die gx2 kann sich nivida sonst wo hinschieben.
 
Zuletzt bearbeitet:
@Realsmasher: du kannst die veränderung von nem unfertigen treiber nich als erwartung für nen fertigen treiber nehmen. dann musst du den treiber aus 2006 mit dem bei der 2900 aus 2007 vergleichen. aber das wäre bei der x2 vollkommen sinnfrei. die treiberweiterentwicklung beim r670 kannst du nur mit der treiberweiterentwicklung beim r570 vergleichen denn der r6x0-treiber ist bereits ausgereift und wird nicht mehr irgendwelche quantensprünge bringen. es gibt keine "wundertreiber". kleine verbesserungen gibt es immer und das nicht nur bei ati.

@Rush|: im ganzen artikel wird mit der gf8 verglichen, was willst du denn sonst als maßstab nehmen? und es redet hier niemand die x2 runter. auch die zahlreichen test zur x2 sind bestimmt nich so ausgefallen weil alle redakteure ne 8800gt benutzen und die x2 schlechtmachen wollen.
 
@ Realsmasher

Der Speicher läuft voll, mit dem SI hat das so nichts direkt zu tun. Das SI ist nur dafür verantwortlich wie schnell die Daten fließen und welche Speicherausstattung möglich ist, zB bei 128 Bit nur vielfache von 128. Beim exe-renaming können Bildfehler auftreten und CF rennt auch mit dieser Methode natürlich nicht immer so wie es soll. Von Flimmern habe ich nie etwas gesagt :freak:

Neue Treiber holen nur einstellige Fps raus, unter 5% - wie Lübke sagt, die R6x0 Architektur ist durch.

Der X2 krankt es den CF-Problemen, die Gf8 haben den VRAM-Bug, beides kritisiere ich - mich in die Fanboy Schublade zu stecken, finde ich eine Sauerei!

cYa
 
Lustig, wie die Leute hier immer auf bessere Treiber hoffen.
Das Produkt ist auf dem Markt, Leute. Wenn es zu diesem Zeitpunkt nicht rund läuft, wird das später auch nichts mehr. Aber gebt weiter Geld für so nen Crossfire Mist aus und hofft auf ein Wunder.
Leider zieht NVidia jetzt mit ner Zweikartenlösung nach anstatt sich mal um den legitimen Nachfolger der 8800GTX zu kümmern.
Es gibt halt zuviele Idioten, die den gehypten Dual-Schrott kaufen. :freak:
Und wenn dann endlich die 9800GTX raus ist, landen X2 und Konsorten nach Monaten sinnloser Bastelei wegen Unverkäuflichkeit im Rechner des kleinen Bruders.
Tja, die Zweitgeborenen haben's nicht leicht. :rolleyes:
 
Zurück
Oben