Test Test: ATi CrossFire

Moin,

NICE Job @CB! Ich bin zwar der Meinung 1 Graka reicht, aber für die ersten Tests ein "sehr Gut"! Warum fragen sich bestimmt einige:

Weil SLI viel schlechter begonnen hat ich denke da nur an 2x 6800 Ultra im SLI die viel schlechter waren als 1x X850XT und das nur wegen der nicht optimierten Treiber (war ein neues Spiel)! Aber ich denke das es mehr am Mainboard liegt als an CF (ok 30% an den Treibern!) denke der Chipsatz (SRY ATI) ist noch nicht soweit :freaky: im vergleich zu einem nForce4.

cu
 
AlphaGoku schrieb:
finde CF dem SLI deutlich überlegen. 1600x1200 quali. hat ati immer die nase deutlich vorne(für höhere Auflösungen wurde es gar nicht ausgelegt). Außerdem war das AI deaktiviert, sprich die ATi musste mit besserer bildqualität arbeiten.

Gut gemacht ATi!! Durch neue Treiber lässt sich das noch weiter ausbauen.

Und die Probleme mit dem 60hz bug sollten mit der r520 behoben werden.
So far ATi ist wieder im kommen
Warum sollte es dann anders sein?

Wenn ATi dann wieder minderwertige Komponenten verbaut...?

Ralph,
test24ow.gif
 
Ok, das kommt davon, wenn man kein UXGA-TFT zu Hause stehen hat und sonst nur mit nVidia-Grafikkarten an einem analogen 19" CRT mit 130kHz arbeitet.

Also, ATi verbaut tatsächlich nur Single-Link-DVI bei der X8xx-Familie. Soll heissen, bei 1600x1200 mit 60 Hz ist Schluss. Sehr schade für eine kanpp 500 Euro teure High-End-Karte. Dementsprechend wurde auf der CF-Karte die "Compositing-Engine" auch nur bis maximal dahin ausgelegt. Was das eine nicht bietet, muß das andere auch nicht können, danke für den Hinweis, ich schaue mal, ob und wie ich das im Artikel ändere/erweitere.


Zum Thema A.I. off
Bitte erst lesen, dann meckern. ;)
Treibereinstellungen: ATi-Grafikkarten
Catalyst A.I.: Standard
Mipmap Detail Level: Quality
Wait for vertical refresh: Always off
Truform: Always off
 
ups sorry, habe da nur einen kommentar gelesen, im artikel hab ich nur auf die benches gekuckt
 
"Es ist doch ganz klar das zwei X850xt schneller sind als zwei 6800 ultra. Ich finde mann kann die wirkliche Leistung von Crossfire nur heraus finden, wenn man zum beispiel zwei x800xt PE nimmt und zwei 6800 ultra. Sonst ist doch klar das meistens zwei X850xt scheller sind"

vor allem kriegt man inzwischen für nur noch 838,- euro zwei 7800 gtx fürs sli. und ein a64-sli-system hat man sowieso.

die 6800 ultra ist

- eh veraltet, d.h.
- zu heiß
- zu laut
- zu schwach in jeder beziehung was wirkungsgrad angeht, think i.


hier z.b. gibt es noch 17 stk. von den 7800 gtx zu nur 419,- euro/stk.:

http://cgi.ebay.de/Point-of-View-GeForce-7800-GTX-PCI-E-256-MB-Retail_W0QQitemZ5245180471QQcategoryZ87051QQrdZ1QQcmdZViewItem


wie das wohl mit der skalierung hinsichtlich höherer auflösungen und qualitätsverbesserungen mit zwei 7800 gtx im vergleich aussehen würde? diese evtl. mit dem nv-eigenen forceware-takttool auf 490/660 Mhz laufend? (statt default 430/600)


alles in allem ein gut gemachter test. den ein- oder anderen sli- resp. cf-wert ganz klassisch in auflösung 1024x768 (z.b. jeweils 3d01se und 3d05) hätte ich aber doch gerne gesehen gehabt und in in die tabellen vergleichsweise mit aufgenommen. nur um so direkter ein gefühl dafür zu bekommen, wieviel die cpu-limitierung hier ausmacht. und evtl. einfach mal einen weiteren messwert direkt daran anschliessend, mit ansonsten identischen einstellungen, also erneut sli mit 1024x768, jedoch @ +10% oc der 4000+ - cpu um dies noch klarer zu zeigen.
.
 
Zuletzt bearbeitet:
zunächst mal ein lob an CB für den flotten test!

An ati muss ich allerdings ein klares minus verteilen, nicht für crossfire ansich sondern für den gewählten zeitpunkt der veröffentlichung.
ich hätte mir wirklich mehr feingefühl erwartet und dass crossfire erst mit dem r520 vorgestellt wird. (da hakts bei ati wahrscheinlich wieder)

mit den SM 2.0 X850er karten gegen nvidia, dh. 7800gtx antreten zu wollen! Tja da haben sie sich wohl verschätzt. obwohl die benches nicht so schlecht sind tun sie sich keinen gefallen mit der veröffentlichung.

wer soll das bitte 1er 7800gtx vorziehen? (ich würds nicht tun, obwohl ati mein favorit ist)
dazu die (teilweise) enttäuschenden ergebnisse.:uncool
 
bevor ihr hier hated schaut euch doch mal die benchmarks an.. wenn man schon sli oder crossfire hat möchte man die spiele sicher nicht mehr mit 1024x768 spielen.. und bei 1280x1024 4xAA/16xAF zieht crossfire den nvidia sli karten davon.. also wenn ihr schon meckert schaut euch lieber mal die werte an... tzzz :lol:
 
Ralph schrieb:
Ok, das kommt davon, wenn man kein UXGA-TFT zu Hause stehen hat und sonst nur mit nVidia-Grafikkarten an einem analogen 19" CRT mit 130kHz arbeitet.

Also, ATi verbaut tatsächlich nur Single-Link-DVI bei der X8xx-Familie. Soll heissen, bei 1600x1200 mit 60 Hz ist Schluss. Sehr schade für eine kanpp 500 Euro teure High-End-Karte. Dementsprechend wurde auf der CF-Karte die "Compositing-Engine" auch nur bis maximal dahin ausgelegt. Was das eine nicht bietet, muß das andere auch nicht können, danke für den Hinweis, ich schaue mal, ob und wie ich das im Artikel ändere/erweitere.
Nicht nur ATi verbaut ein Single-Link DVI, sondern alle, die mitzureden haben. Darum kommt die neue Generation mit Dual-Link DVI, um, besser gesagt insbesondere, im CF-Betrieb diese Limitierung zu umgehen. Man sollte aber nicht vergessen, daß CrossFire erster Generation eine Notlösung ist: Da bringt das Meckern um diese 60Hz nichts (mehr). ;(

Ralph schrieb:
Zum Thema A.I. off
Bitte erst lesen, dann meckern. ;)

Oopps... Ich habe "AI off" gesehen und wollte nicht mehr lesen. ;)
 
meckern tut hier keiner. ich jedenfalls nicht.

+10% oc - also 2640mhz statt 2400mhz?

geht mir wirklich rein um den nutzen. vergleichbarkeit (na klar auch für mich) halt;) .


z.b. siehe anlage:

a64-939 @ 2700mhz @ 2x7800 gtx sli
 

Anhänge

  • SLI 3d05=11923.JPG
    SLI 3d05=11923.JPG
    90,3 KB · Aufrufe: 700
  • 31431 3D01SE A64 2700MHz 7800GTX SLI, 77.76 RAM 2.2.2.5.JPG
    31431 3D01SE A64 2700MHz 7800GTX SLI, 77.76 RAM 2.2.2.5.JPG
    133,8 KB · Aufrufe: 671
Dieser Artikel macht eigentlich nur deutlich, dass CB nach wie vor ein bisschen Richtung "Rot" ausschlägt. Kann mir sonst beim besten Willen nicht erklären, wieso nVidia beim benchmarken den High Quality Modus aufgezwängt bekommt, welcher einen bekanntlich bis zu 30 %igen Performanceeinbruch (Bildquali wird im Gegenzug durch Abschaltung der meisten treiberseitigrn Optimierungen gewonnen) zur Folge hat, ATI jedoch mit Standard Settings fahren darf. Der hier benutzte 78.03er Forceware der ja zudem das ach so furchtbare Flimmerproblem behebt, is lediglich ein Beta und zudem noch ein paar Prozentpunkte lahmer. CrossFire hingegen wird mit dem hochperformanten CrossFire Beta Treiber gebencht. Wieso denn dann nicht mal konsequent die WHQLs oder von mir aus ausschließlich die neuesten Betas (wie ForceWare 82.16) heranziehen.
Weiterhin negativ aufgefallen sind mir die mitgebenchten Wahnsinnsauflösungen jenseits der 16x12er (nVidia optimiert seine Treiber wohlweislich "nur" bis zur 1600er, welche CrossFire zudem nur mit einer viel zu niedrigen Wiederholrate uunterstützt). Kaum jemand interessiert sich für derartige Settings, da sie niemand ernsthaft in Erwägung zieht bzw. fahren kann. Meiner Meinung nach wurden dadurch die CrossFire Messwerte in der "Endabrechnung" hier künstlich nach oben getrieben, um den derzeit noch existierenden Abstand zu SLI klein zuhalten.

Das Ganze mag sich jetzt ein bisschen wie ein Lobgesang Richtung "Grün" anhören - soll es aber nicht. Bei meiner Meinungsbildung möcht ich nicht ständig über oben genannte Stolpersteine purzeln müssen. Ich zieh mir lieber nen objektiven Vergleich bei Anandtech oder den XBit-Labs rein (keine Werbung!).
Sorry CB.

MfG
-sovjet-
 
Nicht nur ATi verbaut ein Single-Link DVI, sondern alle, die mitzureden haben.
Auf der GeForce 7800 GTX und GeForce 7800 GT sind meinen Informationen nach auch ein Dual-Link-DVI verbaut.


-sovjet- schrieb:
Dieser Artikel macht eigentlich nur deutlich, dass CB nach wie vor ein bisschen Richtung "Rot" ausschlägt. Kann mir sonst beim besten Willen nicht erklären, wieso nVidia beim benchmarken den High Quality Modus aufgezwängt bekommt, welcher einen bekanntlich bis zu 30 %igen Performanceeinbruch (Bildquali wird im Gegenzug durch Abschaltung der meisten treiberseitigrn Optimierungen gewonnen) zur Folge hat, ATI jedoch mit Standard Settings fahren darf. Der hier benutzte 78.03er Forceware der ja zudem das ach so furchtbare Flimmerproblem behebt, is lediglich ein Beta und zudem noch ein paar Prozentpunkte lahmer. CrossFire hingegen wird mit dem hochperformanten CrossFire Beta Treiber gebencht. Wieso denn dann nicht mal konsequent die WHQLs oder von mir aus ausschließlich die neuesten Betas (wie ForceWare 82.16) heranziehen.
Weiterhin negativ aufgefallen sind mir die mitgebenchten Wahnsinnsauflösungen jenseits der 16x12er (nVidia optimiert seine Treiber wohlweislich "nur" bis zur 1600er, welche CrossFire zudem nur mit einer viel zu niedrigen Wiederholrate uunterstützt). Kaum jemand interessiert sich für derartige Settings, da sie niemand ernsthaft in Erwägung zieht bzw. fahren kann. Meiner Meinung nach wurden dadurch die CrossFire Messwerte in der "Endabrechnung" hier künstlich nach oben getrieben, um den derzeit noch existierenden Abstand zu SLI klein zuhalten.

Wir haben uns extra für den High-Quality-Modus entschieden, da nur in jenem die nVidia-Grafikkarten nicht nervtötend anfangen zu Flimmern und einem den ganzen Spaß am AF versauen. In jenem Modus hat nVidia qualitätsmäßig zwar einige kleine Vorteile gegenüber ATi (Stichwort voll Trilinear), allerdings ist das die einzige Stufe, die ergleichbar mit dem AF von ATi ist. Das die Karten so derbe einbrechen ist wohl kaum unsere Schuld.

Der 78.03 ist ein offizieller Betatreiber, der sich allerdingsa durch den flimmerlosen Betrieb von G70-Karten unserer Meinung nach hervorragend für einen Reviewer-Treiber eignet. Zudem läuft er insgesamt stabil und ist eben NICHT langsamer als der neueste offizielle Referenztreiber (bei gleicher Qualität, G70 HQ vs. HQ zählt also nicht).

CF wird mit dem Review-Treiber getestet, da schlicht und ergreifend kein anderer Treiber CF-fähig ist. Der neuere Beta-Treiber wurde nicht benutzt, da jener auf einem G70 wieder flimmert und somit eine schlechtere Bildqualität liefert. Das wäre zwar für diesen Artikel recht egal, für folgende jedoch nicht. Zudem ist er, im Gegensatz zum 78.03, keinesfalls offiziell;)

Meiner Meinung nach sind Auflösungen ala >=1600x1200 heutzutage keineswegs mehr übertrieben, sondern bei der vorhandenen Rechenpower realistisch und das nicht nur bei SLI, weswegen 1920x1440 in kommenden Artikeln weiter benutzt wird.

nVidia optimiert die Treiber auch auf höhere Auflösungen als 1600x1200, hat beim NV4x dabei jedoch ein Problem. Viele Speicherbandbreitenschonende-Maßnahmen funktionieren in den hoihen Auflösungen nicht mehr, also ein Designnachteil. Beim G70 gibt es dieses Manko nicht mehr, bei ATi ebensowenig.
 
halte die auflösung schon für übertrieben
denn die eine hälfte hat nen tft brauch an 1940 oder höher gar nicht denken
die andere hälfte hat einen crt der maximal 1600 bei akzeptabler bildwiederholrate schaft
nur wenige haben also das enrsprechende ausgabegerät, und wenn doch dann ist 1600 + AA wohl mindest genau so gut
aber für den benchmarkparcour halt ich diese auflösung trotzdem gut, da dort sich die spreu vom weizen trennt, man will ja schließlich wissen was die graka leistet und nicht was die cpu so dolles kann

zu den treibern kann ich nur sagen dass es richtig ist den 78.03 zu nehmen, denn das flimmern muss beim benchen behoben sein
klar ist das bild jetzt minimal besser bei den nv's, aber mit nem alten treiber wär die quali der 7800gtx viel schlechter
man kann halt die differenz nicht auf null bringen, man muss sie halt auf ein minimum kommen
desweiteren stört es mich überhaupt net dass die nv quasi benachteiligt wird, der erfahrene leser kann sich sein teil dabei denken und das ergenis dadurch auch selber gut beurteilen
 
Ähm, kurze Zwischenfrage: Die Crossfire-Editionen des R520 werden also nicht mehr auf 1600x1200 @ 60 Hz limitiert sein oder ist das immer noch nicht so ganz raus?

PS: Wenn man die Systemzeit des PC´s auf den 5.10.05 um 8:59 Uhr stellt und abwartet, bis der Counter abläuft, erscheint an der Stelle etwas, was ich mir nicht so ganz erklären kann: "Enter a world of visula velocity. Mind blowing graphics acceleration. What´s next: 9/30/05" Was soll am 30.9.05 sein? Oder bedeutet dies nur, dass dann "etwas mehr an Infos" an dieser Stelle zu sehen sein werden, wenn man versucht, den Counter wie beschrieben auszutricksen?
 
Wolfenstein 2k2 schrieb:
Ähm, kurze Zwischenfrage: Die Crossfire-Editionen des R520 werden also nicht mehr auf 1600x1200 @ 60 Hz limitiert sein oder ist das immer noch nicht so ganz raus?
Da sämtliche X1800-Karten endlich ein Dual-Link-DVI-Interface haben dürften, dürfte die Begrenzung auf Slave-Seite wegfallen, und einen "besseren" Silicon Image Bildzusammenschnipsel-Chip wird sich ATI ja wohl grad noch leisten könnnen, zudem der ja nur auf den Master-Karten verbaut werden muss, von denen wahrscheinlich weltweit blos ein paar 1000 hergestellt werden. Beim X1600 und X1300 dürfte die Begrenzung weiterhin vorhanden sein (Single-Link-DVI), allerdings macht a) Crossfire im Midrange und vorallem Low-Range keinen Sinnn (IMHO übrigens überall, aber auf mich hört ja keiner.:D ), und b) ist 1920x14xx bei einer Mid-Range-Karte ja wohl etwas übertrieben.
 
Wolfgang schrieb:
Meiner Meinung nach sind Auflösungen ala >=1600x1200 heutzutage keineswegs mehr übertrieben, sondern bei der vorhandenen Rechenpower realistisch und das nicht nur bei SLI, weswegen 1920x1440 in kommenden Artikeln weiter benutzt wird.

Also ich sehe das wie auch schon bensen. TFTs werden in den nächsten Jahren weiter zunehmen und da wird sich selbst bei gigantischen 21" Panels keine Auflösungen jenseits von 1600 durchsetzen. Und die armen CRTs schaffen oberhalb dieser Grenze eh nurnoch 75Hz - wenn überhaupt. Die 0,5% der User mit 21" oder noch größeren Profigeräten mal unter den Tisch fallen lassend. Kein Mensch brauch das - dass ihr die Auflösung benutzt um die CPU Limitierung auszuschließen ist IMO die einzige Berechtigung in diesem Test.
 
Also da wo sich die Karten leistungsmässig am wohlsten fühlen (1600x1200/AA+AF), hat man ne schlechte Frequenz. Darunter ist SLI sinnvoller, aber meist n Tick langsamer.
Also irgendwie passt das net zusammen. Ich denke, dass ATi da nochmal Hausarbeiten nachholen muss, um mit nVidia gleichziehen zu können. Aber so is das halt mit neuen Techniken und Treibern.


bye Hübie
btw: guter Test - wie immer:cool_alt:
 
Wolfgang schrieb:
Meiner Meinung nach sind Auflösungen ala >=1600x1200 heutzutage keineswegs mehr übertrieben, sondern bei der vorhandenen Rechenpower realistisch und das nicht nur bei SLI, weswegen 1920x1440 in kommenden Artikeln weiter benutzt wird.

Naja, nur weil die Karten das eventuell bringen, kann man das noch lange nicht darstellen. Welcher normale Mensch hat den bitte so ein Teil daheim, mit dem sich solche Aufloesungen a) mit ner normalen Wiederholfrequenz (>85Hz) und b) dann auch noch mit ner vernuenftigen Qualitaet (Stichwort Videobandbreite ==> matschige Bilder) fahren lassen?
 
Ich denke, das nVidia was aufzuholen hat. Es geht doch hier um Qualitätseinstellungen in den Spielen und nicht um Highend-Hardware im Gehäuse zuhaben und dann nur Minimaleinstellungen, was die Qualität betrifft, zu nutzen. Jetzt muß nur noch ein passender Crossfire-Treiber her und dann kann nochmal gebencht werden. Vielleicht auch mit etwas differenzierten Karten, denn nicht jeder kann sich die High-End Graka´s leisten (Tipp von mir an CB).
 
Wolfgang schrieb:
Auf der GeForce 7800 GTX und GeForce 7800 GT sind meinen Informationen nach auch ein Dual-Link-DVI verbaut.

... .

Wollte ich auch erwähnen, war mir aber nicht sicher, ob es ein Dual-Port DVI ist oder wirklich Dual-Link. Aber da die G70 den R520 als Konkurrenten hat... ;)
 
Zurück
Oben