Vielen Dank für die bis hierhin angebrachte Kritik, die leider in vielen Fällen nicht in einem passenden Tonfall vorgebracht wurde. Ich möchte zu einigen Punkten, soweit ich kann, Stellung nehmen. Der Redakteur befindet sich aktuell in Las Vegas auf der (inzwischen beendeten) CES und kann sich daher erst nächste Woche hierzu äußern. Außerdem sei vorab gesagt, dass der Artikel bereits seit Mitte/Ende Dezember fertig war und somit weder das Crysis-Patch, noch der neue Catalyst 7.12-Treiber berücksichtigt werden konnten.
Aber es wäre wohl besser gewesen wenn den Crossfire Verbund mal ein bessers Board bekommen würde. Ein das beide Karten mit PCI-E x16 betreiben kann und nicht nur mit PCI-E x8. Weil die beide Nvidia Karten werden ja auch mich 2* PCI-E x16 betrieben.
Wir setzen bei unseren CrossFire-Tests bereits sehr lange auf die zuverlässige 975X-Platine. Von ATi/AMD gibt es keine neuen 32-Lane-Highend-Chipsätze mit Support für unseren Prozessor. Ein Test mit X38 wäre nicht fairer gewesen, da dem 680i SLI die Unterstützung von PCI Express 2.0 fehlt. Und nForce 780i SLI war bei Redaktionsschluss einfach noch nicht verfügbar/angekündigt.
In Sachen
PCIe x8 vs. PCIe x16 sei auf unseren gleichnamigen Artikel verwiesen. Klar, es sind Karten älterer Generation. Damals waren die Unterschiede minimal. Zusätzlich darf man nicht vergessen, dass die CrossFire-Karten über die dedizierte PCI-Express-Bridge direkt miteinander kommunizieren und ein vollwertiger PEG nur On-Top wäre. Beim damaligen Bericht hat sich selbst 16x vs 8x bei X1600 CrossFire kaum ausgewirkt, obwohl diese Karten über keine Bridge verfügen und somit nur über die Grafikkartensteckplätze kommunizieren mussten.
Edit: Die Ergebnisse sind verdammt Benchmark-Abhängig. Bei folgenden Spielen kann ich konkret etwas zum Unterschied sagen:
Crysis - keine Veränderung
World in Conflict - Keine Veränderung
Warum verbraucht bei euch eine 3870 Karte mehr Strom als 2??
Ganz einfache Erklärung: Die Leistungsaufnahme aller Karten außer der CrossFire-Konfiguration wurde auf dem nForce 680i SLI gemessen. Das braucht einfach viel mehr Strom als der i975X. Dadurch ist ein i975X mit 2xATi-Karte stromsparender als 680i SLI mit 1xATi-Karte. (Kann Wolle sicher bestätigen)
Interessant ist auch zu sehen, dass SLI viel besser skaliert als CF. War doch von vielen Usern hier im Forum die Rede, dass CF deutlich besser als SLI skalieren soll. Anscheinend ist das doch nicht der Fall.
Hierbei sei insbesondere auf den Abschnitt "Windows Vista SLI-Update" verwiesen. Bis zum Microsoft-Patch hat CrossFire besser skaliert. Ansonsten ist die Skalierung allgemein stark vom Spiel abhängig. CrossFire skaliert allgemein schon besser. Man muss nur auf die Spiele schauen, in denen CrossFire auch funktioniert. Gothic zieht die Statistik natürlich runter. (Und in der ersten Version des Artikels ganz besonders Dirt und Crysis). World in Conflict mag CrossFire auch nicht so richtig.
Die Bewertung des Ganzen hängt maßgeblich von der Wahl der Spiele ab. Allgemein ist der Spielesupport bei Nvidia besser, doch ATi holt kontinuierlich auf.
Der wurde im CF (2x8) Betrieb um Längen vom RD600 geschlagen. Der x38 hat bis zu 30% höhere Performance als der 975 mit CF. Zudem wäre eine neuerer Treiber schön gewesen, da grade die RV670 sehr von der neueren Version profitieren.
Hast du hierfür Links, um die Aussagen zu belegen? Schau ich gerne genauer rein.
Die Dateinamen unzuändern ist vielleicht ne schöne Sache, wenn man dann sieht, dass CF doch funktionieren kann, doch ist das nicht Sinn und Zweck eines Grafikkartentests. Wieviel % der Spieler macht das denn bitte?
<schnipp>
Da muss ich z.T. zustimmen. Das kanns auch nicht sein, den Stiefel muss sich AMD anziehen, weil die es einfach nicht gebacken kriegen, CF für Games freizugeben, die problemlos damit laufen und gewaltige Gewinne damit verbuchen.
<schnipp>
Aber: Es ist jetzt nicht so, dass dieses Problem erst seit gestern bekannt ist. Einem Redakteur traue ich durchaus zu, dass er auch mal ein paar Forenthreads durchgeht und die Probleme und Lösungen für CF mal rausfiltert (z.B. CF Sammelthread im Luxx-Forum). Und als CF-Nutzer kommt man halt ums Umbennen nicht herum, so blöde das auch ist, warum soll das in einem Test anders sein, der sich mit CF beschäftigt? Es gehört ein guter Meckertext dazu, der diesen Missstand gehörig anprangert, aber man sollte es dennoch auch mit Umbenennung benchen, weil es nunmal die reale CF-Performance ist und ohne Umbenennen halt nicht. Das sollte dann aber auch an jedem Benchmark erwähnt werden, um das ganz klar zu machen, dass hier umbenannt wurde.
Hier stimme ich ganz klar der Position zu: Wer von der breiten Masse benennt die Executable seiner Spiele schon um? Den Schuh muss sich AMD/ATi anziehen. Auf der anderen Seite könnte es Gründe dafür geben, dass AMD für diese Games kein CrossFire vorsieht. Wann, wenn nicht jetzt, werden sie sich dem Problem von Custom-Profilen annehmen?
Genauso gehört aber auch ein Meckertext zu den schlechtenen Minimum-FPS und Microrucklern bei SLI dazu. Das kann einfach nicht sein, dass auf diese doch gewichtie Problematik kaum eingegangen wird und das nicht untersucht wird, in einem Artikel, der sich genau auf SLI und CF konzentriert.
Dass es dieses Problem gibt, ist absolut Fakt.
Kann ich nichts zu sagen.
ich hätte noch gern die 8800gtx einzeln und im sli gesehn. ich bin der meinung dass die einzelne gtx gegenüber den cf und sli gespannen der preis- leistungssieger wäre. die ultra ist imo einfach zu teuer und kaum schneller wie die gtx... Aber ich muss auch sagen, dass eine 8800 GTX nur noch 350 Euro kostet und damit die Alternative zu CF/SLI gewesen wäre (imo!), nicht eine 520 Euro teure Ultra
Für alle Tests ist der zulässige Zeitrahmen begrenzt. Es musste eine Entscheidung getroffen werden und diese fiel auf die attraktiven "Mainstream-Karten" und das aktuelle Ultra-Highend. Sicherlich kann jeder den Speedup von GT vs GT SLI und den Speedvorteil von GT vs GTX nehmen und eine entsprechende rechnerische Abschätzung machen.
Schade, dass in dem Test keine HD3850 mit 512MB getestet wurden. So eine hab ich bei mir im Rechner und ich bin am überlegen, ob ich noch eine zweite dazu packen soll oder nicht. In dem Test wird ja von nem 3850CF abgeraten, aber halt nur aufgrund des zu kleinen VRAM. Oh man, schwere Entscheidung.
Danke für den schönen test, wenn ihr noch die HD3850 mit 512MB (auch CF) nachtragen könntet wäre das super
Ist wieder ein Zeitproblem. Außerdem fehlt uns die nötige Menge an 3850er Karten (ok, man 3870er heruntertakten...). Prinzipiell würde ich die Skalierung der 3870er-Karten ansetzen und den Performance-Unterschied von 3850 512MB vs 3870 512 MB heraus rechnen.
ich finde sehr schade, dass ihr die Stromverbrauchsmessung für die Einzelkarten nicht nochmal auf der hier verwendeten Plattform wiederholt hat, die Ergebnisse hätten für den Artikel einen deutlichen Mehrwert dargestellt, der Aufwand war ja sicher ohnehin schon immens.
Mit solchen Vergleichswerten hätte man das Wirken der Stromsparmechanismen sehr gut einschätzen können. ATI hat hier mit PowerPlay ja Maßstäbe gesetzt und dürfte im Idle nur knapp über den Werten einer Singlekarte liegen, was in der Gesamtbetrachtung der Lösungen sicherlich für viele ein gewichtiges Argument darstellt.
Ist ja so. Siehe oben. Man hätte allerdings für die Single-Karten einen Wert für 680i und einen für i975X veröffentlichen können. (Wolle ist wie gesagt noch in den USA) Prinzipiell sieht man ganz klar: Die zusätzliche Karte verbraucht weniger, als der Unterschied der Chipsätze ausmacht.
STALKER
Und es heisst Deferred Shading und nicht Deffered Shadowing.
47 FPS mit CF
sicher, ihr habt bestimmt keine Patches Installiert oder sonstiges stimmts ?
weil bei Stalker brauch man kein exe renaming, bei dem Spiel bekommt man 100% mehr Power komschi bei euch wieder ma nicht.
Deffered Shadowing: Vielen Dank für den Hinweis. Wird in der Stalker-Beschreibung schon ewig falsch geschrieben. (Seit 12. Februar 2007). In Fachtexten zum Thema D3D10 wird es seit dem 17. April 2007 richtig geschrieben. Den Text bei Stalker hat einfach niemand mehr danach angefasst. Können wir mit dem Hinweis korrigieren.
Wir haben mit dem Catalyst 7.11 Crysis-Treiber getestet. Dass in dem Video DX9, im Test aber DX10 eingesetzt wird, ist nicht der Grund für deine völlig andere Beobachtung? Oder, dass das Video nicht den integrierten Crysis-Benchmark nutzt? Ansonsten sag ich: Werte haben ihre Richtigkeit (für die ungepatchte Crysis-Version) und ansonsten auf Wolle warten.