Test CrossFire, SLI oder Einzelkarte?: Günstige Multi-GPU-Systeme gegen teure Einzelkarte

FRAPS läuft bei mir leider nicht. Daher konnte ich es bisher auch nicht nachprüfen.
Hab XP x64. Vielleicht kennst du ne Alternative?


bye Hübie

Edit: Hab gerade mal ne neue Version probiert. Nun läuft FRAPS :)

Hier meine frametimes aus Crysis:

Frame, Time (ms)
1, 0.000
2, 27.706
3, 64.712
4, 98.760
5, 131.593
6, 167.783
7, 198.477
8, 237.463
9, 271.089
10, 310.293
11, 345.595
12, 386.652
13, 414.269
14, 463.659
15, 490.953
16, 542.951
17, 566.445
18, 615.765
19, 638.680
20, 687.138


usw...
 
Zuletzt bearbeitet:
Halloli,
wollten auch nochmal was zum PCIe Thema sagen.
Das die 8-Fach-Anbindung für die aktuellen Karten zumindest grenzwertig ist bestreitet bestimmt niemand. Siehe auch hier: http://www.tomshardware.com/de/Graf...-x16-x8-x4-Crossfire,testberichte-239907.html

@ Tommy: zu sagen ein Test mit je 2x16fach Anbindung und dafür aber 1.0a gegen 2.0 wäre ebenfalls nicht in Ordnung macht keinen Sinn. Zunächst gab oder gibt es keinen 780 SLi Chipsatz zu kaufen. Dagegen ist der Intelchipsatz schon länger nicht mehr aktuell.
Dann ist es wirklich unwahrscheinlich, dass die volle Bandbreite von PCIe1.0 schon von aktuellen Karten genutzt wird. Wenn man dieses vermuten würde, könnte man einen Test mit 8-Fach-1.0-Anbindung wirklich komplett vergessen.

Zum Thema Beleidigungen:
Ich würde ganz konsequent alle Beiträge dieser Art löschen und mich nicht dadurch verrückt machen lassen, da diese überhaupt nicht repräsentativ sind.
 
Zuletzt bearbeitet:
Ich wünsche mir auch ein UPDATE mit der GTX & der neuen GTS um vergleichen zu können.
Diese Infos würden mir für meinen neuen Rechner sehr helfen.

Danke
 
Wenn die GT schneller is wird ein GTS bzw. GTX-Gespann nochmals schneller gegenüber der Konkurrenz sein ;) Erübrigt sich somit ;)


bye Hübie
 
Sehr schöner Test! Aber gab es keinerlei Probleme mit der Synchronisation der Karten?

Anmerkungen zu SLI für Anfänger:

SLI hab ich schon seit Jahren und es gefällt mir sehr gut. Power pur - schon damals mit der Voodo2 war das ein klasse Erlebnis. Heutige Grakas sind noch Leistungsfähiger und skalieren sehr gut (Beipsiel 8800 GT sli). Leider wird oft verschwigen, dass man bei gleichgeschalteten Grafikkarten mit Fehlern in der Darstellung rechnen muss, weil die Karten nicht 100% Synchron laufen.

Soweit ich weiß wird die Aufteilung der Darstellung entweder Zeile für Zeile abwechselnd die andere Grafikkarte genommen oder zu 50% in der Mitte geslittet (horizontal?), wobei eine den unteren und die andere den oberen Bereich des Bildes darstellt.

Worin machen sich diese Bildfehler bemerkbar?

Ich erkenne sie immer als "Flimmern" oder "Zucken" im Bild an. Je nach Einstellung sind das mehr oder weniger Störungen. Manche Bildfehler treten auch gelegentlich als "Ghost" auf. Das heißt sie erscheinen nur zufällig / sporadisch. Wenn man genauer hinsieht kann man sie dann nicht mehr ausmachen. Der Spieler sitzt dann für kurze Zeit verwirrt vor dem Bildschirm und fragt sich was es gewesen ist.

Welcher Hersteller ist besser? ATI oder Nvidia?

Über diese Frage wird sich bei fast jedem Test und bei jedmöglicher Diskussion von Fans diskutiert.
Als geschichtlichen Hintergrund sollte bei Mehrkartenbetrieb erwähnt werden, dass dies ursprünglich eine Erfindung der Firma 3dfX ist, die damals mit der oben genannten Voodoo-Zusatzkarte es ermöglicht hat, Spielern die Welt des PC im Spielbereich zu erleben. Diese Karten wurden anfangs zusätzlich zu vorhandenen 2D-Grafikkarten gesteckt, um das System spielefähig zu machen. Später wurden sie als eigene Grafikkarten verkauft. Um die Performance erhöhen, konnte man mehrere Voodoo-Karten über einen Stecker verbinden und erlangte dadurch ein Sli-System. Allerdings konnte 3dfX nicht mehr mit dem damaligen Geforce-Karten des Konkurrenten mithalten und wurde von Nvidia gekauft. :eek:

Das Ergebnis sieht man heute in aktuellen Nvidia Grafikkarten, die fast alle Sli-fähig sind, Patent(e) von 3dfx, die jetzt Nvidia gehören und auch weiterentwickelt werden. Frühere Voodoo-Karten waren vorallem sehr stark im OpenGL-Modus - ein Trend, der sich in Nvidias Quadro-Serie (CAD-Bereich - keine Spielegrafikkarten !!!) fortsetzt, die heute den CAD-Bereich beherrscht.

Dem Grafikkartenhersteller ATI ist es gelungen, seit Jahren wieder im Grafikkartenmarkt um die Spitze mitzukämpfen. Allerdings konnte man gegen die von Nvidia erworbene SLI-Technologie lange Zeit keine Alternative anbieten. Es musste etwas entwicklet werden, dass vergleichbar mit SLI ist, aber dessen Patente nicht verletzt. Nach einigen Fehlversuchen kann ATI so die eigenentwickelte "CrossFire" Technologie marktfähig machen und steht nun im Konkurrenzkampf mit Nvidia.

CrossFire VS. SLI - Technik

Hierbei sollte erwähnt werden, dass ATI je nach Grafikkartengeneration besser oder schlechter sein kann als Nvidia. Allerdings muss immer bedacht werden, dass Nvidia durch die jahrelange Forschung und die SLI-Patente von 3dfx einen Vorsprung hat, den ATI vorläufig nicht aufholen wird. Neue Technologien oder Innovation im Mehrkarten-Bereich dürfte wohl Nvidia liefern. Also seitens "CrossFire" immer nachgezogen werden, um gleichauf mit der Konkurrenz zu bleiben. Ansonsten verliert ATI viel Marktanteil im High-Endbereich.

Positiv muss in diesem Zusammenhang aber erwähnt werden, dass andere große Softwarekonzerne wie Microsoft Nvidia regelmäßig Steine in den Weg legen. Als Beispiel hierfür gilt ganz klar das Betriebssytem "Windows Vista" (siehe Patchgeschichte im Artikel/Test). Hierfür wurde eine ganz neue Logik und Grafikdarstellung benutzt, genannt DirctX10 - Microsofts eigener Grafikstandard, der wegen neuartiger Effekte in neueren Spielen eingesetzt wird. Vista und DX10 sind eine völlig neue Softwaregeneration. Nvidia kann hier also nicht auf alte Erfahrungen (aus 3dfx - Win 9x, XP) bauen und muss sämtliche vorhandenen Softwaremodelle umschreiben oder es können sich Fehler einschleichen.:rolleyes:

ATI hat hier den Vorteil, dass sie nichts umschreiben brauchen, da sie nicht die umfangreiche Erfahrung wie Nvidia haben. Die Software wird hier zum ersten mal geschrieben. Mit Optimierungen im Softwarebereich, mit besonderem Fokus auf Treiber, kann ATI mit CrossFire deutlich aufholen. Zumindest bis zur nächsten Hardware-Generation von SLI.

Technische Bemerkung

Probleme von Mehrkartenbetrieb ist auch der limitierende Faktor der CPU (!). Solange die Grafikkarten schneller sind als aktuelle Prozessoren auf dem Mainboard, können SLI und CrossFire niemals ihre gesamte Power erreichen. Ändern könnte sich das mit Systemen wie Skulltrail (2x Intel Xeon Server-CPU, max. 16GB Ram, 4x SLI 16x möglich), das bald im High-Endbereich erscheint. Ähnliche Systeme wird es wohl früher oder später auch für ATI und deren Muttergesellschaft AMD geben, die zurzeit ihre Spider-Plattform ausbauen.

Das Hauptproblem mit Mehrkartenbetrieb dürfte aber der imense Stromverbrauch bleiben. Je leistungsfähiger die Karten sind, desto eher muss die Stromversorgung sichergestellt werden. Sollter der aktuelle Trend anhalten, dass neue Grafikkarten mehr Leistung als ihre Vorgänger benötigen, werden bald Netzteile im Kilowatt (1000W+) benötigt. Folglich ist die Zusammenarbeit zwischen Mainboard / Chipsatz / CPU / ?x PCIe
von exklusiver Bedeutung. Es gibt noch keine Mainboards, die SLI und CrossFire unterstützen. Der Anwender muss sich also im Vorfeld entscheiden, welche dieser Technologien er nutzen möchte. Klar ist das auch ein Glücksspiel, welche Grafikkarte man zurzeit besitzt bzw. was man sich anschaffen will.

Ob das auf Dauer gut geht, wage ich zu bezweifeln! :king:
 
Zuletzt bearbeitet: (Fehler verbessert)
So ganz auf dem laufenden bist du ja net gerade ;)

Schon damals hatte ATi eine Multi-GPU Lösung womit z.B. Disney´s "Toy Story" gerendert wurde (4x R200). Und woher du deine These mit Software umschreiben, hinschreiben, abschreiben, was auch immer hast, ist mir schleierhaft und nicht wirklich verständlich.

Zu OGL sag ich nur das Stichwort "FireGL". Sehr lang am Markt präsent.


Sei es drum. Fast komplett sinnfreier Beitrag.


bye Hübie
 
AvenDexx schrieb:
Keinen logischen Background? Bitte!

Natürlich hat es den. Es soll eine möglichst unverfälschte Betrachtung der Performance zu einem gewissen Zeitpunkt sein. Daran angelehnt kann man einen solchen Test natürlich auch als Kaufberatung sehen, aber wie von CB selbst schon erwähnt, dienen die Graka-Tests eben dazu, die reine Performance, ohne Tricks darzustellen. Und genau das machen sie.

Ich wiederhole mich jetzt nochmal. Natürlich kann man solche Tricks mit in einen solchen Test einbauen. Aber bitte nicht grundsätzlich voraussetzen. Wenn, dann sollte dies in einem extra Abschnitt des Test passieren, in dem dann nochmals die Unterschiede aufgezeigt werden.

Tommy schrieb:
Hier stimme ich ganz klar der Position zu: Wer von der breiten Masse benennt die Executable seiner Spiele schon um? Den Schuh muss sich AMD/ATi anziehen. Auf der anderen Seite könnte es Gründe dafür geben, dass AMD für diese Games kein CrossFire vorsieht. Wann, wenn nicht jetzt, werden sie sich dem Problem von Custom-Profilen annehmen?
Nein nein und nochmals NEIN!

Wer von der breiten Masse benennt diese Exe-Dateien um ?
JEDER, der verdammt nochmal davon weiß. Und gerade in so einem Test wäre es DIE Gelegenheit über diese Sache aufzuklären.

Und nicht vorgesehen hin oder her, die Performance ist ja nunmal besser. Es funktioniert!

Und zu diesem wirklich schlechten Argument "ohne Tricks":
Das ist doch quatsch. Hier geht's doch nicht um irgendwelche Tricks, sondern darum, wie effektiv die Karten im Crossfire-Verbund funktionieren. Und dann einfach den Bench zu machen, ohne daß Crossfire überhaupt genutzt wird (wärend es eigentlich möglich wäre), ist einfach nicht sonderlich sinnvoll.

Gebt doch einfach zu, daß ihr das mit dem Exe-Umbenennen nicht wusstet. Hat man sich halt unzureichend informiert ... das ist lange nicht so schlimm wie "wissentliches zurückhalten von wichtigen Informationen". Sowas geht mal garnicht!



Achso ...
Nicht daß das jetzt falsch rüber kommt. Ich bin hier für jeden Test dankbar und weiß selbst, welche Arbeit dahinter steckt. Nur kann ich dieses starre "hmm, steht nicht im Handbuch, wird nicht berücksichtigt" echt nicht ab. Gerade solche Sachen sind doch für die Leser mit am interessantesten.
 
Zuletzt bearbeitet:
trotz allem, das sich manche nicht zügeln können, bei ihren Beiträge - was ich durchaus verstehen kann.
Die Reife fehlt, man ein ATI Fan ist oder einfach ein "Play-Fair" sehen will, versucht man, durch die agressivität im Text Aufmerksamkeit zu erregen. Ich hab nicht alles gelesen - Krass was hier in den letzten paar Stunden gepostet wurde - war auch etwas Baff vom Test - Bench

Finds aber super, zu sehen, wer sich mit dem Thema befasst hat, hier seine Meinung verkündet, es selbst betreibt - also 2x GPU - und wie manche sich was zusammendichten - Das die Dinger schneller und mehr strom brauchen, sollte einem der Gesunde Menschenverstand sagen - Das wär z.B. ein Grund - das einen hätte sagen müssen - "moment, da stimmt was nicht"
Hab CB auf der Startseite, schau mir gerne die Tests an .. werden die zusammengetragene Ergebnisse nicht mal kontrolliert ? .. Keiner von der Redaktion ein 2x GPU Gespann zuhaus (ich hab auch keins) der dann hätte ne Wortmeldung abgeben können, vorm Upload.
Ich geh mal schwer von aus, das es ein Einzelfall ist, benutze eigentlich gern die Benches auf CB um Grakas zu vergleichen :(
 
Es kommen für mich 3 grundsätzliche Probleme zusammen:

1. Der Thread wurde offenbar schon vor ca. 3 Wochen fertig gestellt. Wäre er noch Ende Dezember gekommen, hätte man mit mehr Freizeit und Geduld aller rechnen können. Einige Treiber, die hier fehlen, wären gar nicht in der Form ins Gespräch geraten.
Allerdings kann man es wohl auch niemandem übel nehmen, sich über den Jahreswechsel mal nicht um seine "Arbeit" zu kümmern.

2. Der Redakteur ist im Ausland und kann sich nicht einbringen. Allerdings gab es mittlerweile Feedback von Dritten, die hier was zu melden haben ....

3. .... im Gegensatz zu denjenigen, die sich offenbar extra von HW-woauchimmer hier angemeldet haben, um sich gezielt daneben zu benehmen und ihre Accounts bannen zu lassen.

Vermutlich liest man dort noch immer voller Spot mit über das, was hier so vor sich geht.

@Mods / Admin / Redakteure: Nehmt es euch nicht zu Herzen, die Auswahl einiger Leute in extrem technik-afinen und zudem Gaming-Hardware-Foren ist nicht immer die, auf die man unter Gesichtspunkten sozialer Rücksichtnahme gerne trifft. Ist jedenfalls meine Erfahrung und bezieht sich auf die Störenfriede und ewig sachlichen Diskussionen Ausweichenden.

Bin mir sicher alles wird geklärt werden und diejenigen, die sich ernsthaft als CB Member sehen haben euch bei weitem nicht so arg das Bein gestellt.
Wir wissen was wir an eurer Arbeit haben. Bleibt weiterhin solide und noch viel wichtiger, ihr Benutzer bleibt doch bitte auf einer sachlichen Argumentationsebene.
 
Ich denke an Artikelkritik wurde schon genug gesagt, wäre der Artikel zeitnah veröffentlicht worden hätte sich auch viel davon erledigt. Aber seis drum man sieht ja, dass man sich, obwohl der Autor momentan nicht verfügbar ist, auf die sachliche Kritik einlässt. Der Artikel liegt momentan unter dem CB-üblichem, durchweg hohen, Niveau, was zwar schade ist, aber der Autor ist auch nur menschlich, gell? Nach einem Update das auf die Kritik eingeht sehe ich persönlich kein Grund zu weiteren Streitereien. Aufs .exe renaming könnte man kurz anhand eines Beispiels eingehen wo CF nicht funktioniert, allein schon um die Möglichkeiten sichtbar zu machen und den Laien zu helfen. Denn wenn bei AMD intern erstmal die X2 das neue Highend wird werden auch Normalos dieses Problem haben.

So genug dazu. Manche Leute fragen sich ja warum die AMDs mit 8xAA besser skalieren, da wäre a) das schlechtere Speichermanagement des G92 und desweiteren fünftelt sich die Z-fill bei Nvidia während sie sich bei AMD nur halbiert.
siehe http://www.hardware.fr/articles/671-4/ati-radeon-hd-2900-xt.html unter ROP

Sry hoschi schön langer Beitrag, aber der Inhalt is etwas suboptimal ;)

Hardware_Hoshi schrieb:
Leider wird oft verschwigen, dass man bei gleichgeschalteten Grafikkarten mit Fehlern in der Darstellung rechnen muss, weil die Karten nicht 100% Synchron laufen.
Ein "Synch"-Problem liegt ja gerade bei den bereits erwähnten Mikrorucklern vor

Hardware_Hoshi schrieb:
Soweit ich weiß wird die Aufteilung der Darstellung entweder Zeile für Zeile abwechselnd die andere Grafikkarte genommen oder zu 50% in der Mitte geslittet (horizontal?), wobei eine den unteren und die andere den oberen Bereich des Bildes darstellt.

Ersteres war nur im originalem SLI von 3DFX der Fall, deswegen hieß es da auch noch Scan-Line Interleave, da wurde das Bild sozusagen interlaced (wie PAL oder 1080i zB) und jede GPU bekam abwechselnd ne Zeile zum rendern. Heutzutage funktioniert das technisch bedingt so nicht mehr. Das aufteilen in x abschnitte pro Frame nennt sich SFR (Split Frame Rendering) bzw. Scissoring bei n>1 Flächen pro GPU, was aber afaik nur AMD kann (bin mir hier net mehr sicher, müsste mal wieder nen Grundlagenartikel lesen ^^). SFR ist aber Praktisch tot da es mit vielen Gameengines Probleme macht und das Anpassen der Treiber(profile) viel Arbeit verschlingt. Die andere Methode ist AFR (Alternate Frame Rendering) wo jede GPU ein Bild komplett alleine rechnet, während die andere GPU schonmal das nächste Bild rechnet, das funktioniert durch das Pre-render Limit, man spielt praktisch zwei bzw 3 Frames in der Vergangenheit. Das Mikrorucklerproblem betrifft deswegen übrigens nur AFR, da hier jede GPU so schnell rechnet wie möglich und sofort ausgibt anstatt sich auf eine einheitliche Kadenz mit der 2. Karte zu einigen.

Hardware_Hoshi schrieb:
Ich erkenne sie immer als "Flimmern" oder "Zucken" im Bild an. Je nach Einstellung sind das mehr oder weniger Störungen. Manche Bildfehler treten auch gelegentlich als "Ghost" auf. Das heißt sie erscheinen nur zufällig / sporadisch.

Mir fehlt leider die praktische Erfahrung zu SLI bzw SFR wo ich mir das Problem noch vorstellen könnte. Zum Flimmern, es ist viel wahrscheinlicher, dass es sich hier um Texturflimmer/Shaderflimmern handelt, such dir mal so eine Stelle im Spiel, speicher ab und lade dieselbe Stelle nochmal mit max AF und SSAA, idr stellt sich dann eine Besserung ein. Ghosting, Tearing usw liegt meist am verwendeten Gerät (TFT) oder an fehlender VSync.

Hardware_Hoshi schrieb:
Das Ergebnis sieht man heute in aktuellen Nvidia Grafikkarten, die fast alle Sli-fähig sind, Patent(e) von 3dfx, die jetzt Nvidia gehören und auch weiterentwickelt werden. Frühere Voodoo-Karten waren vorallem sehr stark im OpenGL-Modus - ein Trend, der sich in Nvidias Quadro-Serie (CAD-Bereich - keine Spielegrafikkarten !!!) fortsetzt, die heute den CAD-Bereich beherrscht.

Nvidia hat zwar die 3DFX Engis, aber die Patente werden denen nicht viel nützen da wiee bereits gesagt 3DFX ihr SLI ganz anders funktioniert bist auf den Fakt das da 2 GPUs rechnen. Und die Voodoo war auch nur so gut in openGL weil ihre Glide API sich an OGL orientiert, dann aber auch nur mit speziellen versionen wie zB MiniGL. ATI hat übrigens auch extra CAD Karten (Fire GL) die sich aber idr nur durch den Treiber und ggf mehr Speicher von den normalen unterscheiden, aber das ist bei NV nicht anders.

Hardware_Hoshi schrieb:
Allerdings muss immer bedacht werden, dass Nvidia durch die jahrelange Forschung und die SLI-Patente von 3dfx einen Vorsprung hat, den ATI vorläufig nicht aufholen wird. Neue Technologien oder Innovation im Mehrkarten-Bereich dürfte wohl Nvidia liefern. Also seitens "CrossFire" immer nachgezogen werden, um gleichauf mit der Konkurrenz zu bleiben. Ansonsten verliert ATI viel Marktanteil im High-Endbereich.

Die 3DFX Patente werden NV wie oben bereits erläutert nicht viel gebracht haben, da SLI != SLI ;).
Innovationen sehe ich momentan eher weniger, Hybrid SLI zB ist jetzt nichts komplett neues, ähnliche Funktionen bot afaik bereits ATIs 690T chipset, was aber noch schlecht umgesetzt war und Hybrid Xfire soll ja auch kommen. Lieber wäre es mir wenn NV endlich wieder einen 2D Takt mit kleinerer v einführen würde, vgl ATIs PowerPlay. Denn so wird nur die NV Chipsatzsparte gepushed und Leute mit Intel/AMD Boards schauen in die Röhre.

Hardware_Hoshi schrieb:
Positiv muss in diesem Zusammenhang aber erwähnt werden, dass andere große Softwarekonzerne wie Microsoft Nvidia regelmäßig Steine in den Weg legen. Als Beispiel hierfür gilt ganz klar das Betriebssytem "Windows Vista" (siehe Patchgeschichte im Artikel/Test). Hierfür wurde eine ganz neue Logik und Grafikdarstellung benutzt, genannt DirctX10 - Microsofts eigener Grafikstandard, der wegen neuartiger Effekte in neueren Spielen eingesetzt wird. Vista und DX10 sind eine völlig neue Softwaregeneration. Nvidia kann hier also nicht auf alte Erfahrungen (aus 3dfx - Win 9x, XP) bauen und muss sämtliche vorhandenen Softwaremodelle umschreiben oder es können sich Fehler einschleichen.:rolleyes:

ATI hat hier den Vorteil, dass sie nichts umschreiben brauchen, da sie nicht die umfangreiche Erfahrung wie Nvidia haben. Die Software wird hier zum ersten mal geschrieben. Mit Optimierungen im Softwarebereich, mit besonderem Fokus auf Treiber, kann ATI mit CrossFire deutlich aufholen. Zumindest bis zur nächsten Hardware-Generation von SLI.

Sry aber der Part ist komplett daneben. in Vista wurde das Drivermodel geändert, aber bestimmt nicht um NV zu blockeiren oÄ. Dann könnte man genauso behaupten MS war pöse zu ATI weil es die Tesselation Unit im R600 (die jetzt nutzlos Transis verschwendet) aus der geplanten DX10 Spec genommen wurde, NV hatte diese nämlich nicht im Design. Das hat auch nichts mit DX10 zu tun, denn es sind auch DX9 Spiele unter Vista betroffen. Und das neue Drivermodel + DX10 soll bei konsequenter Ausnutzung sogar ne Ecke besser sein da es afaik mit weniger drawcalls auskommt was die CPU entlastet. Anscheinend hat NV ihre Treiber nicht richtig angepasst bekommen, also kam der Berg zum Prophet und MS baut für NV was im OS um. Übrigens wurde das Drivermodel auch bei 9x zu 2K/XP geändert, vonwegen Argument mit Erfahrung, die ATI ja nicht haben kann, gibt ja CF nicht erst seit der X Serie ;)
Übrigens wenn mans genau nimmt hatte ATI mit der Rage Fury Maxx schon vor Ewigkeiten und vor NV ne Karte mit 2 GPUs, sollten ja dann mehr Erfahrung haben ;)

Hardware_Hoshi schrieb:
Probleme von Mehrkartenbetrieb ist auch der limitierende Faktor der CPU (!). Solange die Grafikkarten schneller sind als aktuelle Prozessoren auf dem Mainboard, können SLI und CrossFire niemals ihre gesamte Power erreichen. Ändern könnte sich das mit Systemen wie Skulltrail (2x Intel Xeon Server-CPU, max. 16GB Ram, 4x SLI 16x möglich), das bald im High-Endbereich erscheint.

Deswegen kauft man sich ein SLI ja auch nur wenn man es braucht, sprich man fährt hohe AUflösungen mit viel AA und AF, mit den richtigen Settings (zB 2560 + max SSAA und AF) mach ich dir sogar jedes Ultra Tri SLI GPU limitiert ;)
Und der Nutzen von 2 Quads ist eher gering, denn a) skaliert es immer schlechter und b) sind momentan wenig Spiele so gut Multithreaded, dass sie mehr als 2 Kerne richtig benutzen (mir fällt hier atm nur Supreme Commander ein).

Hardware_Hoshi schrieb:
Sollter der aktuelle Trend anhalten, dass neue Grafikkarten mehr Leistung als ihre Vorgänger benötigen, werden bald Netzteile im Kilowatt (1000W+) benötigt.
Dank Tri SLI mit 3 Ultras brauchst du idr schon jetzt PSUs mit mehr als 1KW Leistung.
Aber bei einzelnen Karten sehe ich diesen Trend nicht, selbst bei x2 Karten.
Allerdings sollte man dann auch kein Netzteil Marke Chinaböller benutzen ;)


uff, so, bitte nicht persönlich nehmen aber so konnte ich das net stehen lassen.
 
Zuletzt bearbeitet:
Stratowski schrieb:
Das die 8-Fach-Anbindung für die aktuellen Karten zumindest grenzwertig ist bestreitet bestimmt niemand. Siehe auch hier: http://www.tomshardware.com/de/Graf...-x16-x8-x4-Crossfire,testberichte-239907.html

Bestreitet auch niemand. Das verhalten ist nur sehr Spieleabhängig. Geht die einzelnen Games durch. Die einzigen die auch bei uns im Vergleich vorkommen sind Crysis und Company of Hereos. Beide Spiele zeigen überhaupt keine Abhängigkeiten vom PCIe-Link. Wer Ergebnisse für die anderen, bei uns eingesetzten Tests liefern kann: Nur her damit.

Stratowski schrieb:
zu sagen ein Test mit je 2x16fach Anbindung und dafür aber 1.0a gegen 2.0 wäre ebenfalls nicht in Ordnung macht keinen Sinn. Zunächst gab oder gibt es keinen 780 SLi Chipsatz zu kaufen. Dagegen ist der Intelchipsatz schon länger nicht mehr aktuell.
Dann ist es wirklich unwahrscheinlich, dass die volle Bandbreite von PCIe1.0 schon von aktuellen Karten genutzt wird. Wenn man dieses vermuten würde, könnte man einen Test mit 8-Fach-1.0-Anbindung wirklich komplett vergessen.

Das allerbeste wäre es sicherlich einen Test mit 1x16 + 1x4 (Alle Standard Intel-Boards mit zwei PEG), 1x8 + 1x 8 (Vorheriger Highend-Standard), 1x16 + 1x 16 mit und ohne PEG 2.0 (aktueller Standard). Für besonders relevant halte ich 1x16 + 1x4, da es praktisch alle CrossFire-fähigen Intel-Mainboards betrifft. Wir müssen schauen vorfür die Zeit reicht. Sobald Wolfgang aus den USA zurück ist, muss er sich leider erst um Triple-SLI kümmern.
 
Danke myopF... soviel Blödsinn zu lesen war ja echt schlimm.

Nvidia hat weder das schöne(und schnelle !) AA, noch das gut skalierende SLI je übernommen.

3dfx wurde gekauft und alles ausradiert, mehr nicht.


@ eLw00d : was hat x1900cf bitte mit dem Thema zu tun ?
 
Hallo CB,

nachdem ich nun alle Comments gelesen habe, möchte auch ein bisschen was los werden.
Dass die Tests aufgrund der unterschiedlichen Anbindung eventuell etwas daneben liegen wurde ja nun mehrfach genannt, was mich persönlich aber noch mehr .... ich will schon fast sagen ärgert:

Tommy schrieb:
Ganz einfache Erklärung: Die Leistungsaufnahme aller Karten außer der CrossFire-Konfiguration wurde auf dem nForce 680i SLI gemessen. Das braucht einfach viel mehr Strom als der i975X. Dadurch ist ein i975X mit 2xATi-Karte stromsparender als 680i SLI mit 1xATi-Karte. (Kann Wolle sicher bestätigen)

In meinen Augen disqualifiziert das die PowerConsumption Tests. Sorry, aber sowas kann ich doch nicht in ein und das selbe Diagramm packen.

Tommy schrieb:
Hier stimme ich ganz klar der Position zu: Wer von der breiten Masse benennt die Executable seiner Spiele schon um? Den Schuh muss sich AMD/ATi anziehen.

Meiner Meinung nach jeder, der sich mit dem Thema beschäftigt. Und sorry wenn ich es so sehe, aber wer sich für hunderte von Euros Hardware in den Rechner baut, sollte schon wissen was er tut oder sich zumindest anschließend informieren bzw. in Foren beteiligen.
Dass ihr mit der Argumentation: "Wenn es per default nicht läuft, dann ist das Pech und exe-Renaming ist Cheaten" entsprechendes verurteilt kann ich nicht verstehen.
Zum einen ist das kein cheaten, sondern höchstens tweaken und zum anderen trifft das doch im PC Bereich immer zu.
Wird ein Mainboard immer nur mit default Settings getestet?
Wird ein Speicher immer nur mit default Timings und Spannungen getestet?
Wird eine CPU nur default betrieben?
Werden nicht ständig irgendwelche anderen Tweaks gemacht?

Irgendwo kann ich dieses Argument nicht akzeptieren. Es ist ok, dass ihr natürlich ohne jegliches exe-Renaming testet, aber das hätte zusätzlich gemacht werden MÜSSEN.

Und zu guter letzt:
Wenn der Test vor dem Crysis Patch 1.1, bzw. vor dem Cat 7.12 schon fertig war, wieso erscheint er dann erst am 11.01 ?
Klar, Urlaubszeit, Artikelreview usw., aber müsste dann nicht spätestens vor dem Go des verantwortlichen Redakteurs ein Einwand gekommen sein?

Mein Fazit:
Der Test wurde einfach zu früh gemacht. Erstens aufgrund der noch fehlenden Mainboards, um Gleiche Voraussetzungen zu schaffen, zweitens aufgrund der nicht berücksichtigten lange vorher angekündigten Patches, die die meisten Probleme behen (Cat 7.12 oder sogar 8.1, Crysis 1.1, evtl. sogar Vista SP1).
 
Tommy schrieb:
Das allerbeste wäre es sicherlich einen Test mit 1x16 + 1x4 (Alle Standard Intel-Boards mit zwei PEG), 1x8 + 1x 8 (Vorheriger Highend-Standard), 1x16 + 1x 16 mit und ohne PEG 2.0 (aktueller Standard). Für besonders relevant halte ich 1x16 + 1x4, da es praktisch alle CrossFire-fähigen Intel-Mainboards betrifft. Wir müssen schauen vorfür die Zeit reicht. Sobald Wolfgang aus den USA zurück ist, muss er sich leider erst um Triple-SLI kümmern.
Okay, Triple-SLI ist sicherlich auch interessant und vor allem auf der Höhe der Zeit. Mit PCIe-16 + PCIe-4 in Gegenüberstellung zu ausgewogeneren Anbindungen würdet ihr aber eine ungeheuer breite Userbasis abdecken, also wenn es die Zeit hergibt ein IMHO ausgesprochen sinnvoller Test.
 
@P!nky

Mit der Leistungsaufnahme stimme ich mit dir vollkommen überein. Klar hier will man zeigen das der 680i um einiges mehr Strom braucht/verbraucht wie die Intel.
Man kann ja auch 1 3870 auf dem 680i laufen lassen, um zu sehen ob es irgendwie Probleme gibt.

Strom Verbrauch hätte ich Persönlich so gemacht.

1 8800GT auf dem Intel und Nvidia Mainboard
2 8800GT auf dem Nvidia Mainboard

1 3870 auf dem Intel und Nvidia Mainboard
2 3870 auf dem Intel Mainboard

So kann man genau sagen was die einzelnen Karten wirklich brauchen

Das mit der exe renaming stimme ich dir auch zu. Habe selber XP SP2 und Vista 64 Ultimate drauf, muss aber sagen es ist bei den "meisten" Games nicht mehr nötig. Klar hier wollte vergleichen wer den besseren Treiber Support liefert und liegt Nvidia immer noch etwas vorne, obwohl ATI mit den 7.12 Treiber sehr viel aufgeholt hat.

Zum Thema Crysis.
Crytek hat es immer noch nicht wirklich geschafft ein wirklich halbwegs BUG freies Game zu liefern. Der 1.1 Patch behebt in keinster Weise die oft auftreten Physik aus Setzer, die teils komische kollisionabfrage oder teils unerklärlich FPS drops.

Klar der Bench kann verwendet werden, aber ich finde das Game sollte man außen vor lassen.

Zum Grund.
Nvidia betreibt seit der Crysis Demo systematische Treiber tweaken. Auf dem G92 werden die Texturen etwas schlechter bzw. einfach nicht gerendert um die FPS in die höhe zu treiben. Wenn man genau hinschaut sieht bei Felsen oft fehlende Tiefenschärfe, die bei ATI Karten sehr wohl vorhanden ist.
 
@CB, könnt ihr mal bitte testen, ob 2 HD37x0 Karten im CF Mode auf einem 680i laufen? Es gehen in letzter Zeit oft die Gerüchte um, es würde gehen. Ich hätte das mal gerne verifiziert (mit 7.12).
 
Ich hab jetzt hier mal en paar kommentare überflogen und teilweise ist die kritik doch echt angebracht, wenn auch eher unsachlich formuliert.
wieso stellt man einen test online der veraltet ist?
pinky hats in #233 auf den punkt getroffen. (siehe "und zu guter letzt")

trotz allem möchte ich mich mal bei cb bedanken für den test. ich besitze nämlich das asus p5w dh deluxe und bin am überlegen ob ich mir ein cf aus 2x hd3870 anschaffen soll. und den test werte ich als pro cf. verstehe auch net wieso hier einige behaupten, dass der test pro nvidia wäre. cf hat unter schlechteren vorraussetzungen den test für sich entschieden .. (beziehe mich jetzt mal nur auf das performancerating ab 1600*1200 bei hohen qualitätseinstellungen, sowie das p/l verhältnis)
 
Zuletzt bearbeitet:
Zum Grund.
Nvidia betreibt seit der Crysis Demo systematische Treiber tweaken. Auf dem G92 werden die Texturen etwas schlechter bzw. einfach nicht gerendert um die FPS in die höhe zu treiben. Wenn man genau hinschaut sieht bei Felsen oft fehlende Tiefenschärfe, die bei ATI Karten sehr wohl vorhanden ist.





Das ist mir bei meiner alten Karte 8800GTX auch aufgefallen!
Ist nicht das erste mal das Nv sonen Mist macht.Schnell ist eben nicht alles;)
Die Test's sind ja soweit alle durch,da kann man locker die Fps erhöhen und die Bildqualli verschlechtern.
Zum Test hier wurde ja schon einiges gemeckert,aber schön ist es zu sehen trotz allem wie man mit 420€(2x HD3870) eine 555€ teure Karte (8800Ultra) wegbläst;)

will nur hoffen,das Ati mit den Preisen unten bleibt.
 
Zuletzt bearbeitet:
@HOT

das geht schon rein technisch nicht. Es werden nie 2 oder mehr ATI auf einen Nvidia SLI Board laufen.

@diRAM

Wieso man einen Test Online stellt, der schon etwas älter verstehe ich zwar auch nicht ganz, aber jetzt ist er halt da. Teilweise sind die Kommentare schon recht hart, teilweise auch aber sehr sachlich und dazu hat sich die CB ja schon geäußert.

Was ich persönlich etwas schade finde ist das zu wenig auf die MULTI GPU Technik eingegangen wird ( Und zwar beide Lösungen SLI und CrossFire ). Direkt vergleichen wird man sie aber nie können, da die AA und AF Modi unterschiedlich sind und daher die Hardware unterschiedlich belasten.

Was man bei den Test auf jeden Fall sagen kann. CrossFire skaliert erst wirklich richtig gut bei hohen Auflösungen mit Qualität ( Wofür ja auch die Multi GPU Technik vorgesehen ist )


@Phossi

Ich habe es selbst nicht geglaubt, aber auf dem G80 sieht Crysis etwas besser aus, als auf dem G92. Aber ich habe mal einen Treiber Vergleich gemacht ( ist schon etwas länger her ) http://forum.geizhals.at/t531146.html

Da kann man deutlich sehen, dass so ein Vorsprung nur mit Einbußen in punkto Qualität gehen kann. Aber das kennen wir ja von der 7er Serie.
 
Zuletzt bearbeitet:
Zurück
Oben