Test Nvidia 3-Way-SLI im Test: Wenn drei mehr ist als vier

@Realsmasher
Hast recht, war gedanklich irgendwie auf normales SLI abgerutscht. :freak:
(Allerdings gibts die 8800 GTX mittlerweile auch schon für 330€ lieferbar. Insofern ist ein SLI aus GTX auch nicht mehr fair.)
Dennoch würde mich ein Vergleich von X2 CF und ein Triple-SLI aus 8800 Ultra interessieren.
 
Zuletzt bearbeitet:
ganz einfach 4 ist momentan leichter zu realisieren als ein 6 way system zu der sache wer das bracht...ist ganz einfach zu erklären diese technik wird jetzt schon angeboten weil später nix mehr weiter geht und dann muss man die technik die man jetzt schon hat an den mann bringen stellt euch vor es gibt nur noch eine grafikkarte die nächstes jahr raus kommen würde dann kauft ihr euch 3 stück davon und dann habt ihr halt mehr leistung als mit einer und mal ehrlich wenn sli oder crosfire karten nix mehr kosten und man kloppt da 3 stück rein kommt das besser weil dann verkauft man noch alte grafikkarten das schließt darauf das die sammellager entleert werden sprich ich nehm mal geforce als beispiel man nehme 3 sli 7800 ich weiss das gibt es nicht aber is ja auch nur ein beispiel sind dementsprechend mit mehr leistung als eine 8800 so müsst ihr euch das denken nur preiswerter ^^ da haben die verbraucher was davon und die entwikler weil die sammellager leer werden ^^

ja soviel zum thema grafikkarten ^^
 
Abgesehen, dass für so ein System Luftkühlung absolut indiskutabel ist, stellt für mich Vista ein echtes Problem dar.

In Verbindung mit nvidia Chipsatztreibern und 64 Bit Vista Ultimate wird man einfach nicht mehr froh, irgendwas tut immer nicht, sei es der USB Port für den das supertolle Vista zu blöd ist einen Treiber in der eigenen Bibliothek zu finden, oder sonstige Unzulänglichkeiten.

Triple SLI ist geil, schnell und leider nicht leise zu kühlen...
 
darauf sag ich nur warte auf service pack 1 ! thema passt nicht hier her ....

ja die lüftung könnte eigentlich nur von der seite waagerecht durchgepustet werden muss ja auch
 
3-way sli ist schon eine krasse sache... aber ich denke es ist nur dafür gut um die äußerst geringe schicht der käufer die sich sowas gönnen noch mehr geld aus der tasche rauszuziehen. Es kann doch nicht die zukunft sein immer mehr grafikkarten auf einem mainboard betreiben zu können. Man kann bei 2 Karten schon kau mehr irgendwelche pci karten verbauen... bei drei sowieso nicht. Ich denke zukünftig wird sich ein ähnlicher trend wie bei den CPU's zeigen hin zu dual core GPU's und damit meine ich nicht mehrere chips auf einer karte sondern einen chip mit mehreren kernen... das wäre sinvoller... dazu eine entsprechend hohe speicheranbindung und ausreichend speicher... Aber sicher wird es auch dann noch SLI geben für leute die sich dann 3 mutli gpu grafikkarten einbilden... wo soll das nur enden
 
Zuletzt bearbeitet:
erster beitrag und dann gleich nen flame: Aber habt ihr schon mal was von FSB OC gehört? Lernt mal OCen bei euch...
 
@Mark@X800XT
Als damals SLI rauskam, hat auch niemand geglaubt, dass das allzu viele brauchen/nutzen werden. Mittlerweile ist SLI und CF gang und gebe. Also muss man der Oberschicht eben etwas bieten, damit sie sich wieder absetzen können von den "normalen". Von Seiten nVidias kann ich das gut verstehen. Zum einen verbessert es das Prestige, zum anderen kann man so noch mehr Karten absetzen. Warum also nicht anbieten?
 
Eines möchte ich doch auch noch anmerken, auch wenn ich den Artikel sehr gelungen finde und das Eingehen auf die Mikroruckler-Problematik einen Meilenstein bedeutet, da habt ihr mit eurer Berichterstattung Pionierarbeit geleistet.

Schade finde ich halt, dass die Pioniere bei 3DCenter.org nicht gewürdigt wurden. Erst durch den Thread von Tombman "Die SLI-FPS-Lüge – oder warum FPS nicht genug sind ..." kam das Problem ans Tageslicht. Ihm und den anderen an der Aufklärung Beteiligten hättet ihr ruhig in Form einer Quellenangabe Respekt zollen können, ich kann verstehen, wenn da einige enttäuscht sind.

Um Salz in die Wunde zu streuen am Ende mein Lieblingsspruch, auch wenn ich natürlich gestehe selbst nicht frei von Tadel zu sein :)

sign on a roof garden in London schrieb:
Gentlemen will not, and others must not pick the flowers.
 
Toller Bericht/Test

wegen den 100Wpro karte im Idle, hat da nVidia nicht mal "versprochen" das mit einem Treiberupdate zu beheben??


Also ich würde 3-Way-SLI für XP auch nicht mehr entwickeln, vista ist stand der technik und ich kann mir nicht vorstellen das es bei so einem System um die 90Euro für die Vista Lizenz ankommt.
 
Mal wieder eine Erfindung die ich nicht gebrauchen kann. Ich dachte schon SLI (2 GPU) wäre unnötig aber 3-Way-SLI hat alles übertroffen. :freak:
 
Also mnachmal denke ich, keder CB-Autor müsste längst aufgehört haben. ^^ Was manche hier für fragen reinschreiben und für behauptungen.... unglaublich. Vieles davon wird im Artikel explizit erwähnt und trotzdem taucht dann sowas im Thread dazu auf. *kopfschüttel* Miagi hat hier eindeutig erwähnung verdient (was nicht heisst, dass es auf viele andere ebenfalls zutrifft). Lieber Miagi, im Test wird eindeutig erwähnt, dass die Temps absolut okay gehen. Da ist nichts überlastet, gefährdet oder sonstwas.... Moderne GPUs halten das locker aus.

@Autor schöner Bericht zu einem interessanten Thema. Hätt ich das Geld, würd ich mir sowas bauen. ^^ Die vielen die meinen sowas mache ja keinen Sinn, ja klar nen 30 Zöller ist zu lahm usw. usw. Lasst es doch. sowas liegt im Auge des Käufers und sowas klingt nur nach purem Neid, dass ihr sowas nie haben werdet (vermutlich). Und das mit der PS3 war wohl eher ein witz oder? Full HD TV hat ne geringere Auflösung als ein 30 Zöller TFT egal wie groß er ist. Zumal Crytek ja schon angekündigt hat, das Crysis für die Kosole nur abgespeckt realisierbar wäre was die GRafik anbelangt.
 
Toller und ausführlicher Test - Super CB !


Die Spinnen , die NVidianer - Haben die noch nix von der CO2 diskussion gehört?
 
@MoZ

Das ist nur ein Beispiel was möglich wäre. Kaum einer stellt sich doch so ein System zusammen.

Ferrari hat bestimmt auch mal was von CO2 gehört und trotzdem bauen die noch solche Autos. Aber dafür gibt es davon auch nicht so viele.
 
Boah.Was für ein System.Schade nur das man die beiden Karten nicht jetzt schon abschalten kann.

Mfg Porky1
 
Zuletzt bearbeitet:
edo# schrieb:
Warum erwähnt ihr eigentlich nicht mal mit einer einzigen Silbe, denjenigen der die Mikroruckler Problematik entdeckt und bewiesen hat? :rolleyes:

Kaum jemand hat SLI,zu Recht,und die die es haben sind eh blind

Und wer Tests macht,hat keine Zeit für Details
 
Danke für den diesmal guten Test, danke für die (wenn auch zu sporadische) Darstellung der Leistung unter 1920x1200! Danke für ein Ergebnis mit und einem ohne gepatchtem Crysis.
So macht das Ganze doch wirklich Spaß und Sinn, gelesen zu werden.

Wenn mancher dann noch immer nicht alles findet, was trotzdem geschrieben steht, dann ist es sein Problem...


@Topic
720 Watt, nunja. Ein PC mit einem E2140 auf 3Ghz und einer HD3850 verbraucht im idle rund 100 Watt. Das diese "Lösung" hier idle das vierfache verbrät ist wohl die zahlgewordene Offenbarung, dass eine neue, wirklich neue Grakageneration mit DIE Shrink an der Zeit ist.
Oder aber ein sauberer programmiertes Crysis. Ich persönlich kann mich nicht daran erinnern, dass es in der Vergangenheit solcher Gewalt bedurft hat, ein aktuelles Spiel in hohen Settings zum Laufen zu bringen. Das soll aber nichts heißen.
 
Zuletzt bearbeitet:
Mhh Edo. vll gabs schon davor jemand anderes der es angesprochen hat? vll gibts auch niemand der wirklich behaupten kann, dass er sie entdeckt hat. Ich glaube kaum, dass jeder dem es aufgefallen ist sofort sich intensiv damit beschäftigt hat. usw und so fort. es ist denk ich schlicht nicht möglich wirklich nachhaltig zu klären, wer der erste war.
 
Zurück
Oben