Test Nvidia 3-Way-SLI im Test: Wenn drei mehr ist als vier

Ich hab mir den ganzen Artikel vorlesen lassen, und kann leider keine Anhaltspunkte für die Befürwortung von Tripple-SLI finden.

- Tripple-SLI nicht mit 8800GT/8800GTS möglich
- Leistung (3.GPU bringt 30-50% Mehrleistung gegenüber SLI :rolleyes: )
- Es wird insgesamt nur 768 MB V/Ram benutzt
- Kosten (3*8800GTX für 1000€)
- Lauffähig nur unter Vista
- Extremer Stromverbrauch (nichtmal der Ansatz von Sparmechanismen)...
- ... und der damit verbundenen Lautstärke des Systems
- Wirkt nur in ausgewählten Spielen von Nvidia (Stichwort: Optimierung)
- benötigt eine starke CPU beiseite
- die G8x kann auch nicht für Wissenschaftliche berechnungen genutzt werden
- Keine DX10.1 Unterstützung

+ Man kann sich Profilieren:freak:
+ Man kann Crysis spielen

Die HD3870 X2 von AMD wird die vernichtende Antwort auf Tripple SLI werden, das sogar für Ottonormalverbraucher finanzierbar ist. Und für 400€ ist der Nutzen dieses Systems dann ohne Zweifel erhaben.
Und läuft unter XP:)

mfg
 
Zuletzt bearbeitet:
@ Blutschlumpf :

Wo ist das Problem dabei ?

zum Zeitpunkt x wird Frame 1 in Auftrag gegeben.

sobald 50% davon fertig sind gibts aktuelle infos von der cpu(sie muss diese natürlich haben !) und dann kommt frame 2 von der anderen gpu.

Das ist nichts anderes als wenn eine graka doppelt so schnell wäre, die bräuchte dann nämlich genauso viele Infos von der CPU.
 
Danke für die exklusive Beschreibung mit den Mikrorucklern, also ich werde nach diesem Bericht noch warten ehe ich mir eine zweite 3870er ins Haus hole.

Find das auch sehr interessant, dass es spielabhängig ist, das würde die Theorie, dass es an den Front-, bzw. Backendbuffer der Grakas liegt aushebeln. In vielen Foren kursiert das Gerücht, dass wahrscheinlich der Backendbuffer, welcher einen Frame im voraus bereit hält und auf beiden Grakas aktiv ist, den Frontendbuffer, welcher nur auf einer Graka (wo der Monitor angeschlossen ist) aktiv ist überfordert, bzw. der Frontendbuffer, dann mit Vsync (welcher das Bild an die Monitor Framerate anpasst) nicht mehr mithalten kann. (hab nicht überprüft ob das technisch alles korrekt ist, für mich wäre das aber eine logische Erklärung gewesen).

Naja, vielleicht kann es dann aber, wenn diese Erklärung doch nicht greift, mit einem Treiberupdate korrigiert werden. Mir ist es jedenfalls ziemlich egal woran es liegt, ich will, dass ATI bzw. Nvidia dieses Problem korrigieren bevor ich mir eine zweite 3870er kaufe.

--> Wie immer top Bericht.
 
feiner test und der stromverbrauch sollte ja klar sein bei so einer kiste.

na hoffentlich hat hier niemand, der sich über den stromverbrauch auslässt, nen 500W plasma im wohnzimmer stehn.... :lol:
 
die sollen mal lieber gescheiten GK rausbringen....
seit 8800 kamen nur noch kleine verbesserungen
kann ja nicht sein, dass eine 2jahre alte ultra (oder bisl weniger weß net mehr genau..)
immer noch oben mitspielt.
 
im Verlaufsdiagramm Company of Heroes – FPS auf Seite 6 passen die werte nicht mit dem Balkendiagramm überein.

Oder hab ich da was übersehen?
 
also habe eben den test angeschaut und wollte fragen ob das stimmen kann.das bei 3DMARK06 eine 1x GeForce 8800 Ultra nur 10.877pkt macht.meine ist das nicht zuwenig?denn kumpel von mir hat eine 8800GT 512MB keine übertaktete und die macht bei ihm so 11924pkt er hat einen
Intel® Core 2 Quad Q6600 (4mal 2400MHz)und "nur" 2GB RAM PC800 von der firma OCZ.und ich dachte der cpu was hier im test verwendet wrd ist so toll.naja egal.was toll gewesen wäre wenn man auch mal andere karten damit vergleichen hat können.
 
Zuletzt bearbeitet:
Dein Kumpel wird wohl kaum mit Kantenglättung getestet haben.



kann ja nicht sein, dass eine 2jahre alte ultra (oder bisl weniger weß net mehr genau..)

bissl weniger ist gut :p

die Ultra gibts gerade mal seit rund 7-8 Monaten.

Und selbst wenn du die 8800Serie als Ganzes siehst ist diese gerade mal knapp über 1 jahr alt.
 
Würde auf grund der Kosten und Leistungsaufnahme zwar nie ein 3 Way SLI System kaufen, jedoch bin ich sehr überrascht wie gut es skaliert, mit sehr starker CPU kann man in vielen Spielen eine verdopplung bis hin zu einer verdreifachung der FPS erreichen, in hohen auflösungen wohlgemerkt. So ist Bioshock in DX10 mit 2560x1600 und 16xAF fast exakt 3x so schnell als eine einzelkarte, ich finde da wurde an Treiber und Spielesupport ordentlich gearbeitet, ich denke, dass sich mit zukünftigen Treibern in mehreren Games verbesserungen einstellen sollten.
 
Als Speicher kommen zwei jeweils ein Gigabyte große DDR2-Riegel von Cellshock zum Einsatz, die mit 1000 MHz sowie den Timings von 4-4-4-4 betrieben werden.
hehe 4-4-4-12 wäre wohl ehr richtig oder?
Schön Technik aber wie schon des öfteren gesagt wurde viel zu teuer und zu hoher strom verbrauch. Wenn ich das Geld für so ein sys hätte dann würde ich mir dazu auch noch ne Wasserkühlung kaufen und mich nicht darauf verlassen das die 3 diccht gequetschten Karten kühl bleiben. zwar sind 100°C und mehr für die GPU kein problem aber ich möchte ja schließlich ein normales Zimmer haben und keine Sauna und mal ehrlich, wer das Geld für sone Maschine hat, dwem tut die WaKü auch nicht weh.
 
Zuletzt bearbeitet:
Der ganze Krempel noch unter WaKü und ich hab ein neues Lebensziel :freak: :D Meine Herrn - dafür brauchts nen Mora und noch 2 Tripple Radis um das unter Kontrolle zu halten :eek:
 
Realsmasher schrieb:
@ Blutschlumpf :

Wo ist das Problem dabei ?

zum Zeitpunkt x wird Frame 1 in Auftrag gegeben.

sobald 50% davon fertig sind gibts aktuelle infos von der cpu(sie muss diese natürlich haben !) und dann kommt frame 2 von der anderen gpu.

Das ist nichts anderes als wenn eine graka doppelt so schnell wäre, die bräuchte dann nämlich genauso viele Infos von der CPU.
Lies dir meinen Post dochmal genau durch!
Das ganze funktioniert imo nur wenn jede Karte alleine 30fps schafft, sonst kann der von mir beschriebene Effekt auftreten.
Wenn ne einzelkarte 30fps schafft ist Tripple-SLI eh unnütz.
 
Danke CB!
Habt Wort gehalten und die Mikroruckler mit reingebracht, sehr gut!
Werd mir den Artikel jetzt mal verinnerlichen.
 
Zu wenig Vram.
Zu wenig Multicoreunterstützung der Spiele.
Zu viel Verwaltungsaufwand um die Frames im selben Zeitabstand auf den Schirm zu bekommen.

Nicht umsonst kostet ein Nvidia Quadroplex 20.500 Dollar(Zwanzigtausendfünfhundert) wo diese Nachteile zum Teil umgangen werden.
Z.B mit 1,5gb Vram PRO KARTE.
 
Blutschlumpf schrieb:
Lies dir meinen Post dochmal genau durch!

Das hab ich, allerdings versteh ich nicht so recht was du meinst.

Gehst du davon aus, das die karten die Berechnung des Frames zur selben zeit beginnen und nur unterschiedlich fertig werden oder warum müssen bei dir graka 2 und 3 auf veraltete cpu Infos zurückgreifen ?
 
Big Baby Jesus schrieb:
dann lieber die 3870x2. aber die ultra ist doch schon veraltet dann lieber 3x8800gts512 oder von den neureren. ultra ist doch fürn Axxxx

Bei der GTS funktioniert meines Wissens aufgrund des nicht vorhandenen 2. SLI Connectors nur normales SLI (also mit 2 Karten).
 
selbi-elbi schrieb:
.... oder sich gleich ne Playstation 3 kaufen, dort wird ja Crysis demnächst auch veröffentlicht und dann mit erweitertem Inhalt.

Du musst Dich wohl verschrieben haben und meintest "zusammengeschnittener Inhalt" :cool_alt:
 
Zurück
Oben