Test Test: Nvidia 3-Way-SLI („Triple-SLI“)

Wolfgang

Redakteur
Teammitglied
Registriert
Nov. 2002
Beiträge
8.913
Zwei Grafikkarten mit CrossFire oder SLI hieß bisher die Lösung, wenn man mehr Geschwindigkeit wollte, als eine Karte liefern konnte. Nun kommt mit 3-Way-SLI eine dritte Grafikkarte hinzu. Wir haben auf einem Atelco-PC der Spitzenklasse getestet, was Nvidias neue Multi-GPU-Technik zu leisten vermag. Darüber hinaus haben wir uns auch einem generellen Multi-GPU-Problem genauer angenommen, das immer mehr Aufsehen erregt.

Zum Artikel: Test: Nvidia 3-Way-SLI („Triple-SLI“)
 
  • Gefällt mir
Reaktionen: FR3DI
Sehr interessant das auch ATI's Crossfire von den "Microrucklern" betroffen ist und das Problem sich nicht nur auf nVidia beschränkt.
 
Stromverschwendung, Lärmverschmutzung und weinende Kunden (wegen Geldverschwendung, sobald die nächste Grafikkartengeneration raus ist)... das sind wohl unter anderem einige Folgen von Tri-SLI. :D
 
VAP7985 schrieb:
Sehr interessant das auch ATI's Crossfire von den "Microrucklern" betroffen ist und das Problem sich nicht nur auf nVidia beschränkt.

Nicht gleichgültig wird einem Enthusiasten auf jeden Fall das Problem mit den Mikrorucklern sein, die je nach Spiel und Bildwiederholrate auftreten und den Nutzen des teuren Systems von Fall zu Fall durchaus in Frage stellen können. Falls einem die Ruckler auf einem Multi-GPU-System schon nicht negativ aufgefallen sind, werden sie es wohl auch nicht bei 3-Way-SLI tun. Falls aber doch, kann man nur hoffen, dass man die magische 30-FPS-Grenze in den kritischen Spielen deutlich überschreitet (was mit 3-Way-SLI aber in der Regel der Fall sein sollte).

Danke für diese Bemerkungen. Dadurch wurde mir der Frust mit einer X2 erspart
 
Sag das nicht so laut mit den ebenfalls vorhandenen Mikrorucklern bei CF, sonst gibt es wieder ein Sturm der Entrüstung.:)

Finde das Performancerating bei hohen Auflösungen und QualityFiltering relativ beachtlich, dafür das der Treibersupport noch nicht optimal sein kann und auch die Benchmarks mit eingeflossen sind, wo Triple SLI identisch zu SLI performt, also kein Leistungsgewinn.
Denke mal neuere Treiber und auch die neuen 45nm CPU's sollten noch deutlich mehr rausholen können aus Triple SLI.
Fraglich finde ich allerdings Nvidia's Politik, es derzeit auf die guten aber alten G80 GPU's zu begrenzen.
Riecht etwas nach Förderung des Abverkaufs der Lagerbestände.
Die Frage bleibt, ob Triple SLI, bezüglich des Treibersupports mit Erscheinen der neuen High End GPU(s) von Nvidia, das gleiche Schicksal ereilt wie es bei Quad SLI damals war.

Ansonsten schöner, ausführlicher Test.
 
Zuletzt bearbeitet:
Der Stromverbrauch is echt nice :)) - Die Abrechnung möchte ich am Jahresende nicht bekommen ...
 
hama125 schrieb:
Und wozu brauch man das?
Ich dachte, darauf ginge der Artikel ausführlichst ein? :freak:

Zumindest steht das schon auf der ersten Seite.
Einige Leser mögen sich jetzt sicherlich fragen, wer überhaupt solch eine brachiale Rechenleistung benötigt? Worin besteht seine Daseinsberechtigung? Doch wer einen 30-Zoll-TFT mit einer dazugehörigen Auflösung von 2560x1600 Pixeln besitzt und nicht auf Kantenglättung (die trotz gegenläufiger Meinungen auch in dieser Auflösung noch von Nöten ist) verzichten möchte, wird selbst mit zwei GeForce-8800-Ultra-Karten längst nicht immer glücklich. Schon gar nicht in allen modernen Direct3D-10-Spielen. Irgendwo im Niemandsland zwischen eine Grafikkarte reicht und zwei Grafikkarten reichen nicht mehr gibt es also durchaus genug Einsatzzwecke für SLI bzw. CrossFire.
 
realistischen 1161 GFLOPs bis schier wahnsinnigen 1743 GFLOPs pro Sekunde
Also 1743 Milliarden Floating-Point Operations per Second pro Sekunde? Ist das nicht ein wenig doppelt gemoppelt ^^



Trotzdem schade das der Kram nur unter Vista funzt :/ Verschenkt nochmal Kundschaft.

René Fröleke, Technischer PR-Manager bei AMD, hat uns bis jetzt immerhin eine kleine Vermutung zu diesem Probleme gegeben.

hier übrigens auch noch ein Fehlerchen ;)
 
Zuletzt bearbeitet:
1.) Wer sagt denn, dass die Zocker, die sich die Karte kaufen, sonst nichts machen z.B. Distributed Computing oder Filesharing, wo der Rechner 24h am Tag läuft. Dann kommt es eher mehr auf die idle Werte an, als auf die 5h, die man am Tag zockt. Es ist leider so, desto mehr man Geld verdient, um sie in den PC zu stecken, desto weniger Zeit hat man, die Hardware auch zu nutzen.

2.) Wäre es vielleicht noch irgendwie möglich, aus den Werten bei den Mikrorucklern eine Grafik zu machen mit der Zeit pro Frame. Dadurch würde man es gleich sehr viel besser sehen.
 
Ein guter Test der zeigt das Tripple SLI eine interessante Technologie ist, aber im Moment noch zu wenig bringt. Außer vielleicht hohen Temperaturen, höherer Lautstärke und hohen Stromkosten. Für Leute mit sehr großen Bildschirmen und dicken Geldbeuteln ist sie sicherlich wesentlich interessanter als für Leute die nur mit 17"-22" Bildschirmen spielen. Zu den drei Grafikkarten kommt zudem noch der kauf eines neuen Mainboards, das drei PCIe 16x Slots hat, und ein neues, starkes und teures Netzteil. Vielleicht finden die 1000 Watt Netzteile jetzt doch endlich mal eine Verwendung ^^
 
Das ist ja krankhaft, was sowas an Strom schluckt. Dann taugt die Technik offentsichtlich nichts, man schlägt sich mit den üblichen nervigen Multi-GPU Problemen herum und muss auch noch Vista benutzen. Dann muss noch ein entsprechender Bildschirm und ein 4 GHz Core2Duo her ... ganz toll.

Aber Crysis läuft in 1280*720 mit 2xFSAA/16xAF bei "high" endlich richtig flüssig - wer über 2000€ hat, greift zu :freak:

cYa
 
In Stalker sind die Frametimes mit zwei Grafikkarten zwar nicht mehr ganz so gleichmäßig, allerdings sind die Differenzen minimal. So schwanken die Abstände immer im Bereich von 30 bis 35 Millisekunden, was im Spielverlauf aber nicht negativ auffällt. Stalker ist also eines der Spiele, in denen das Ruckeln trotz ausreichend hoher Anzahl an Bildern pro Sekunde nicht existiert.
Gemeint ist sicherlich, dass Stalker eines der Spiele ist, bei denen keine Mikroruckler auftreten selbst wenn sich die Bildwiederholrate im kritischen Bereich um 30fps befindet. Bei hoher Framerate ist es ja unabhängig vom Spiel ohnehin nicht wahrnehmbar.

Danke, dass ihr dem Thema eine ganze Seite gewidmet habt, ich hoffe der öffentliche Druck wird wachsen und beide Hersteller bald eine Art "V-Sync für Multi-GPU" im Treiber anbieten, gern unter griffigem Marketingnamen :)
 
@y33H@: da warte ich doch lieber auf die nächste bzw. übernächste Generation, die dann mit einer Grafikkarte Crysis flüssig auf MAX. darstellen kann.
 
Zuletzt bearbeitet:
wie teur ist der PC? 5k=
 
Schade, kein Preis-Leistungs-Diagramm :p

Das mit den microruckler ist ein rein temporäres Problem.

Demnächst erscheint ein Treiber der die Berechnungsabstände je nach fps anpassen kann und fertig.
 
Endlich hat mans geschafft, die Leistung einer Karte wurde verdoppelt!!! (man braucht nur 3 Karten)

Mal von der Leistung abgesehen hats nichts besonderes, wenn einer sowas braucht um anzugeben soll er sich es holen, aber ich finde ATI und NV gehen mit solchen Lösungen komplett in die Falsche Richtung!
 

Ähnliche Themen

Zurück
Oben