Leserartikel GTX 480 SLI als erste Multi GPU Begegnung, Fluch oder Segen?

  • Ersteller Ersteller Ron Reviewt
  • Erstellt am Erstellt am
R

Ron Reviewt

Gast
Hallo Community!

Intro:
Viele von Euch stellen sich sicher die gleiche Frage wie auch ich vor ein paar Monaten: "Neue GPU oder erstmal eine eventuell kostengünstige zweite Grafikkarte via SLI bzw. Crossfire nachrüsten."

innen6sjseo.jpg

In unzähligen threads wird über möglichen Sinn und Unsinn solcher Systeme diskutiert, meist aber ohne jegliche Grundlage einer eigenen Erfahrung, welche ja mitunter zu der Besten respektive Schlechtesten gehören kann.

Grundlage dieses Threads:
Dahingehend wollte ich mich selbst mit diesem Thema auseinandersetzen und Euch meine erste Multi GPU Begegnung schildern. Dieser Thread könnte künftige Multi GPU Aspiranten in ihrere Entscheidungsfindung unterstützen und sollte ausdrücklich keine Grundlage einer Multi GPU Flameveranstaltung darstellen. Diesbezüglich werde ich versuchen meine Ersterfahrung nüchtern formuliert auf den Punkt zu bringen.

Intention hinsichtlich meines Upgrades:

In erster Linie höhere fps Raten bei gleichbleibender/bessere Bildqualität. Dahingehend beispielsweise SGSSAA und/oder Downsampling entsprechend zu nutzen. Weiters sollen Shooter ala BF3, Crysis 1+2 o.ä. @max am VSync Limit von 60 fps betrieben werden können.
In weiterer Folge steht ein geplantes Monitorupgrade (Asus VG278h, 27"-120 Hz) in Verbindung mit Nvidia 3D Vision 2 im Raum.

Peripherie vor dem Upgrade:
Als Basis meines Systems steht ein Sockel 1156 Gigabyte UD4 ATX Mainboard @ I7 860 Prozessor (Scythe Mugen 3 gekühlt) und 8 GB DDR3 RAM. Dies wird in einem Standard Coolermaster HAF 922 Tower (Midi groß) betrieben. Caselüfter 1*220 vorne, 1*220 in der Decke und 1*120 hinten oben.

Als Stromquelle dient ein Bequiet P9-750 Watt welches alle Komponenten einschließlich der vorhandenen GTX 480 AMP! versorgt. Als Partnerkarte wurde eine RMA neue GTX 480 Point of View (Referenzkühlung) angeschafft.

Herausforderung Platz:
Ein standardmäßiges ATX Board ist bekanntermaßen klein. Die Herausforderung bestand nun darin eine 5,5 cm dicke Triple Slot GTX 480 AMP! und die etwa 3,5 cm hohe GTX 480 Referenz unterzubringen und noch einen PCI Slot für meine Soundkarte freizuhalten.

Damit dies möglich war musste ich den alleruntersten PCI Slot mit der Soundkarte belegen, darüber die GTX 480 Referenz und oben die 480 AMP! mit dem 5,5 cm hohen Triple Slot Kühler. Der Abstand der beiden GPUs geht dahingehend gegen Null. Ein Finger passt sozusagen nicht mehr dazwischen.

Herausforderung Wärmeentwicklung, Lautstärke, Stromverbrauch:


case1_bearbeitet6rkdc.jpg

Eine GTX 480 ist bekanntlich ja kein kühler Kopf, zwei davon natürlich noch viel weniger. Hier stand ich erstmal vor einer erwarteten Herausforderung. Die unten eingebaute Referenzkarte verhielt sich @ 3D erstaunlicherweise unauffällig (80-85 Grad @ 55-60% Lüfterdrehzahl).

Probleme bereitete die darüber verbaute GTX 480 AMP! Diese hatte einfach keinen Platz zum Atmen auf Grund des quasi nicht vorhandenen Abstand zur Partnerkarte, deren Wärmestrahlung und meiner Gehäusebelüftung. Mit gut 90-95 Grad bei maximaler Lüfterdrehzahl war die GTX 480 AMP! nicht wiederzuerkennen.

Das Problem konnte ich schlagartig entschärfen indem ich einen 120 mm Seitenlüfter installierte. Der dadurch entstehende Luftstrom reichte aus um der ganzen Sache eine völlig neue Charakteristik zu geben. Bei unauffälligen via Lüftersteuerung eingestellten 1000 U/min des Seitenlüfters kann die GTX 480 AMP! nun atmen, Thema Hitzestau erledigt. Temps @ 3D der AMP! nun bei 80-85 Grad bei etwa 55% Lüfterdrehzahl.

Lautstärke des SYS @ IDLE unhörbar. Lüfterdrehzahl der Karten via Afterburner auf 30% gefixt, GPU Temps dabei zwischen 45-50 Grad.

Als zusätzliche Sicherheitsmaßnahme habe ich dann einen zweiten 120er Seitenlüfter montiert. @3D ist jetzt ein unaufdringliches Rauschen der Karten bei 55-60% Lüfterdrehzal vernehmbar, von aufdringlichem Turbinensound aber keine Rede mehr.

Der Stromverbrauch meines SYS (kompletter PC) beträgt nun etwa 130 Watt im Idle und GPU auslastungsabhängig @ 3D zwischen 450 bis maximal 550 Watt.

Ergebnis fps Performance:
Getestet wurden bisher allübliche Spiele wie Crysis 1-2, BF3, Saints Row 3, Alan Wake und was ich halt sonst noch so rumliegen habe.

Ich beziehe mich jetzt mal auf BF3 da dies für 90% aller user wohl sehr relevant ist, warum auch immer, aber dies soll jetzt nicht zur Diskussion stehen.
Das Spielerlebnis ist im Vergleich zur Single GPU Lösung nun auf völlig neuem Niveau. Bis dato musste ich @ Ultra, 4*MSAA immer wieder störende fps drops auf 30-35 hinnehmen. Max fps waren so um die 50. @SLI hängt die Performance jetzt endlich am erwünschten VSync Limit von 60 fps. Keine Drops mehr und die Karten skalieren in Sachen GPU Usage wunderbar. Gleiches gilt für Crysis 2 @ DX11, Texturpack und MSAA.

Mikroruckler:
Bis dato keine für mein Auge erkennbare. Ich selbst bezeichne mich als rucklerempfindlich. Wenn in schnellen Shootern und Rennspielen mal was droppt bin ich richtig pingelig und empfinde das sofort als störend. BF3 läuft @ SLI dermaßen glattgebügelt dass erstmal Verwunderung auftrat. Ich habe mit schnellen Drehungen und vielen Bewegungen mit Seitschritten versucht etwaige Ruckler auszumachen, Fehlanzeige.

In Crysis 2 fällt mir @ 60 fps ein leichte Tearing auf. Ich habe dann den fps Limiter via NVInspector auf 55 fps gestellt und somit wurde diese Problem gelöst.

Andere games bis dato problemlos. Bei Alan Wake ist mir aufgefallen dass die GPU Auslastung etwas unterschiedlich ausfällt. GPU1 80%, GPU2 30%. Dies tut einem flüssigen Spielerlebnis @ 60 fps aber keinen Abbruch.

Fazit:
Viel darüber gelesen, oftmals darüber nachgedacht und endlich mal selbst probiert.
Sind die anfänglichen Hürden (Platz, Wärmeentwicklung o.ä.) erstmal überwunden steht einem zufriedenstellendem Spielerlebnis aus meiner Sicht nichts mehr im Wege.
Ich bin von dem Ergebnis positiv überrascht.

Nach wie vor stellt eine Single GPU Lösung die unkompliziertere SYS Konfiguration dar, aber ein Hobby hat man halt um auch mal etwas Neues auszuprobieren oder um ein wenig rumzutüfteln.

Schlusswort:
Ich habe versucht meine Erfahrungen neutral und ungeschminkt weiterzugeben.
Bitte verbasht diesen Thread nicht mit Sinn- oder Sinnlosflamerei!
Der Thread soll als kleine Unterstützung von Multi GPU Aspiranten/Usern im Raum stehen und dahingehend Diskussionsplattform sein.

Fragen und Anmerkungen in produktiver Weise erwünscht.
Ich bedanke mich fürs Lesen,
mfg ronrebell.

Edit / Ergänzungen:

Weiter Screenshots ergänzt. Benchmarkscreen zeigt BF3 @ pcgh Benchmarkrun Operation Swordbreaker im Vergleich Multi GPU vs. Single GPU.

Da einige von Euch Interesse an reinen Benchmarkpunkten haben wurde ein 3D Mark 11 Run ausgeführt. @ Single GPU lagen damals etwa 5700 Punkte insgesamt an.

Ich habe jetzt beide GPUs sehr moderat um jeweils 0,05 V undervoltet.
Die GTX 480 AMP! 1,075 --> 1,025 und die Referenz 480 von 1,088 --> 1,038.
Der Stromverbrauch hat sich jetzt hinsichtlich des oben angegebenen Wertes um etwa 50 Watt veringert.
Bei einer durchschnittlichen GPU Usage von je 80% @ 3D liegen jetzt etwa 410 Watt für das gesamte SYS an.
 

Anhänge

  • Innen_1.jpg
    Innen_1.jpg
    244,1 KB · Aufrufe: 2.820
  • Innen_2.jpg
    Innen_2.jpg
    194,5 KB · Aufrufe: 2.533
  • Aussen_1.jpg
    Aussen_1.jpg
    134,5 KB · Aufrufe: 2.386
  • bf3_2012_07_14_12_14_11_054.jpg
    bf3_2012_07_14_12_14_11_054.jpg
    91,2 KB · Aufrufe: 2.262
  • Crysis2_2012_07_14_15_13_31_525.jpg
    Crysis2_2012_07_14_15_13_31_525.jpg
    169,6 KB · Aufrufe: 2.285
  • Screenshot Benchmarkrun BF3.jpg
    Screenshot Benchmarkrun BF3.jpg
    154,3 KB · Aufrufe: 2.317
  • BF3 Benchmark.jpg
    BF3 Benchmark.jpg
    120,1 KB · Aufrufe: 2.277
  • BF3 Benchmark @  Single GTX 480.jpg
    BF3 Benchmark @ Single GTX 480.jpg
    47,2 KB · Aufrufe: 2.222
  • Settings.jpg
    Settings.jpg
    204,7 KB · Aufrufe: 2.258
  • 3D Mark 11 @ 756_700.jpg
    3D Mark 11 @ 756_700.jpg
    193,6 KB · Aufrufe: 2.240
Zuletzt bearbeitet von einem Moderator: (Textedit)
Toller Bericht! :daumen:

ganz ehrlich, ich hab jetzt voll bock auf SLI bekommen! :D
ich warte eigentlich noch auf eine Single GPU die doppelt so viele FPS als eine GTX 580 liefert, damit ich "jedes" spiel Downsampeln (3360x2100@60Hz) kann. nach deinen Erfahrungsbericht spiele ich nun mit dem gedanken mir auch 2 NVIDIA Grafikkarten zuzulegen, die frage ist nur welche!? Hmm...

Edit: ich hatte vor kurzem auch eine GTX 480 (Gainward), hab die aber leider schon verkauft! :freak:
 
Zuletzt bearbeitet:
meine 670 windforce 3 hängt bei bf 3 auch bei 60fps ist unhörbar und braucht einen bruchteil vom strom. hatte mal 480 sli war aber eher schlecht da zb bei crysis bei manchen stellen im game drops von 60 auf 30fps hatte und war daher komplett sinnlos. hatte dann beide verkauft und eine 580 gekauft und war zufriedener als vorher;)
Ergänzung ()

muss jeder selber entscheiden aber der stromverbrauch bleibt trotzdem pervers
Ergänzung ()

@simplex mit 1500mb kannst nicht wirklich downsampeln

meinje 670 hat bei skyrim mit ein paar mods und 2400x1350 durchgehend über 2000mb auslastung

und bei 115€ kann man nicht nein sagen



trotzdem sehr schön gemacht
Ergänzung ()

@simplex keine gpu schafft 1900mhz:D alter eine onboard gpu mit 1900mhz respekt
 
Zuletzt bearbeitet:
@ RazrGTX
Oboard GPUs lassen sich verdammt hoch takten. 1900mhz sind bei der Intel Onboard GPU durchaus möglich. Die erste GPU die unter Luftkühlung die Ghz-Marke durchbrochen hat war afaik auch die Radeon HD 3200 OnBoard GPU.

@ Topic
Schöner Test.
 
Schöner Test, danke dafür :)
SLI ist nicht so "schlimm" wie viele immer tun, im Gegenteil. Schön, dass du den Schritt gewagt hat und zufrieden bist.
 
Vielen Dank für Eure Rückmeldungen.

Im Eröffnungsthread habe ich Screenshots von BF3@Ultra+4*MSAA und Crysis 2 @Max, DX11, Texturpack und MSAA angefügt.

Die GPU Werte von links nach rechts beduten: GPU Temperatur | GPU Auslastung | Lüfterdrehzahl | Taktfrequenz

@RazerGTX:
Hinsichtlich einer GTX 670 habe ich auch schon überlegt. Die Leistung liegt bei dieser Karte etwa 25 % über meiner werksübertakteten GTX 480 AMP! (Leistungniveau GTX 570 + 3%).
Quelle:https://www.computerbase.de/2012-05/test-nvidia-geforce-gtx-670/4/
Damit wäre ich @ meinen settings fernab von stabilen 60 fps @ BF3 ---> wie gesagt, mit meinen settings!
Für 25% Mehrleistung wäre mir eine Investition von etwa 250,- Aufpreis ggü. der GTX 480 AMP! zu wenig gewesen, darum dann die Entscheidung hinsichtlich der SLI Lösung.
 
Zuletzt bearbeitet von einem Moderator:
Huhu ronrebell,

schöner Test mit deinem SLI ;)
Überlege mir selber ob ich mir eine GTX570 zum Testen und Spaßhalber einbau wenn die noch billiger werden. (SLI wollte ich immer mal ausprobieren :D )

Was mir aber gerade aufgefallen ist an deinen Screens Ingame das die Grafikkarten unterschiedliche Core- Taktungen haben.

Ich war immer der Meinung die müssten beide angepasst werden bzw. es wird sich an der langsamsten orientiert? Scheint ja nicht der Fall zu sein bzw. mir ist das neu. :freak:
Geht das seit neustem?


Grüße JSF
 
@JSF: Ja, bzgl. der Taktungen war ich bis vor kurzem derselben Meinung wie du.

Mit Verwunderung habe ich aber festgestellt dass die AMP! weiterhin mit den werksübertakteten Raten arbeitet, denn auch Shader und Memoryclock fahren schön brav mit 1512 und 1900 Mhz weiter, bleiben also trotz SLI unbeeindruckt von den niedrigeren Taktungen der Refernzkarte.

Die Referenz 480er macht ihre üblichen 700/1400/1848.
 
Zuletzt bearbeitet von einem Moderator:
Stellst du einen Performanceunterschied fest, wenn du die Taktraten der AMP! anpasst?
 
Puh, wir schwierig festzustellen sein.
Die Werksübertaktung bringt ja nur etwas mehr als 6% ggü. der Referenz.
Ich werd die nächste Zeit noch einiges benchen und mal sehen ob sich da etwas rauslesen lässt.
 
Nein, undervolten bzw. übervolten mache ich eigentlich prinzipiell nicht, da ich im Fall der Fälle keinen Garantieverlust in Kauf nehmen möchte.

Hier ein Screenshot @ BF3 beim Benchmarkrun. GPU Usage je +80%, also fast auf Anschlag. Bild zeigt komplettes SYS, da muss aber noch 40 Watt für den Moni abgezogen werden --> also summa summarum liegen dann etwa 460 Watt an.

Benchmarkrun BF3 mit screenshots im Threadstarter ergänzt.
Es handelt sich hier um die pcgh Benchmarkszene Operation Swordbreaker, alles max +4*MSAA in einem 4 minütigen Benchmarkrun @ Vsync 60 fps on.
 

Anhänge

  • Stromverbrauch komplettes SYS @BF3 GPU Usage +80%.jpg
    Stromverbrauch komplettes SYS @BF3 GPU Usage +80%.jpg
    428,7 KB · Aufrufe: 2.033
Zunächst möchte ich sagen, dass ich den Test gelungen finde!
Mich persönlich würde interessieren, auf welchem Takt dein i7 860 läuft. Ich könnte mir vorstellen, dass du teilweise (BF3 Multiplayer 64-Mann) in ein CPU-Limit gerätst.

Ich habe bis vor kurzem ein SLI-Gespann aus zwei GTX 580ern, bei einer Auflösung von 1920*1080 gefahren, und habe gemerkt, dass selbst mit dieser Power in einer mittlerweile nicht mehr besonders hohen Auflösung und ohne spezielle Mods oder Downsampling die Karten noch gut ans Limit gebracht werden können. Beispiele wären da z.B. Crysis und Crysis Warhead, wo in den Eislevels die Framerate bei heftiger Action unterhalb der Vsync-Grenze fällt.

Auch Just Cause 2 mit aktivierem Physx (GPU Wasser) ist sehr fordernd und kann deine Karten in gewissen Szenen unterhalb von 60 FPS bringen.

Bei dir im BF3-Screenshot ist auch zu erkennen, dass deine Karten schon gut am Maximum laufen (GPU-Usage betrachtet), obwohl nicht zwingend die allerintensivste Szene vorliegt. In intensiven Gefechten wirst du sicherlich noch den ein oder anderen Framedrop erleben, denn selbst meine beiden GTX 580er liefen dann teilweise auf über 90% Usage.


SLI ist auf jeden Fall lohnenswert, aber man brauch auch extreme Power, um die 60 FPS wirklich konsequent halten zu können. 2 GTX 480er oder auch zwei 580er reichen natürlich in 90% der Fälle, aber selbst in Full-HD kann es da noch zu Einbrüchen kommen, gerade weil der VRAM etwas an der Grenze läuft.
 
Teste doch mal die "Problematischen" Sachen.

Siedler7, Age of Conan, Rage, Borderlands, X-Plane (fallen mir so auf Anhieb ein) :-)
 
Der I7 860 wurde gerade erst verbaut und läuft noch @ stock. D.h. es liegen mit dem Auto OC um die 3,2 GHZ an.

@BF3 Multi wirds dann diesbezüglich sicher enger.Damit hast du vollkommen recht. Das hab ich mit meinem Q9550 und nur einer GTX480 schon leicht nachvollziehen können, bzw. war dort die Auslastung GPU/CPU etwa 100%/80% auf ner vollen 64er Map verteilt.

Sobald sich die SLI Geschichte gut eingespielt hat wird seitens der CPU ein OC im Bereich von 3,8-4,0 Ghz angepeilt.

@Hisn: Von deinen erwähnten Spielen besitze ich nur Rage. Das habe ich damals mit meinen settings mit nur einer GPU problemlos am 60 fps Vsync Limit halten können da dies ja äußerst sparsam mit Ressourcen seitens der GPU umgeht.
Den Grund eines SLI Systems also an Rage dingfest zu machen in meinem Fall ergo sinnfrei.
 
Zuletzt bearbeitet von einem Moderator:
Dann ist Dein Monitor nicht groß genug. Mit einer GTX590 hab ich damals gerade 30 FPS hinbekommen, weil die 2. GPU nicht mitlief :-)



Aber das ist eine der Sachen auf die ich immer hinauswill. Es ist IMMER von der eigenen Software und den angelegten Settings abhängig ob SLI Punkte bringt oder nicht.
Und wenn ich gerade wie ein Bekloppter AOC zocke, und mich freue wie ein Tier, weil es in 2560x1600 oder höher nur sauschlechte FPS gibt und ich jetzt endlich meine 2. Graka bekomme, und dann gar nix mehr geht .. dann ist das Ultra-Frustrierend (zwei mal ca. 50% auf den Karten bedeutet: Eine Karte läuft, falls man es nicht sofort erkennt).

Wenn Borderlands trotz 60 FPS vsync plötzlich Ruckelt wie ein Daumenkino, wenn Dead Island zur Diashow wird, wenn Siedler7 auf nicht mehr als 30 FPS zu bekommen ist. Wenn es Monatelang kein Profil für BF2 gibt. Dann nervt das.

Wer natürlich die Games nicht hat .... der hats gut getroffen :-)




Ich meine es reicht ja wenn Nvidia in seinen Profilen ein Tipfehler drinne hat (was auch häufiger vorkommt), und schon läuft die 2. GPU nicht mit (Aces ... verdammt wie hieß das ...).


Kleine Sammlung was mir als langer SLI-User schon alles untergekommen ist. Soll jetzt Deinen Test nicht schmälern, danke dafür und die Mühe die Du Dir gemacht hast.
 
Zuletzt bearbeitet:
@HISN: Bitte, hab ich gerne gemacht und will einer tollen Community auch mal etwas zurückgeben.

Wie du sagtest, immer eine Sache der eigenen Settings und Anwendungen.
Dass mir irgendwann mal eventuell das eine oder andere Treiber Problem unterkommt ist mir aber natürlich bewusst.

Was gerade neue games und oft fehlende Profile anbelangt bin ich da eher auf der sicheren Seite.
Ich spiele generell erst games monatelang nach dem Release zum Schleuderpreis. Vollpreise werden von mir so gut wie nie bezahlt. Natürlich hast du Recht dass es auch Spiele gibt bei denen nie ein entsprechendes Profil nachgereicht wird.
 
Zuletzt bearbeitet von einem Moderator:
...auch ich möchte mich für deinen schönen Bericht bedanken denn es steht eine Entscheidung an.
a. ich lege mir eine weitere asus 470Gtx zu. Nachteile: Bis vor ein paar Monate hat diese Karte noch
330€ gekostet, das heisst es gibt einfach keine günstige gebrauchte (Amazon 220€).
b. ich kaufe mir die die 670gtx von Asus. Nachteil: ich müsste meine 470er verkaufen und es ist
mir ehrlich gesagt zu schade das Teil für ein paar Dollar auf ebay zu verramschen.

Für mich ein echtes Dilemma da ich eigentlich noch seehr zufrieden mit meiner Grafik bin. Wer kennt das nicht immer mehr zu wollen wie man gerade hat.
Allzulange möchte ich aber diese Entscheidung nicht mehr aufschieben da ich sonst wirklich nichts mehr für
meine 470er bekomme.
 
boxleitnerb schrieb:
Stellst du einen Performanceunterschied fest, wenn du die Taktraten der AMP! anpasst?

So, ich habe gestern diesbezüglich nochmal nachgetestet wies denn hinsichtlich der Taktraten wirklich aussieht.

Ich glaube deine Frage bezog sich darauf, ob denn die 480 AMP! wirklich mit anderen Taktraten trotz SLI Verbund laufen kann als die Referenz. Habe ich das richtig verstanden?

Diesbezüglich scheint das wirklich so der Fall zu sein. Ich habe via Afterburner die Taktraten der AMP! mal auf Referenz Niveau reduziert und gleichzeitig die Spannung um 0,05V nach unten gesetzt.

Das hatte die Folge einer Temperaturverbesserung der AMP! und im OSD wurde diese dann auch mit den selben Taktraten ausgelesen wie die Referenzkarte.

Edit:

Aja, ist mir grad eingefallen. Ich könnte noch so einen Schwxxxmarktest durchlaufen lassen. 3D Mark 11 glaub ich heißt der. Damit könnte ich dann anhand der Punkte erkennen ob die Taktraten 1:1 stimmen bzw. die AMP! wirklich mit der Werksübertaktung läuft, oder sich dann doch auf die Referenzwerte anpasst und die Werte falsch ausgelesen werden --> werde ich heute noch nachreichen und 756/700 bzw. 700/700 gegenüberstellen.
 
Zuletzt bearbeitet von einem Moderator: (Ergänzung Text)
ronrebel @ it's best ... :daumen:


schöner, schmackhafter, eingängiger erfahrungsbericht ... N1 !
hattest du nicht letztens (glaube ~6monate ) auch einen guide zum inspector geschrieben ?
fleißig, fleißig & macht lust auf mehr. ^^

bist aber schon ein grafik-feti ... so ein sli-gespann @ 1650 hat halt mal schon reserven satt. ;)
da komme ich doch glatt ins grübeln ... ich könnte doch mal "baby-sli" fahren.
so für ~40€ noch ne 460'er ? ... hmm. ^^
naja ... das canceln wir wieder ... mein letztes SLI-Setup war noch von den pionieren ... 3DfX !

das gespann damals ... V2 12MB-EDO mit max. res. 1024*786 stampfte alles in den boden. ^^
schau mer mal was die zukunft noch so bringt ... :)
 
Zurück
Oben