Leserartikel GTX 480 SLI als erste Multi GPU Begegnung, Fluch oder Segen?

  • Ersteller Ersteller Ron Reviewt
  • Erstellt am Erstellt am
@SuddenDeathStgt: Thx ;-).

Bei deinen 3DfX Schilderungen kommt mir jetzt der Gedanke dass du auch schon so ein alter "knapp an dem 40iger Nager" wie ich sein musst. *lol*

Ja, mit dem Grafiktweaking Guide hast du Recht. Der ging aber glaub ich mit nur 6 postings derbe in der Versenkung unter.

Edit: Gutes Gedächtnis übrigens ... hier nochmal zum Nachlesen:
https://www.computerbase.de/forum/threads/high-end-gpu-am-anschlag-downsampling-und-co.977539/

Nunja, mit den 1680*1050 hast du Recht. Meine Nvidia Inspector SGSSAA/Downsampling Verbundenheit übersteigt aber selbst bei dieser Miniauflösung oftmals die Grenzen meiner Single GPU 480er.

Wie im Eröffnungsthread beschrieben ist in näherer Zukunft ein 27 Zöller ala Asus VG278h -120 Hz angedacht und damit sollen dann noch vernünftige fps Raten @ 3D Vision 2 herauskommen. Mir wird jetzt schon ganz übel wenn ich daran denke ;-)
 
Zuletzt bearbeitet von einem Moderator: (Textedit)
Ich weiß noch ganz genau mein erstes und gleichzeitig letztes GPU- Gespann aus zwei 4870 1 GB. Sind nach 12 (!) Stunden sofort wieder rausgeflogen. Die Abwärme, die Lautstärke, der Ärger mit Treibern und Profilen und vielen einfach nicht unterstützten Spielen wars mir dann doch nicht wert. Glaube unter Last hatte ich beim Zocken an die 500 Watt verbraten, trotz zwei Scythe Musashi wär der Lärm brutal (mussten beide auf 100 % laufen um die Karten unter 100 °C zu halten) und bei der Abwärme wäre mir fast das Plastik am Gehäuse weggeschmolzen (Achtung, Übertreibung ;)). Hab dann beide Karten verkauft und bin dann auf eine einzelne 5870 umgestiegen, die immer noch die Geschwindigkeit der beiden 4870er hatte. Da galt das Sprichwort der schnelleren Next-Gen-Single-GPU noch, kann ja heute leider nicht mehr die Rede von sein ;)
 
Ja Leute, da gibts natürlich nichts zu beschönigen und ich gebe euch Recht. Bin aus dem Alter raus mir irgendwelche Sachen schönreden geschweige denn meine Hardware verteidigen zu müssen.

Dahingehend betrachte ich die Sache natürlich wieder einmal anwendungsabhängig, überprüfe also wie die Sache in genau meiner Situation gelagert ist:

Aus Zeitgründen läuft mein Rechenknecht @3D im Jahresschnitt etwa 5 Stunden pro Woche.
Gibt auch mal ne Woche wo 10 Stunden Zeit zum daddeln ist, aber eher selten. Dann mal wieder 2 Wochen wo gar keine Zeit/Lust für gaming ist und die Kiste 14 Tage lang nicht angeschmissen wird.

--> Darum wie oben erwähnt etwa 5 Stunden/Woche 3D Betrieb.

Nehm ich jetzt ein aktuelles GTX680 OC Komplett SYS in Betrieb und erspare mir um die 200 Watt, dann summierte sich das auf genau eine KWh (Kilowattstunde) pro Woche auf. Diese kostet etwa 20 Cent.

Alles andere ist Milchmädchenrechnung auf Grundschulniveau: Bei meinem Anwendungsprofil 20 Cent pro Woche x 52 Wochen = Euro 10,40 pro Jahr an Mehrkosten hinsichtlich eines um 200 Watt sparsameren SYS.

Selbst die Gestehungskosten für die Umrüstung auf eine (OC-) 680er hättest Du dank der gegenüber 480SLI ganz erheblichen Stromersparnis bald wieder drin!
Aus dem zitierten "bald wieder herin" würde sich die Sache bei nem 680 OC upgrade und 300,-, die ich in die Hand nehmen müsste, bei mir in etwa 28,4 Jahren amortisieren.

Klar sollte sich jeder bewusst machen wie die Sache bei einem selber gelagert ist, Verblendung durch einen kommerzmäßig losgetretenen Hype in puncto Wattzählerei halte ich aber in manchen Lebensbereichen unangebracht.

Das eigene Anwendungsprofil und der nackte Rechenstift bringen diesbezüglich seriösere Aussagen, als so manche gepushte Werbeschiene.

Aber danke trotzdem für Eure diesbezüglichen Stellungnahmen, Hardcore gaming user @ 8 Stunden 3D pro Tag sollten diesen Punkt natürlich berücksichtigen und den Rechenstift/Umweltstift schwingen.

@Heliwriter: Ja, die 5870 hatte ich damals auch. Super Karte. Mein Umstieg auf diese Karte brachte mir damals einen 100% fps Schub. Für einen jetzigen 100% fps Schub @ Single GPU würde ich gerne 300,- in die Hand nehmen, davon kann ich aber derzeit bei +25% (GTX480AMP! --> GTX670) oder +35% (GTX480AMP! --> GTX680) leider nur träumen.

So far und danke für eure postings bisher.
 
Zuletzt bearbeitet von einem Moderator:
Danke für Dein abgewogenes Statement.

Also wenn das so ist mit den 5 h dann verstehe ich Dich und wenn Dich die Lautheit wirklich nicht stört und da Du das thermal management ja gut im Griff hast, keine MR wahr nimmst -- interessant, auch mal von jemandem zu hören, der richtig im Reinen ist mit seinem SLI.
 
@dodelein: Ja klar, soll ja ein möglichst neutraler und unbeschönigter Diskussionsthread bleiben.

Ergänzung/Aufschlüsse hinsichtlich der unterschiedlichen Taktraten beider Karten:

Wie bereits erwähnt laufen beide GPUs mit von Haus aus unterschiedlichen Taktraten.
Die GTX 480 Referenz mit 700/1400/1844 und die werksübertaktete GTX 480 AMP mit 756/1512/1900.

Dies konnte man ja auch anhand der ingame Screenshots nachvollziehen, es scheint also dass sich eben die höher getaktete Karte entgegen meiner bisherigen Meinung NICHT der "langsamern" Karte anpasst.

Ich habe jetzt einmal via MSI Afterburner die Taktraten der GTX 480 AMP! an die Referenz GTX 480 angepasst und gleichzeitig den VCore der AMP! von 1,075 V auf 1,038 V runtergeschraubt. Man kann dies ja bewerkstelligen indem man im Tool einfach GPU1 oder GPU2 anwählt und die jeweilige Karte entsprechend konfiguriert.

Danach ist mir sofort aufgefallen dass die Refernz GTX 480 die exakt gleichen Werte (auch den VCore von 1,038 V) übernommen hat.

Es ist also NICHT möglich die Karten einzeln anzupassen, die neue Konfiguration wird mit dem klick auf Apply sozusagen 1:1 auf beide Karten angewandt.


--> EDIT: Blödsinn, habe nur vergessen ein Häckchen rauszumachen ... siehe screenshot Afterburner. Die GPUs können also völlig asynchron entsprechend den jeweiligen Bedürfnissen angepasst werden.

Ich habe jetzt mal 3D Mark 11 gebencht. Einmal mit den Standarttaktraten der jeweiligen Karten. Ein zweites mal mit erzwungenen "equal" (700/700 ...) Taktraten.

Das Ergebnis seht ihr in den Screenshots. Zweitere Variante liegt paar Punkte hinter Variante 1. Ob dies jetzt im Bereich Messtoleranz liegt oder die leichte Untertaktung der AMP! ausmacht kann ich so nicht eroieren.
Ergänzung ()

Ergänzende BF3 Benchmark Screenshots und der 3D Mark 11 Screenshot wurden im Eröffnungsthread hinzugefügt.

@ Stromverbrauch:

Ich habe jetzt beide GPUs sehr moderat um jeweils 0,05 V undervoltet.
Die GTX 480 AMP! 1,075 --> 1,025 und die Referenz 480 von 1,088 --> 1,038.

Der Stromverbrauch hat sich jetzt hinsichtlich des oben angegebenen Wertes um etwa 50 Watt veringert.

Bei einer durchschnittlichen GPU Usage von je 80% @ 3D liegen jetzt etwa 410 Watt für das gesamte SYS an.
 

Anhänge

  • 3D Mark 11 @ 756_700.jpg
    3D Mark 11 @ 756_700.jpg
    193,6 KB · Aufrufe: 545
  • 3D Mark 11 @ 700_700.jpg
    3D Mark 11 @ 700_700.jpg
    197 KB · Aufrufe: 544
  • MSI Afterburner.jpg
    MSI Afterburner.jpg
    78,5 KB · Aufrufe: 556
Zuletzt bearbeitet von einem Moderator:
Hast ja doch noch untervolted :daumen:
Vielen Dank für die weitern Messergebnisse. 50Watt weniger sind nicht zu verachten.
Hab nun auch noch eine zweite gtx480 ergattern können. Die beiden Karten sollten unter Wasser inkl. untervolting sogar noch etwas "sparsamer" sein. Werde dann berichten...
 
Ja, hab mich von der Wattzählerfraktion dann doch noch mal breitschlagen lassen.

Ich muss aber sagen dass diesbezüglich wahrscheinlich noch etwas nach unten ginge und habs nicht maximal ausgelotet. Das überlasse ich dann wirklich den Wattfetis ;-).

Mir ist satte Stabilität einfach nochmal ne Ecke wichtiger und hab das mit diesen settings ordentlich durchgetestet. Speziell Crysis 2 reagiert ja bekanntlich sensibel hinsichtlich solcher Versuche.

Bin aber trotzdem sehr gespannt auf deine Messergebnise, bitte berichte hier in diesem thread darüber.
 
Ich finde gerade dein sehr positives, aber nicht blind für SLI stimmendes Fazit sehr gut, denn durch die früher eher schlechte SLI-Unterstützung, ist eben jene Technik sehr in Verruf geraten.

Seit spätestens Fermi, wie du beweist, ist das aber kompletter Unfug, zumindest in den meisten Fällen. Entsprechende Hardware (CPU) und Treiber vorausgesetzt, liegt die Skalierung eines SLI-Systems mittlerweile bei gut 70% im Schnitt. Wenn man genau die Spiele, die diese Skalierung aufweisen, spielt, dann ist man also mit SLI sehr gut beraten. HISN hat natürlich das andere Extrem aufgewiesen, jedoch ist der Mainstream-SLI-User, der sich das Gespann vor allem wegen Crysis und co. kauft, in der Regel sehr zufrieden.

Was viele unterschätzen oder gar nicht wissen:

Ein Spiel, das mit Vsync gefahren wird, ist so unglaublich viel angenehmer und subjektiv flüssiger als eine, im Volksmund für Single-GPUs, ausreichende Framerate von 40 fps. Wer allerdings einmal mit Vsync gespielt hat, der wird nie mehr ohne spielen mögen. Mit einer Single-GPU ist das oftmals, gerade in den hohen Auflösungen, überhaupt nicht möglich. Erst recht nicht, wenn die BQ zusätzlich gesteigert werden soll.



@Threadersteller:

Anhand deiner 3dMark11-Ergebnisse, kann man sehr gut sehen, dass deine CPU zumindest synthetisch ausbremst. Ich habe rund 1000 Punkte mehr mit einer GTX 670 @ OC und einem 2600k @ OC. Mit meinen GTX 580ern @ OC waren es gar 4000 mehr, obwohl theoretisch nur 15% Mehrleistung von 480 zu 580 zu Buche stehen sollten.
 
Danke für dein Feedback!

Ja, mit der VSync Sache hört man dann nicht mehr auf, wenn man auf den Geschmack gekommen ist.
Die im Threadstarter verglichenen Screenshots bzgl. BF3 @ Single vs. Multi GPU unterstreichen dies.

Mit der CPU hast du natürlich Recht. Gerade in synthtischen Benchmarks kostet dieser Umstand satte Punkte,
im Spielbetrieb @ CPU lastigen games dann natürlich auch entsprechend fps.

Wie bereits erwähnt läuft die gerade erst verbaute CPU noch @ stock (2,83 + Autoturbo).

Diesbezüglich ist der nächste Schritt schon eingeplant. Zielsetzung etwa 3,8 - 4,0 GHZ CPU OC.
Ergebnisse hinsichtlich des Benchmarks werde ich nachreichen.

In Spielen wird der Vergleich diesbezüglich eher marginal ausfallen, da bei mir meist GPU lastige Games über den Bildschirm flimmern.

CPU Killer ala Shogun 2, Anno 2070, Skyrim ... spiele ich nicht, aber wie gesagt:"CPU OC under construction".

mfg
 
@ronrebell

Danke für deinen ausführlichen test, ich wollte alle pros und kontras aus deinem test bestätigen denn ich fahre nun mitlerweile seit fast einem jahr mit einem GTX 570 sli system (gainward phantom OC@ 880mhz).

und bin volkommen zufrieden und kann es jedem weiterempfehlen der seinem system bis zur nächsten graka generation neues leben einhauchen möchte ist mit einer 2ten graka bestens bedient, klar stehen dem der aufwand der betrieben wird einige minuspunkte entgegen, temps verbrauch und lautstärke

wobei sich die temps via wakü oder gutem airflow in den griff bekommen lassen
 
Zuletzt bearbeitet:
@AgentMulder: Danke fürs feedback.

Wie du sagtest sollte man eben die Bereitschaft aufbringen etwas Zeit/ Umbauarbeit zu investieren.
Einfach eine zweite Karte dazustecken und los gehts ist dahingehend einfach suboptimal.

Wenn aber die Peripherie im Vorfeld schon halbwegs ausbaufähig ist, steht einer SLI/CF Lösung aber nichts im Wege.

Mein einziger notwendiger Umbauschritt war wie im Threadstarter schon erwähnt der Seitenlüfter.

Ich habe jetzt Max Payne 3 angezockt. Die SLI Unterstützung funktioniert einwandfrei. Beide Karten skalieren perfekt und laufen schön im Gleichschritt miteinander.

Bei den settings habe ich alles auf max mit FXAA aktiviert und auf 2520*1576 downgesampelt.
Die Karten laufen zwischen 60-95% GPU Auslastung im Gleichschritt und liefern ohne jegliche Framedrops 60 fps @ Vsync.

Keine Mikroruckler, keine Tearingstreifen, einfach toll wenn ein neues game schon dahingehend SLI/CF ready am Start ist.
 
Zuletzt bearbeitet von einem Moderator:
Hast du bei Maxpayne schon Nachladeruckler feststellen können? Gerade mit dem Downsampling sollte teilweise ein VRAM-Verbrauch von 2GB zu messen sein.
 
Bis dato habe ich bei Max Payne 3 noch keine Nachladeruckler festgestellt. Beachte aber dass ich das sparsamere FXAA fahre, da sich der Nutzen von Kantenglättung @ downsampling von 50% pro Achse ja im Prinzip vernachlässigen lässt.
Vram Auslastung bei diesen Settings pendelt laut OSD zwischen 1300 - 1500 MB.

Ich muss aber sagen dass es auch @ nativer Auflösung und unter Verwendung von 4*MSAA dermaßen gut aussieht. Laut pcgh Test soll ja MSAA unverhältnismäßig viel an Leistung fressen --> siehe screenshot.

Das kann ich auch so bestätigen. Bei nativer 1680*1050 Auflösung, welche im Mittel um etwa 10-15% schneller als Full HD läuft (damit man die Benchmarkwerte vergleichen kann), arbeitet das SLI Gespann mit einer Auslastung von 50-99%. Dabei hält es aber die 60 fps am Vsync ohne jegliche drops.

Einen Vram Überlauf konnte ich bisher @ Crysis 2 provozieren. Ziehe ich dort downsampling um 50% pro Achse auf 2520*1576 nach oben und bleibe bei den max settings + MSAA-DX11-Texturpack, dann gibts eindeutige Vram überlastungsbedingte 14 fps Diashow.
 

Anhänge

  • Max Payne 3.jpg
    Max Payne 3.jpg
    124,6 KB · Aufrufe: 557
Zuletzt bearbeitet von einem Moderator: (Textedit)
Weiter games getestet:

Bulletstorm @ 2520*1576 alles max. und 4*MSAA --> Die Karten skalieren perfekt und laufen am VSYNC Limit von 60 fps ohne drops. Mit einer Karte waren damals meist max. 45 fps möglich.

COD MW3 @ 2520*1576 alles max + 4*MSAA --> Wie erwartet kein Problem, lief auch mit einer Karte und diesen settings einwandfrei. Dahingehend viel Platz nach oben hinsichtlich SGSSAA o.ä.

Red Faction Armageddon --> ebenfalls mit diesen settings, war damals mit einer Karte so nicht möglich. Die Karten laufen ebenso im Gleichschritt.

@Kühlung:

Die 2 seitlichen 120er Lüfter wurden durch einen großen sehr leise laufenden 200er Lüfter der Marke Coolermaster Mega Flow ersetzt.
 

Anhänge

  • Bulletstorm @ 2520x1576 + 4xMSAA.jpg
    Bulletstorm @ 2520x1576 + 4xMSAA.jpg
    328,4 KB · Aufrufe: 543
  • COD MW3 @ 2520x1576 + 4xMSAA.jpg
    COD MW3 @ 2520x1576 + 4xMSAA.jpg
    319 KB · Aufrufe: 527
Tremonia schrieb:
Seit spätestens Fermi, wie du beweist, ist das aber kompletter Unfug, zumindest in den meisten Fällen. Entsprechende Hardware (CPU) und Treiber vorausgesetzt, liegt die Skalierung eines SLI-Systems mittlerweile bei gut 70% im Schnitt.
Guck dir da mal Crossfire an, gerade die 7870er skalieren 90% und besser. Da kann Nvidia noch optimieren. Dafür haben die andere Schwächen, siehe Mikroruckler usw.

Mit einer Single-GPU ist das oftmals, gerade in den hohen Auflösungen, überhaupt nicht möglich.
Frag mich mal, 5760x1080 @ GTX670 OC. Ich war 'gezwungen' zwei Wochen lang nur auf einem Screen zu spielen und hätte, als ich wieder alle drei Bildschirme hatte, die Seitenmonitore am liebsten wieder verkauft bzw. mir so viele Grakas in den PC gehämmert bis ich BF3@Ultra@5760x1080 mit mindestens 50 FPS schaffe. Daraus ergibt sich das nächste Problem:

Die GTX 600er sind kein bisschen Zukunftssicher. Der vergleichsweise kleine Speicherbus und die 2GB VRAM erwecken nicht gerade Freude bei mir. Ich hatte vor mir in nicht allzu naher Zukunft eine weitere 670 zu kaufen, aber auch angesichts der vergleichsweise schlechten Skalierung (60% bis 80% bei 670) und der mangelnden GPGPU Leistung - man weiß ja nie was noch kommt - hab ich mir das aus dem Kopf geschlagen. Unter Anderem deswegen bin ich auch kein Nvidia Fanboy mehr, aber AMDs Treiber und Mikroruckler (in CFX) wollen mir auch nicht gefallen :D

Die einzig gute Möglichkeit für Multi-GPU-Anwärter sind meiner Meinung nach deswegen die GTX 500er. Sie skalieren relativ gut, sind zwar meist lauter und immer stromhungriger als AMDs 7000 oder die GTX 600er, dafür sind die Chips nicht beschnitten auf Gaming und brauchen keine hohen FPS um die Mikroruckler auszugleichen wie bei AMD. Meine nächste Anschaffung wird dann wohl eine 580 mit 3GB sein, mal sehen. Erstmal abwarten und den Markt beobachten, vielleicht bringt Nvidia ja auch so Bombentreiber wie AMD für die 7970 raus, die der 600-Reihe 10% Leistungsboost gibt.

MfG
Kaktus
 
Da gerade Borderlands2 in den Startlöchern steht und das uralter Borderlands (was mir übrigens sehr viel Spaß gemacht hat) zur Zeit verramscht wird, wollte ich das mit zwei Freunden mal wieder zocken.

Die SLI-Problematik hat sich seit Release aber NULL geändert (damals noch mit einer GTX9800GX2 .. ist das lange her^^).

http://www.youtube.com/watch?v=lz4R1f_MPos&feature=youtu.be

So sieht das heute aus, auf einer GTX690. Man beachte die Auslastung der Grakas :-)
Wobei es bei YT genug Leute mit SLI gibt, bei denen das scheinbar bestens funktioniert^^, bin ich mal wieder ein Sonderfall, oder es ist das VS-Setup der Übeltäter.
 
Zuletzt bearbeitet:
Hallo Community,

nach kanpp 3 wöchiger Testphase ein kleines Update und Fazit zum Schluss:

Ich habe mich jetzt durch die meisten meiner games durchgedaddelt, Negativbeispiele wie Hisn`s erwähnte habe ich glücklicherweise nicht im Programm ;-)

Allgemeines, Lautstärke:
Alle Anpassungen (Seitenlüfter, 0,05V Undervolting) haben sich über die heißen Tage auch bei + 26° Zimmertemperatur bewährt. Wie oben schon erwähnt wurden die 2 Seitenlüfter durch einen 200er ersetzt und dieser hängt jetzt auch an der Lüftersteuerung via Y-Kabel mit dem 200er Frontlüfter dran.

@ Idle trödelt das SYS lautlos (Gehäuselüfter via Lüftersteuerung auf min und GPU Lüfter via Afterburner auf 30%) vor sich hin. Stromverbrauch des gesamten SYS dabei etwa 130 Watt.

@ 3D siehts an hitzigen Tagen auch passabel aus. Die untere Referenzkarte überschreitet die 85 Grad Marke bei etwa 60 bis max. 65% Lüfterdrehzahl nicht. Die darüberliegende GTX 480 AMP! wird etwa 3 Grad wärmer bei ähnlicher Lüfterdrehzahl.

Bei diesen Lüfterdrehzahlen kann man sich die Geräuschentwicklung als durchschnittliches Rauschen vorstellen. Irgendwo ist das Ganze ja immer subjektiv, ich versuche es aber neutral bzw. objektiv zu beschreiben.

@2D wie gesagt lautlos, @3D kommts halt immer auf die GPU Auslastung an. Wenn beispielsweise die Karten ständig über 80% GPU Usage rackern wäre es Blödsinn hier von Silent zu sprechen, Sound ala Flugzeuturbine findet aber ebenso nicht statt. Ich würde die Geräuschkulisse dann etwas lauter als meine damalige ATI 5870 Referenz bezeichnen, aber wesentlich angenehmer als meine frühere 9800 GTX+.

Stromverbrauch:
Da habe ich mein Messgerät jetzt öfter mal beobachtet. Der Verbrauch hängt 1:1 mit der GPU Auslastung zusammen. In vielen Spielen reichen @ meinen settinges etwa 40-60% GPU Usage um mein 60 fps Vsync zu stemmen. Da liegen dann etwa 330 - 380 Watt Stromverbrauch (komplettes SYS) an. @ GPU Usage am Limit liegen die Werte dann etwa 100 Watt darüber.

Spielgefühl, Skalierung:
Da habe ich weitere games via downsampling und max BQ getestet.
Deus EX Human Revolution und Dirt 3 liefen problemlos am VSync Limit.

Da ich @ Dirt 2+3 etwa 200 Stunden Multiplayer Erfahrung via Single GPU habe, war ich bezüglich Multi GPU Verhalten äußerst positiv überrascht. Da ich alles @DX11 und max. settings fahre, hatte ich @ Single GPU ab und an störende drops auf knappe 50. Sehr kurz aber doch manchmal bemerkbar und im Multi in rennentscheidenden Situationen kontraproduktiv.

@SLI trödeln jetzt beide Karten zwischen 45-55 % GPU Usage vor sich hin um das 60 fps Limit stabil halten zu können. Für meine Zwecke also eine deutliche Verbesserung in Sachen smoothes Spielerlebnis und das überraschenderweise in einem schnellen Rennspiel.

Battlefield 3 und CPU
Hinsichtlich BF3 habe ich nun etwaige Vermutungen einer CPU Bremse ausgetestet.
Als Testfeld habe ich mir volle 64er Maps wie beispielsweise Back to Karkand vorgenommen.

Die settings wie üblich @ Ultra + 4*MSAA und 60 fps Vsync. Die Karten arbeiten dabei im Gleichschritt zwischen 50-80% Usage.

Ein einknicken der Framerate konnte ich bis dato seitens der CPU nicht provozieren. Alles läuft @ 60 fps ohne jegliche drops. Dahingehend war ich überrascht, da ich dachte dass hierfür dann doch ein merkliches CPU OC notwendig wäre um die GPUs nicht auszubremsen. Somit bliebt die CPU erstmal @ Stock bis eine meiner Anwendungen ein OC erfordert.

In anderen games würde dies vermutlich anders aussehen, Spiele wie Skyrim, Anno o.ä. zocke ich aber nicht.

Ausblick:
Nach der ersten Multi GPU Begegnung meinerseits bleibt bis zum nächsten starken Single GPU Leistungsschub die Sache im Gehäuse. Zukünftigen SLI/CF Projekten stehe ich nun wesentlich offener gegenüber als ich dies damals ohne jegliche eigene Erfahrung getan habe.

In diesem Sinne nochmals danke für Eure rege Beteiligung,
mit besten Grüßen, rr.
 
Zuletzt bearbeitet von einem Moderator:
Ansehnlicher Bericht. Ich hatte zu meinen X58er Zeiten, auch ein SLI Gespann mit 2 GTX480er.
Ich konnte, wie du, sehr viel positives berichten. Aber das bekannte SLI flackern hat mir den letzten Nerv geraubt. Hast du das Problem auch gehabt?
 
Nein, hinsichtlich Flackern bis dato keine Probleme.

Weiters gilt zu sagen, dass die Nutzung von VSync oder Framelimiter @ SLI unbedingt empfehlenswert ist.
Da ich das schon @ Single GPU immer nutzte ists allerdings business as usual.

Ein Beispiel diesbezüglich erwähnte ich oben mal bzgl. BF3. Dieses läuft perfekt smooth @ 60 fps VSync, ohne VSync gehts teilweise auf 80 fps hoch, erscheint mir dann durch die fps ups und downs aber irgendwo unruhiger.
 
Zurück
Oben