Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
GTX 680 eintauschen gegen 2 GTX660 ?
- Ersteller R4ID
- Erstellt am
- Registriert
- Jan. 2008
- Beiträge
- 4.472
SuddenDeathStgt
Banned
- Registriert
- März 2004
- Beiträge
- 13.603
ich würde ebenfalls davon abraten ... manche balkendiagramme sehen zwar bei softXYZ"verlockend" aus ... unterm strich ist & bleibt es aber
ein mid-range-sli u. das war in der breite noch nie zu empfehlen.
da gab es schon dutzende beispiele ... angefangen von 2x7600GT bis zur heutigen gen.
behalte einfach noch ein wenig deine 680er & "passe" die leistung deiner auflösung & settings an.
ich denke auch mal, wenn Titan unters volk kommt, wird es im gebrauchtmarkt von 670/680/690er vermutlich rege bewegung(en) geben.
dort läßt sich dann wohl auch sehr wahrscheinlich, zu moderaten preisen^^, weitere 680er oder gar 690er-angebote erwerben. auf alle fälle wird sich preislich was tun ...
ein mid-range-sli u. das war in der breite noch nie zu empfehlen.
da gab es schon dutzende beispiele ... angefangen von 2x7600GT bis zur heutigen gen.
behalte einfach noch ein wenig deine 680er & "passe" die leistung deiner auflösung & settings an.
ich denke auch mal, wenn Titan unters volk kommt, wird es im gebrauchtmarkt von 670/680/690er vermutlich rege bewegung(en) geben.
dort läßt sich dann wohl auch sehr wahrscheinlich, zu moderaten preisen^^, weitere 680er oder gar 690er-angebote erwerben. auf alle fälle wird sich preislich was tun ...
Zuletzt bearbeitet:
Zitterrochen
Commodore
- Registriert
- März 2011
- Beiträge
- 4.195
Die Titan ist doch noch nicht draußen , als Händler würde ich da noch nicht den Preis senken .
SuddenDeathStgt
Banned
- Registriert
- März 2004
- Beiträge
- 13.603
die rede ist vom gebrauchtmarkt ... bewegung im einzelhandel wird erst mit GTX7xx folgen, da Titan wohl über allem "schwebt."
- Registriert
- Jan. 2008
- Beiträge
- 4.472
OK Jungs und Mädels die zweite GTX680 ist aufn Weg
Hab sie nun wie ich sagte für 260€ bekommen und da konnte ich einfach nicht nein sagen
Nur eine Frage bleibt mir noch, soweit ich weis ist es eine mit 4GB VRam die ich dann aber eh nicht nutzen kann weil meine jetzige nur 2GB VRam hat oder ?
Also praktisch wird im SLI der VRam der größeren Karte, der kleineren Karte angepasst stimmts ?
Hab sie nun wie ich sagte für 260€ bekommen und da konnte ich einfach nicht nein sagen
Nur eine Frage bleibt mir noch, soweit ich weis ist es eine mit 4GB VRam die ich dann aber eh nicht nutzen kann weil meine jetzige nur 2GB VRam hat oder ?
Also praktisch wird im SLI der VRam der größeren Karte, der kleineren Karte angepasst stimmts ?
HisN
Fleet Admiral
- Registriert
- Nov. 2005
- Beiträge
- 82.796
Angepasst wird da nix.
Die Karten müssen volle Bilder rechnen (AFR)
Wenn Du eine 2GB Karte Bilder rechnen lässt die 3GB VRAM brauchen, dann kannst Du Dir die Performance die dabei rauskommt vorstellen (oder Du probierst es einfach mal kurz aus^^) bzw. Dein Game schmiert sofort ab.
Du wirst eher erst mal ein bisschen klöppeln dürfen, damit sich SLI mit der Kombination überhaupt aktivieren lässt (Coolbits).
Die Karten müssen volle Bilder rechnen (AFR)
Wenn Du eine 2GB Karte Bilder rechnen lässt die 3GB VRAM brauchen, dann kannst Du Dir die Performance die dabei rauskommt vorstellen (oder Du probierst es einfach mal kurz aus^^) bzw. Dein Game schmiert sofort ab.
Du wirst eher erst mal ein bisschen klöppeln dürfen, damit sich SLI mit der Kombination überhaupt aktivieren lässt (Coolbits).
Zuletzt bearbeitet:
- Registriert
- Jan. 2008
- Beiträge
- 4.472
Also nochmal kurz zusammen gefasst:
Meine jetzige MSI 680 hat 2GB VRam
Die neue Zotac 680 hat 4GB VRam
Wenn ich jetz aber beide im SLI betreibe, wird die Zotac Karte nur auf 2GB VRam zurückgreifen können, da meine MSI ja auch nur 2GB VRam zur Verfügung hat.
Soweit ist alles richtig oder ?
Und warum sollte es jetz da Probleme geben wenn ich beide im SLI laufen lassen möchte ?
Meine jetzige MSI 680 hat 2GB VRam
Die neue Zotac 680 hat 4GB VRam
Wenn ich jetz aber beide im SLI betreibe, wird die Zotac Karte nur auf 2GB VRam zurückgreifen können, da meine MSI ja auch nur 2GB VRam zur Verfügung hat.
Soweit ist alles richtig oder ?
Und warum sollte es jetz da Probleme geben wenn ich beide im SLI laufen lassen möchte ?
HisN
Fleet Admiral
- Registriert
- Nov. 2005
- Beiträge
- 82.796
Also nochmal.
SLI bedeutet in dem Falle nix anderes, als das die Karten abwechselnd Bilder berechnen (ganz einfach ausgedrückt), ansonsten bleibt alles gleich. Warum sollte SLI jetzt den Speicher "beschränken"? Wird es (meiner Erfahrung nach) nicht machen.
Es ist nur selten dämlich wenn eine Graka 50ms Sekunden für ein Bild braucht (weil sie so lange auf die Daten aus dem Speicher wartet), während die andere Graka das in 16ms runterreisst, weil die genug Speicher hat.
DU wirst mit zwei verschiedenen Grakas das SLI erst mal gar nicht zum laufen bekommen, da wird der Treiber sagen "nein ich will nicht" wenns blöd läuft (ich selbst bin noch nie auf die Idee gekommen). Weil es verschiedene Grakas sind. Deshalb. Is alles so einfach im Grunde^^.
(War das gleiche geschrieben wie schon in meinem letzten Posting, nur nochmal in andere Worte gepackt). Falls Du es nachlesen möchtest: Google Nvidia SLI FAQ http://www.geforce.com/hardware/technology/sli/faq#c19
SLI bedeutet in dem Falle nix anderes, als das die Karten abwechselnd Bilder berechnen (ganz einfach ausgedrückt), ansonsten bleibt alles gleich. Warum sollte SLI jetzt den Speicher "beschränken"? Wird es (meiner Erfahrung nach) nicht machen.
Es ist nur selten dämlich wenn eine Graka 50ms Sekunden für ein Bild braucht (weil sie so lange auf die Daten aus dem Speicher wartet), während die andere Graka das in 16ms runterreisst, weil die genug Speicher hat.
DU wirst mit zwei verschiedenen Grakas das SLI erst mal gar nicht zum laufen bekommen, da wird der Treiber sagen "nein ich will nicht" wenns blöd läuft (ich selbst bin noch nie auf die Idee gekommen). Weil es verschiedene Grakas sind. Deshalb. Is alles so einfach im Grunde^^.
(War das gleiche geschrieben wie schon in meinem letzten Posting, nur nochmal in andere Worte gepackt). Falls Du es nachlesen möchtest: Google Nvidia SLI FAQ http://www.geforce.com/hardware/technology/sli/faq#c19
Zuletzt bearbeitet:
- Registriert
- Jan. 2008
- Beiträge
- 4.472
Naja weil wenn du zwei unterschiedlich getaktete Karten im SLI laufen lässt, wird ja auch meiner Meinung nach der Takt der langsameren Karte an den der schnelleren angepasst.
Und deswegen dachte ich dann das auch die Karte mit 4GB künstlich beschnitten wird auf 2GB.
Also du sagst damit eine GTX680 2GB kann im SLI mit einer GTX680 4GB nicht funktionieren ja ?
Und deswegen dachte ich dann das auch die Karte mit 4GB künstlich beschnitten wird auf 2GB.
Also du sagst damit eine GTX680 2GB kann im SLI mit einer GTX680 4GB nicht funktionieren ja ?
Zuletzt bearbeitet:
SavageSkull
Fleet Admiral
- Registriert
- Mai 2010
- Beiträge
- 14.475
Bei dem einen Spiel Ja, beim nächsten Nein. Die Mehrleistung bei SLI varriiert je nach Treiber, Spiel und Settings zwischen 0% und ~90%. Wenn du ein Spiel hast, was sehr gut skaliert, hast du mehr Leistung, beim nächsten Spiel, was eben nicht gut skaliert, noch kein Profil von Nvidia bekommen hat oder was auch immer, hast du eben nur eine GTX660.BigWorm48 schrieb:Zwei 660 können also rein von der Leistung her eine 680 abziehen wie es im Benchmark zu sehen ist.
Mikroruckler sind weniger stark als bei AMD und wenn man mit dem Nvidia Inspector den Framelimiter einsetzt wird der Effekt der Mirkoruckler extrem reduziert. Ist ja auch eine Sache, ob sie dir überhaupt auffallen. Kann denn dein Board überhaupt SLI und hast du auch genug Platz und bekommen die beiden Karten auch genug Luft, sonst wird das eine Laute und heiße Angelegenheit.
HisN
Fleet Admiral
- Registriert
- Nov. 2005
- Beiträge
- 82.796
Das mit dem künstlichen Beschneiden dachte ich früher auch. Braucht es doch gar nicht. Die Leistung bricht zusammen sobald der Graka-Speicher einer Karte voll ist. Egal ob beschnitten oder nicht. Wozu soll man das extra einbauen? Ich glaube Nvidia benutzt das nur als Erklärung um zu verdeutlichen was am Ende dabei rauskommt, nicht aber wie es passiert. Und das mit dem Takte-Anpassen. Wir schwierig beim Kepler, der ja seinen Takt der abgeforderten Leistung und dem Power Target anpasst^^
HisN
Fleet Admiral
- Registriert
- Nov. 2005
- Beiträge
- 82.796
Wenn der Preis stimmt, dann spricht nix gegen eine 4GB-Version. Abgesehen von dem etwas höheren Installations-Aufwand.
http://www.overclock.net/t/877981/does-the-coolbits-reg-tweek-work-in-windows-7-64bit#post_11493609
Und wenn man sich das genau anschaut, dann sieht man dass da nirgendwo was "beschnitten" wird. Denn es funktioniert ja für alle Speichergrößen und es wird kein Wert der Speichermenge angegeben.
http://www.overclock.net/t/877981/does-the-coolbits-reg-tweek-work-in-windows-7-64bit#post_11493609
Und wenn man sich das genau anschaut, dann sieht man dass da nirgendwo was "beschnitten" wird. Denn es funktioniert ja für alle Speichergrößen und es wird kein Wert der Speichermenge angegeben.
Zuletzt bearbeitet:
- Registriert
- Jan. 2008
- Beiträge
- 4.472
Ok also soweit ich das verstanden habe soll man bei unterschiedlichen VRam Größen das Programm Coolbits benutzen um den größeren VRam an den kleineren anzupassen um eventuelle Probleme zu vermeiden.
Oder ehr gesagt um das ganze überhaupt zum laufen zu bringen.
Oder ehr gesagt um das ganze überhaupt zum laufen zu bringen.
Zuletzt bearbeitet:
R
Ron Reviewt
Gast
Taktmäßig sollte sich gar nichts anpassen.
Mein GTX 480 SLI Gespann lief mit einer werksübertakteten 480 AMP @756 und einer 480 Referenz @700 clock.
Ich habe sogar jede Karte einzeln undervoltet. Man kann das wunderbar übern MSI Afterburner in den settings regeln.
Du kannst also sowohl clock als auch Voltage jeder GPU individuell anpassen.
Keine Ahnung woher das hartnäckige Gerücht stammt dass sich die Karten automatisch anpassen.
Wichtig ist nur dass man das Häckchen bei "Synchronisieren der Einstellungen bei vergleichbarem Grafikprozessor" rausmacht.
Wegen den 4GB Vram der einen Karte wirds keine probleme beim Mixen mit der 2GB Karte geben.
Fakt ist aber dass nur effektive 2 GB Vram zur Verfügung stehen ... wie oben schon erwähnt.
Man kann alles Querbeet mixen sofern eben bei beiden Karten GTX680 draufsteht. Bei ATI gings sogar mit der 5850 und der 5870, soweit ich noch weiß.
Viel Spass mit dem Gespann ... und sag mir noch wer dir ne 680er für 260,- verschleudert.
Mein GTX 480 SLI Gespann lief mit einer werksübertakteten 480 AMP @756 und einer 480 Referenz @700 clock.
Ich habe sogar jede Karte einzeln undervoltet. Man kann das wunderbar übern MSI Afterburner in den settings regeln.
Du kannst also sowohl clock als auch Voltage jeder GPU individuell anpassen.
Keine Ahnung woher das hartnäckige Gerücht stammt dass sich die Karten automatisch anpassen.
Wichtig ist nur dass man das Häckchen bei "Synchronisieren der Einstellungen bei vergleichbarem Grafikprozessor" rausmacht.
Wegen den 4GB Vram der einen Karte wirds keine probleme beim Mixen mit der 2GB Karte geben.
Fakt ist aber dass nur effektive 2 GB Vram zur Verfügung stehen ... wie oben schon erwähnt.
Man kann alles Querbeet mixen sofern eben bei beiden Karten GTX680 draufsteht. Bei ATI gings sogar mit der 5850 und der 5870, soweit ich noch weiß.
Viel Spass mit dem Gespann ... und sag mir noch wer dir ne 680er für 260,- verschleudert.
R
Ron Reviewt
Gast
Jo, berichte dann.
Wie willst du die Power dann sinnvoll umsetzen?
3D Vision schon mal angedacht? Wär bei so nem Setup ja echt naheliegend.
Wie willst du die Power dann sinnvoll umsetzen?
3D Vision schon mal angedacht? Wär bei so nem Setup ja echt naheliegend.
- Registriert
- Jan. 2008
- Beiträge
- 4.472
Im Grunde brauch ich die Power nur um mal mit genügend Frames mein 30" Monitor zu befeuern
Crysis 3 steht so gut wie vor der Tür und ja dafür brauch ich einfach mehr bumms für volle Details in 2560x1600
3D Vision wäre aber auch mal interessant, mal sehen vll stell ich mir mal irgendwann nen 3D Moni noch als zweiten daneben um es mal auszuprobieren ^^
Crysis 3 steht so gut wie vor der Tür und ja dafür brauch ich einfach mehr bumms für volle Details in 2560x1600
3D Vision wäre aber auch mal interessant, mal sehen vll stell ich mir mal irgendwann nen 3D Moni noch als zweiten daneben um es mal auszuprobieren ^^
Zuletzt bearbeitet:
R
Ron Reviewt
Gast
Jo, ist natürlich ein nachvollziehbares Argument.
Als denn, viel Spass damit und nutze immer brav framelimiter, dann geht Sli wie gebügelt falls der Support stimmt.
Lg
Als denn, viel Spass damit und nutze immer brav framelimiter, dann geht Sli wie gebügelt falls der Support stimmt.
Lg
Ähnliche Themen
- Antworten
- 25
- Aufrufe
- 1.865
- Antworten
- 27
- Aufrufe
- 2.530
- Antworten
- 16
- Aufrufe
- 2.228
- Antworten
- 5
- Aufrufe
- 2.252
- Antworten
- 15
- Aufrufe
- 1.985