GTX 670 + 3D Vision am Limit ... wie solls weitergehen?

  • Ersteller Ersteller Ron Reviewt
  • Erstellt am Erstellt am
Ja, du hast Recht. Ein farblicher Tapetenwechsel ist langsam angesagt ;-)

Wegen Vram liegt derweilen alles getestete zwischen 1-1,5 GB ... bis dato also in Ordnung.

Lg
 
aehm ich moechte nur kurz gedanklich in eine andere richtung rudern...
wenn du versuchst deine minmum fps mit einer 2. karte zu erhoehen wird das sich in den meisten faellen klappen.
aber wenn du jetzt 670/680 im sli drinne hast deine 3,3ghz cpu mit 4 kerne am limit laeuft koennte der flaschenhals woanders liegen.
und fuer 2 titan ich dein unterbau glaube ich total ueberfordert^^
 
Jo, unter Last geht die CPU auf 3,6 hoch. Rohleistung des Xeon ist im Bereich des 3770 Stock.
GPU ist durch die Nutzung nochmal weitaus mehr gefordert als im 2D Betrieb.

Ohne Limiter liegen derweilen immer +95% GPU Last bei beiden Karten an.
Zumindest bei meinen bisherigen getesteten Games.

Die Kombo scheint erstmal für 3D Vision gut zu passen.
So meine erste Einschätzung. Mal sehn was noch kommt.
 
@PuschHELL76

Titan steht überhaupt nicht zur Debatte & wie es ronrebell auch schon anmerkt ... @3D werden die GPU's mehr gefordert.
summa summarum ... rr ist mit dem Gespann absolut zufrieden u. das zeigt auch sein 3D-Vision-Thread eindrucksvoll.
 
ronrebell schrieb:
Jo, unter Last geht die CPU auf 3,6 hoch. Rohleistung des Xeon ist im Bereich des 3770 Stock.
GPU ist durch die Nutzung nochmal weitaus mehr gefordert als im 2D Betrieb.

Die einzigen (nennenwerten) Unterschiede zwischen diesen beiden CPUs ist, dass der 3770 höher getaktet ist und somit mehr Rohleistung und die Möglichkeit bei Z-Chipsätzen des Turbo + 4 OC bietet, und der XEON über keine iGPU verfügt.

http://www.pcgameshardware.de/CPU-Hardware-154106/Tests/Xeon-E3-1230-v2-im-Test-907778/

Selbsterverständlich eine sehr gute CPU und vor allem preislich äußerst attraktiv. Ich hätte mir das Teil selbst fast eingebaut, mangelnde OC Möglichkeiten, bei MultiGPU Systemen halte ich das (für mich) für ein Muss, haben mich dann jedoch davon abgehalten. Bzgl. der MinFPS habe ich eher diametrale Erfahrungen gemacht. Her ist durch CPU-OC durchaus eine Erhöhung der MinFPS zu erwarten. Die fallen dabei je nach Spiel (und logischerweise Limit), jedoch höchst unterschiedlich aus.

Was dies im Hinblick auf Vision-3D bedeutet, da halte ich mich raus, da habe ich keinen Plan von, kann mir aber schwerlich vorstellen, dass der XEON grundsätzlich mit zwei 670-/680ern überfordert ist.
 
Zuletzt bearbeitet von einem Moderator:
Vom Werk ist dein Prozessor vollgendermaßen eingestellt.
Basistakt 4x 3,3 ghz

(TurboBoost an (Bios))
Last auf vier Kernen --> 4x 3,4 ghz
Last auf drei Kernen weiß ich grad nicht
Last auf zwei Kernen --> 2x 3,6 ghz 2 Kerne schlafen
Last auf einem Kern --> 1x 3,7 ghz 3 Kerne schlafen ...

ich glaube halt das deine aussage zutrifft(mit 2 ausgelasteten kernen)...aber bei spielen die 4 oder mehr kerne benutzen (inkl. HT) wirst du keine 3,6 haben.
und ja 3d vision braucht eher GPU power...aber wenn der cpu ueberfordert ist wirkt sich das eher auf die minimum fps aus.
steigerung der maximal fps gebe ich dir recht macht mehr sinn mit einem gpu-upgrade...
aber anhebung der min fps mach ein cpu mit hoeherem takt und mehr kerne auch sinn.
(grade wenn allein schon der "gedanke" einer titan auf kam...ist ein wechsel auf 2011 ja auch nicht unvorstellbar,oder?)
 
Ja Pushell, ich gebe dir Recht.

Speziell für 2D high fps Aspiranten (BF3 Multiplayerzocker) wäre der Xeon wahrscheinlich schon knapp um hohe fps mit 2*GTX670 generieren zu können. Besser wäre da auf alle Fälle ein hochgeprügelter 3770 oder 3930.

Meine Anforderungen sehen aber entgegengesetzt aus. Ich zocke 100% nur mehr 3D Vision. Heißt die ursprüngliche GPU Last hat sich verdoppelt.
Daher verschiebt sich das ganze eben sozusagen in einen brutalo GPU Anforderungsbereich durch 3D Vision.
Genauso, als wenn ich massiv downsampling betreiben würde, wie ich dass damals vor meiner 3D Zeit intensiv betrieben habe.

Ergo meine Ansprüche @3D Vision maximale BQ fahren zu können und dies vorzugsweise mit +50 fps.

Bzgl. Titan haste Recht, da müsste man dann doch vielleicht nochmal drüber nachdenken, aber eben auch erst wenn 2 von den Dingern am Start wären. Eine allein liegt unter der Rohleistung von 2*GTX670 OC bei perfekter SLI Skalierung und das hätte mich nicht weiter gebracht. Und zwei dieser Dinger wären zwar ein Traum, mein monetäres Gewissen lassen aber eine GPU Investition von 1800,- einfach nicht zu.

Nächstes Jahr peile ich 3D Vision Sorround an, dann gibts auch vermutlich Sockel und GPU Kahlschlag. Bis dahin muss GTX 670 SLI OC und Xeon für einen 3D Vision Moni einfach reichen ... und die bisherigen Ergebnisse meiner Tests bestätigen dies auch.

Wer mich hier im Forum kennt weiß dass ich mir meine Hardware nicht schönreden muss. Was bei mir nicht passt wird zugegeben und fliegt wieder raus.

Für ehemalige Fermi SLI user und Kepler Aspiranten hänge ich im Anhang nen Furmark screenshot mit bei.
Beachtet aber dass meine Belüftung im Cosmos S schlecht ist. Ein 120er vorne einblasend mit Hindernis bestückter Festplattenkäfig, ein 120er hinten oben raus und 3*120er oben rausblasen. 200er Seitenlüfter passt nimmer weil CPU Kühler zu hoch und Gehäuse zu schmal.
Trotzdem, die Temps (und Geräuschkulisse) sind @SLI und Lukü einfach ein Traum, verglichen mit meinem damaligen Fermi thermi GTX480 SLI.

Gruss
 

Anhänge

  • Furmark Burn In Test.jpg
    Furmark Burn In Test.jpg
    291,8 KB · Aufrufe: 472
Kurze Frage: Stellst Du auch einen Zusammenhang zwischen Boost und Lüfterdrehzahl (nicht Temperatur) bei Deinen Gigabyte fest (primär wenn du den Speicher noch etwas übertaktest)?
 
Zuletzt bearbeitet von einem Moderator:
Hmm, irgendwie komisch mit dem boost. So tief wie mit Furmark geht der normal nie runter.
Ingame unter Vollast liegen bei einer GPU immer 1163-1176 an, bei der anderen 1137-1150.

Die Grenze dass sie auf die untere Marke taktet liegt so rund um 70 Grad.

Zusammenhang boost und Lüfter kann ich jetzt nicht definitiv ausloten. Ich denke schon dass der rein nach temp regelt.
 
Genau das ist es ja: Die Temp (bis auf die 70 Grad) scheint dem Boost ebenso Schnurzpiepe zu sein, wie das Powertarget. Meine GTX reagieren primär auf Lüftersteuerung (manuell jenseits 50% geht's bergab und Speicher OC) Finde ich irgendwie verrückt.

Edit: Speicher OC von 1Mhz ist dabei vollkommen ausreichend uns schon "bremst" der Kern der ersten Karte massiv
 
Zuletzt bearbeitet von einem Moderator:
Hm, ich habe eigentlich immer meine eigene Lüfterkurve übern Afterburner laufen und lasse da bis gute 80 Grad zu bevor der Lüfter höher dreht.
Irgendwo pendeln sich dann die Temps zwischen gut 70 bis max 85 Grad je nach Game ein. Lüfter bleiben aber eben dabei dann nahezu unhörbar bei um die 40%.

Der Boost liegt dann immer im Bereich der angegebenen Werte. Tiefer geht der Ingame nie. Bei Furmark burn in scheint die Karte nen sicherheitsmod zu fahren.

Ich habe jetzt mal meine 120er über die Lüftersteuerung ausm Tiefschlaf geweckt und testweise mit max 1500 laufen lassen.
Das bringt mir nochmal gute 3-5 Grad, aber dann hört man die deutlich.
Jetzt lass ich sie wieder mit lautlosen 500 laufen, temppotential ist sowieso ausreichend vorhanden.
 
Für gewöhnlich nutze ich die auch. Was ich schrieb tritt bei mir unter folgender Bedingung auf:
1. manuelles OC des Speichers (1 MHz reicht)
Sobald die GPU jetzt Last ~97-99% bekommt (z.B.Valley, Heaven), geht der GPU Takt schlagartig nach unten.
2. noch massiver wird das, sobald man den Lüfter > 50% manuell einstellt.

Ich finde das sehr seltsam.
 
Ok, mit OC Verhalten kann ich nicht dienen. Ich lasse meine Gpus immer jungfräulich und verkaufe diese dann immer entsprechend overclockingfrei weiter.

Naja, wie du das schilderst scheinst echt übern Lüfter boost Zusammenhang geben.
Ich werde das mal beobachten.
 
Interessanter thread hier.

Habe mir einen Benq Xl2411T geleistet und würde wirklich gerne mal 3d Vision testen . Meine HD7970 ist seit heute verkauft und jetzt frage ich mich was ich nun kaufen soll.

GTX 680
GTX 690
GTX Titan

Würde eine 680er reichen für BF3 und Crysis 3 in 3D ?
 
Für Crysis 3 reichen in meinen Augen gerade einmal 2x670GTX aufwärts oder AMD Pendant in FullHD, es sei denn man jongliert mit den BQ Reglern im Spiel. Zu 3D wird Dir bestimmt ronrebell etwas sagen können. Das soll ja bei Crysis irgendwie anders laufen.

@ronrebell
Keine Ahnung was da für ein Schutzmechanismus greift, gerade bzgl. des Speicher OCs. Letzten Endes schlägt es eher selten durch ins Spiel, da ich mit Limiter arbeite und die Auslastung so selten dauerhaft > 95% auf beiden GPUs liegt, selbst bei Crysis 3 nicht.
 
Zuletzt bearbeitet von einem Moderator:
Ja also 2D Crysis 3 läuft gut mit einer HD7970.

Bloß mit 3D Vision hab ich keinen Plan. Am liebsten wäre mir die Titan , aber soviel Geld ist schon krass. Andererseits, die 680 ist auch nicht billig und gehört so langsam mal ins alt Eisen.
 
Crysis 2 und Crysis 3 kosten nur etwa 15% Leistung im 3D Modus verglichen mit 2D.
Das Spiel hat nen 3D Sparmodus sozusagen. Verglichen mit perfekten 3D Vision Spielen sieht man nen Unterschied, aber trotzdem ist's weitaus schöner als im platten 2D Modus.

Bist du BQ Fanatiker ... dann peile Multi GPU an, mein Tip.
Preis Leistung ist halt 670 Top ... dann mal testen und bei Bedarf die zweite dazu. Damit machst du wenig falsch.
 
BQ ? Wie ? Was ? Wo ?
 
Hmm, bin mir nicht sicher was du meinst.
BQ: BildQualität
 
ah..... Bildqualität . Naja klaro , sonst würd ich an einer Konsole spielen wenn es nicht so wäre. Aber vielleicht ist das bei 3D zweitrangig.
 
Zurück
Oben