Test Test: Nvidia GeForce GTX 680

cman1902 schrieb:
Nur wenn man die karte unter wasser setzten will sind die übereinander gebauten Anschlüsse für die Stromversorgung absolut hässlich.
Muss man eben auf die Customs mit 1x6 und 1x8 pin warten, da gibts bestimmt eine mit nebeneinanderliegenden Anschlüssen ;)

Also ich find die 680 ja schon gut. Werde sie in meinen neuen PC einbauen den ich im Mai zusammenbaue. Im zusammenspiel mit nem Ivy und Corsair Venegance wird das wohl ordentlich Power geben :evillol:. Vor allem die Frame-Limiter Funktion ist praktisch, wird direkt mal auf 58FPS gesetzt und adaptives V-Sync an :)
 
Frame-Liter und Adaptives V-Sync gleichzeitig? Was hat das dann genau für Auswirkungen? Ich dachte das adaptive vsync "limitiert" oben bei der Frequenz des Monitors und wenn die fps darunter fallen schaltet es sich automatisch aus. Oder habe ich da was falsch verstanden?
 
usopia schrieb:
Ich weiß jetzt nicht wo dein Zitat herkommt aber sinngemäß steht doch da " Lüftersteuerung der GTX 680 besser als die der 7970".
Das steht eben nicht da. Das kann man nur erahnen.
Ich will keine Artikel lesen, wo ich erst den Sinn gemäß meiner Erfahrungswerte deuten muß.
 
C1996 schrieb:
So nebenbei @TheJoker: Warum gerade 58FPS ?
Das hat einer von den Devs von MSI Afterburner gesagt glaub ich. Das stand auch schon vorher mal im Thread irgendwo.
VSync nur noch so "zur Sicherheit" ;)

In der aktuellen c't steht im April soll die Mittelklasse mit GK107 kommen und und bei der GPU Technology Conference die dual GPU mit zwei GK104 (die ist vom 14.5. bis zum 17.5). der GK110 kommt laut c't nicht vor ende des sommers

EDIT:
kstepan schrieb:
Frame-Liter und Adaptives V-Sync gleichzeitig? Was hat das dann genau für Auswirkungen? Ich dachte das adaptive vsync "limitiert" oben bei der Frequenz des Monitors und wenn die fps darunter fallen schaltet es sich automatisch aus. Oder habe ich da was falsch verstanden?

Vsync reduziert bei 60 Herz Monitoren die Ausgabe auf 60 fps und der Limiter taktet die GPU so, dass die nur 60 fps erzeugt. das ist der unterschied
 
Zuletzt bearbeitet:
WIE beschreibt nunmal eine GLEICHHEIT im Deutschen.
Der Unterschied zwischen wie und als sollte einem Redakteur bekannt sein.
Aber nun genug damit, ich wollte das nicht breittreten, sondern nur erwähnen.
 
Zuletzt bearbeitet:
habshogemrk schribalos wie woll.
 
florian. schrieb:
:rolleyes: ahja, da steht doch ganz klar, dass das eine besser sein soll wie das andere.
was willst du da "erahnen" und wieso?

Meine Güte ignoriert ihn doch einfach. Ist doch offensichtlich, dass er sich hier nur ein bisschen aufspielen will, weil er einen Grammatikfehler gefunden hat. Sowas kann man auch einfach im Stillen dem Autor mitteilen.
 
Frame-Liter und Adaptives V-Sync gleichzeitig? Was hat das dann genau für Auswirkungen? Ich dachte das adaptive vsync "limitiert" oben bei der Frequenz des Monitors und wenn die fps darunter fallen schaltet es sich automatisch aus. Oder habe ich da was falsch verstanden?

Die Karte berechnet kein komplettes Bild auf einmal. Wenn sie die "Schnipsel" nacheinander ausgibt, führt das logischerweise zu Darstellungsfehlern (Glitches).
V-sync sorgt dafür, dass ein Bild erst dargestellt wird, wenn es vollständig ist.
Gleichzeitig wird die Ausgabe mit der Bildwiederholrate des Monitors synchronisiert (beispielsweise 60Hz).
So bekommt man ein perfektes Bild.
Die Technik hat aber auch Nachteile. Wenn die GPU beispielsweise keine konstanten 60Hz schafft, halbiert der Treiber den Takt (auf 30Hz), um den Bildaufbau synchron zu halten. Die Karte hätte aber vielleicht oft 45fps hinbekommen.
Nvidias adaptives V-sync schaltet in einem solchen Fall V-sync so lange aus, bis die 60Hz wieder erreicht werden.

Der Frame Limiter macht Sinn, wenn die fps bei einem Spiel zu stark variieren. Das kann störend wirken. Genauso brauchst du, wenn Du Doom3 spielst, keine >200fps ;)

Frame Limiter und Vsync kann man problemlos kombinieren. Allerdings limitiert Vsync ja schon auf die Bildwiederholrate des Monitors. Deswegen ist der Frame Limiter meist nicht notwendig.

Was interesannt wäre:
Mein Monitor kann nativ HD-Auflösungen in allen gängigen Frequenzen darstellen. Beispielsweise könnte ich mit dem Frame Limiter auf 24p, 25p oder 30p zocken. Vielleicht gewöhnt man sich dran, wenn die Frames immer regelmäßig kommen? Die Konsolen laufen ja auch nur mit 30fps und man merkt es im Grunde nicht.
 
Zuletzt bearbeitet:
Mal ne Frage, kann mir jemand sagen wie man den EVGA Precision X Hardware Monitor öffnet wie er in dem ComputerBase Video gezeigt wird? Finde bei der Version 3.0.1 leider gar nichts.

Edit: Fixed, Doppelklick aus Zufall drauf gemacht und es hat sich was geöffnet ;) Jetzt kann ich anfangen meine Karte zu testen.

Danke
 
Zuletzt bearbeitet:
Gibt es die 680 eigentlich mit den Stromanschlüssen "nebeneinander" ? Wenn ja von welchem Hersteller =) ?
 
@Diablow51: Ich benutze leider kein V-Sync sonst könnte ich dir dazu was sagen.
@Black&White: Ja wird es geben siehe News hier z.B.

Was mir eben aufgefallen ist, ich vermisse Undervolting in dem Test. Ist das etwa nicht mehr möglich durch den Turbo-Modus und das Powerlimit?
 
Genau, das geht nicht. Die Karte skaliert die Spannung eigenständig mit der Taktrate.
 
Schade, das hätte das Paket noch abgerundet. Ist trotzdem eine super tolle Karte.
 
Wie sieht das dann eigentlich aus bei oc versionen ?? Dadurch dass es keinen festen 3d clock gibt wird nun die maximale obergrenze zu der sich die karte hintaktet bei der entsprechenden maximalen tdp erhöht ???

referenzdesign 1006 mhz maximal 197 watt
oc version 1100 mhz maximal 220 watt

so ungefähr ??
 
Diablow51 schrieb:
referenzdesign 1006 mhz maximal 197 watt
oc version 1100 mhz maximal 220 watt
Wohl eher wird der Takt im BIOS angepasst und die TDP bleibt bzw. wird je nach Anschluss (2x 8-Pin oder 1x6-Pin und 1x 8-Pin) angepasst.
 
Zurück
Oben