Test GeForce GTX 680 im Test: Mit Kepler ist Nvidia wieder die Nummer 1

BENZIN49 schrieb:
Steigt hier noch wer von 580 auf 680 um oder lohnt sich das überhaupt nicht?

Hab auch eine 580 und der Umstieg macht kaum Sinn.
Wie gesagt is diese 680 keine highend Karte,die echte Highend kommt erst im Sommer.
 
Man hätte bei den großspurigen Versprechungen von Nvidia mehr erwarten können. Die 10% Mehrleistung der GTX680 sind ja eher fürs Papier als fürs Spürbare in der Praxis. In den meisten Bereichen sind 7970 und GTX680 gleichauf. Man könnte eher sagen, das NV mit AMD gleichgezogen hat. Also so verstehe ich den Test.

Sicher hat NV da eine gute Karte gebracht. Der prognostizierte Überknaller ist die Karte jedoch nicht, zumal NV bei der Bildqualität wohl nicht gearbeitet hat.

Also: Pattsituation. Beide ungefähr gleich auf. Jetzt entscheidet der Preis....und ich vermute mal, das dieser sich wieder zu Gunsten von AMD entwicjkeln wird. Weil die Leistungsunterschiede der Top-Karten fallen in der Praxis kaum ins Gewicht. Man darf diese 10% nicht überbewerten. Wie hier geschrieben wurde, hat Nvidia AMD keinesfalls pulverisiert. Ich würde eher nach den großspurigen Ankündigungen von VN von einer Enttäuschung sprechen.

Ach ja....das Treiberargument und Physx hat nichts mit der Kaufentscheidung zu tun. Treiber sind bei beiden Herstellern gleich gut/schlecht und PhysX ist und bleibt ein Blendfeature ohne nennenswerten optischen Gewinn.....
 
Zuletzt bearbeitet:
Da hat Nvidia wirklich eine sehr gute Karte herausgebracht, eigentlich wollte ich eine gtx 590 kaufen für meine kaputte gtx 295, aber so wie ich im Test sehe, ist die Grafikkarte genauso gut, bei gleicher Leistung.
Täusche ich mich oder ist die gtx 590 bei Skyrim langsamer, als die gtx 680.:D
 
riDDi schrieb:
Der GK110 ist vermutlich wieder hauptsächlich für Tesla-Karten gedacht, aber sowas kommt dir z.B. nicht in den Sinn. Ist es denn gesagt, dass überhaupt Grafikkarten auf GK110-Basis kommen? Wir wissen es nicht.

Und das Ignorieren geht weiter... :rolleyes:

GK110 ist die Weiterentwicklung des GK100. NVIDIA hat aus den Fehlern der Vergangenheit eben gelernt und wird keinen Chip mehr fertigen lassen, der nur beschnitten die Marktreife erreicht. Deshalb wird es keinen GK100 geben und genau deshalb verspätet sich der eigentliche High-End-Chip GK110.
Nochmals eine GTX480 die extrem laut, stromhungrig und teuer in der Fertigung ist, will eben NVIDIA nicht mehr auf den Markt loslassen. Dann lieber gleich den besseren Chip in einer besseren Fertigung bringen und neu vermarkten als GTX700er oder gar als Sondermodell GTR 685 ect.

Und ganz nebenbei:
Dir ist vermutlich entgangen, dass sowohl die GTX480 als auch die GTX580 ebenfalls für GPGPU ausgelegt sind und in Tesla-Karten zum Einsatz kamen, aber trotz allem auch im Desktop-Markt zu finden waren, mit deutlich mehr Leistung(High-End) als die vermeintlichen Performance-Karten alla GTX560/ti. Nur so nebenbei ... ;)

Es ist dagegen doch absolut hirnrissig zu behaupten, dass das hier kein High-End-Chip ist, weil Nvidia in einem halben Jahr einen Refresh vorstellen könnte.

Du könntest eben so gut behaupten, das der Mond nicht um die Erde kreist und es hirnrissig wäre zu glauben das dem so sei... :lol:
Der GK104 ist das Pedant zum GF104(GTX460), welcher bekanntlich die Performancereihe von NVIDIA darstellt. Nur weil NVIDIA GTX680 draufschreibt, muss ja nicht GTX680 drin sein.

Auch ist es absolut falsch von dir anzunehmen, das der GK110 ein Refresh des GK104 sei !
Ein Refresh des GK104 ist der GK114 genauso wie der GF114(GTX560ti) ein Refresh des GF104(GTX460) ist usw.
Schau dir einfach mal die Bezeichnungen an oder ignoriere sie auch weiterhin.

Und nur weil der GK110 später abgelöst wird ist er dann auch kein High-End?

Man könnte dies natürlich ewig so weiterspinne, aber High-End ist das maximal Erreichbare.
Ist 180 Watt TDP das Maximum ? Sind 256 Bit Speicheranbindung mit limitierender Eigenschaft das Maximum ? Sind 294 mm² als Die-Fläche das Maximum ?
Wohl ein klares NEIN !
Da geht noch viel mehr und erst dann können wir über High-End reden.

Oder machen wir High-End jetzt daran fest, dass der Chip über 500mm² groß ist und kurz unterm Siedepunkt arbeitet?

Ganz genau.
High-End ist das absolut maximal Mögliche. Ob die Karte nun am Rande der Toleranzen arbeitet spielt da keine Rolle mehr. Hauptsache sie bringt die maximal mögliche Leistung in allen Bereichen.

Nvidia hat noch nie zuerst eine Mittelklasse-Karte vorgestellt.

NVIDIA kann noch keinen High-End-Chip vorstellen, weil TSMC noch nicht wirtschaftlich liefern kann.
Die nunmehr als GTX680 vorgestellte Karte, ist die eigentlich als GTX660ti geplante Karte. NVIDIA sah ihre Chance und hat aus dem Performance-Chip GK104, dank Übertaktung, nun das Flaggschiff von AMD TahitiXT im Griff. Warum sollte sie daraus keinen wirtschaftlichen Profit schöpfen ?
Über Namen und Bezeichnung kann man noch später philosophieren. NIVIDIA hat nun einen starken Gegenspieler aufgestellt. Das reicht für die Entwicklungszeit des GK110 erst einmal aus.
 
Zuletzt bearbeitet:
Dafür das Nvidia so rum posaunt hat das sie so viel mehr von AMD erwartet haben finde ich die Karte nicht gut genug, ansonsten natürlich eine gute Karte.
 
Ich bin ja schonmal gespannt ob es auch eine 660(Ti) geben wird. Wenn Nvidia hier auch wieder so einen Kracher wie die 460 raushaut ist der Nachfolger für meine 8800GTS gefunden und ich kann sie in Rente schicken.

Performance top, Hitzeentwicklung im Rahmen, leise Kühlung schon bei der Referenzkarte, niedrige Leistungsaufnahme ... klingt nach ner schönen Grafikkartenserie.
 
ONH schrieb:
@iscaran

Der verdoppelte Shaderclock (?hotclock?) der GTX500 Serie fällt weg. Somit sind es !nur! +50% und nicht 200%. von daher passt der Leistungssprung schon ganz gut.

Dann beteilige ich mich mal an den Milchmädchenrechnungen. Wenn man den Takt bereinigt und annimmt das alles gut skaliert, kommt man bei der GTX 680 auf rund die doppelte Shaderzahl als bei der GTX 580 (512 Shader @ 1544 MHz würden bei perfekter Skalierung 786 Shader @ 1006 MHz entsprechen).
 
Ich finde die Karte ist ein rundum gelungenes Produkt! Konnte den Test aufgrund der Zeitverschiebung erst jetzt lesen und kurz überfliegen!
Wird wohl die nächste Graka in meinem Rechner! Cool finde ich, dass man jetzt drei Bildschirme mit einer Graka zum Spielen nutzen kann! Schade nur das die Karte dann in den hohen Auflösungen etwas ihrer Stärke verliert!

Grüße vom anderen Ende der Welt!
 
@ jesterfox du verwechselst was ....



Adaptives VSync und GPU-Boost sind zwei paar Schuhe .
 
Karol_ schrieb:
Darkscream, mag ja alles sein. Mir als Kunde können die finanziellen Entscheidungen der Hersteller nVidia und AMD aber wirklich egal sein. Wenn ich sehe, dass die 680 einen fast identischen empfohlenen Verkaufspreis wie die 580 hat, dann sind dies für mich zwei direkte Vergleichswerte. Wieso sollte ich eine 680 unbedingt mit einer 660 Ti vergleichen, wenn dessen Verkaufspreis laut nVidia bei 239 Euro lag? Weder die Bezeichnung noch der Preis ist hier in irgendeiner Weise vergleichbar.

Ist doch ganz einfach?

GTX 580 520mm² Chipfläche
GTX 560TI 358mm²
GTX 680 294mm²

Je größer ein Chip desto beschissener die Ausbeute --> höherer Preis. Man kann allein an den Diegrößen sehn für welche Preisklasse der GK 104 wirklich gedacht war, und ich erwarte auch das er auf unter 300 Euro fällt sobald die Fertigungsprobleme bei TSMC aufhören

Als Gegenbeispiel mal die AMDs

6870 255mm²
7870 212mm²
6970 389mm²
7970 365mm²

Das der Chip nun 680 heißt liegt doch ganz einfach daran das er sich bequem vor einer 7970 plazieren kann. Hätte AMD schnellere Chips gebracht würde der GK104 einfach Leistungsbedingt auch eher 660Ti heißen.
 
Schöner Test und seit langem tendiere ich wieder mehr zu einer NVidia-Karte, Hut ab!

Was ich bisher aber nicht verstehe: Warum stellt man den FPS-Limiter im Test denn auf 50 FPS? Damit funktioniert doch nicht mal mehr VSync, es kommt u.U. also zu Tearing, oder täusche ich mich da?
Vom Gefühl her würde ich das adaptive VSync aktivieren sowie den Limiter auf 60 FPS setzen, das müsste doch ideal sein... Stellt man nun noch das Power Target (also die maximale Stromaufnahme) auf den im Treiber maximal zulässigen Wert, müsste die Karte versuchen, bei anspruchsvollen Titeln die 60 FPS zu halten und sich übertakten. Man halt also ohne viel Arbeit Über- und Untertaktung in Einem, tolles Feature!
 
caryaner schrieb:
Nvidia hat Physx, bessere Treiber, zieht weniger Strom, um 10% schneller.

Nichts sprichts mehr für HD7970 imo.

Erstmal abwarten, bis sich der Preis der 680 eingependet hat und dann mal schauen, wie groß die Differenz da ist.
Aber ich fand den Einwand berechtigt. Beide Karten sind zZt noch so teuer (450-500) Euro, dass sie imo als echte enthusiast Karten einzuordnen sind. Da wiederum dürften auch durchaus größere Auflösungen und sogar Vision-Surround des öfteren vertreten sein und da ist die 7970 echt nah an der 680 dran.
Für 1920x1080 reicht echt für die allermeisten eine GTX560 Ti oder wenns was härteres sein muss auch 6970 / 570 / 580, da muss man nicht nochmal 200 Euro mehr ausgeben nur um statt 80 FPS dann 130 FPS zu haben.
 
@ Sawubi:

Spekulation meinerseits:

nV hat vlt. in dem Sinn mehr erwartet, sodass sie den GK 110 Kepler gar nicht früher bringen mussten, da selbst der GK 104 besser als die 7970 ist.

---

Die üblichen Verschwörungstheoretiker wie Anti-Apfel dürfen natürlich in keinem xyz (setze beliebigen Hersteller ein!)-Test fehlen. Wäre ja langweilig sonst :lol:
 
caryaner schrieb:
Das stimmt so nicht. Ich finde die unterschiede schon beachtlich.

www.gamestar.de/hardware/grafikkart...est/nvidia_geforce_gtx_680,464,2565890,6.html

AMD muss über den Preis kontern, ansonsten wird die Karte im regal verstauben.

Natürlich, jetzt fällt es mir wie Schuppen von den Augen :D

91 zu 84 Frames bei 1680x1050, da wird das Spielerlebnis doch gleich ganz anders (Spielt das einer mit so einer Auflösung und so einer Karte ???).

78 zu 74 Frames bei FullHD, das sind ja Welten !!!

47 zu 47 Frames bei 2560x1600, aber wen interessiert das denn schon. Unter 80 FPS wird man bei Anno doch blind, Auflösung spielt doch keine Rolle.

Mann was ärgere ich mich, dass ich schon mit der 7970 rumdaddeln kann, wo ich doch jetzt für nur wenig mehr Geld, geradezu brachial mehr Leistung hätte haben können.

Das passiert mir ja nicht nochmal. Wäre ich man bloß bei NVidia geblieben.

Danke, dass mir die Augen geöffnet wurden.
 
Kann mir jemand sagen, wann es Kepler in der vollen Ausbaustufe im Markt geben wird?
 
Tapion3388 schrieb:
Was ich bisher aber nicht verstehe: Warum stellt man den FPS-Limiter im Test denn auf 50 FPS? Damit funktioniert doch nicht mal mehr VSync, es kommt u.U. also zu Tearing, oder täusche ich mich da?
Vom Gefühl her würde ich das adaptive VSync aktivieren sowie den Limiter auf 60 FPS setzen, das müsste doch ideal sein... Stellt man nun noch das Power Target (also die maximale Stromaufnahme) auf den im Treiber maximal zulässigen Wert, müsste die Karte versuchen, bei anspruchsvollen Titeln die 60 FPS zu halten und sich übertakten. Man halt also ohne viel Arbeit Über- und Untertaktung in Einem, tolles Feature!

Was ich schonmal sagte, was ist wenn ein Monitor mit 75Hz benutzt wird ? So wie meiner z.B.
Dann würde der Frame-Limiter Test nicht mehr so deutlich ausfallen. und CB wollte schließlich das ganze nur verdeutlichen.
 
Respekt, Der Sprung ist echt gelungen, die perfekte 660 Performance wenn AMD nicht wegen der wirtschaftlichkeit die halb optimierte GCN Grafik auf den Markt geworfen hätte.

Die Karte macht echt alles richtig und ist optimal zugeschnitten. das selbst bei der höchsten getesteten Auflösung und Details die Karte noch gleich auf ist, zeigt sich wie knapp Perfekt die 256Bit auf 2Gb ausreichen.
Als 690 wird das aber ein klares Defizit, genauso beim Sli betrieb, aber zwei 4Gb Varianten sollten Preislich auch drin sein, es muss sie nur geben.

Doch die Karte macht alles richtig, da kann man einfach nicht meckern.

Aber ich möchte trotzdem Meckern, nicht weil der Preis nicht gerechtfertigt ist, der Preis ist gerechtfertigt, und genau das stört mich :D
Und Dualmonitorbetrieb, alles idioten bei Nvidia und AMD xD

zum Glück alles richtig gemacht, vorher noch schnell eine GTX 580 kaufen wie soviele meinten wäre ja mal FAIL gewesen ....
Mal schauen was die Preise nächste Woche machen, vielleicht mag ich ja shoppen gehen, so eine 7950 würd sich schon gut machen ...

PS: gibts ein Vergleich HD7970 Max OC gegen GTX680 Max OC oder hab ich den verpeilt? kurztest pls xD
 
Artikel schrieb:
Anders als bei AMDs Eyefinity-Technologie ist es bei Surround nun möglich, die Task-Bar auf den mittleren Monitor zu beschränken – bis jetzt hat sich diese immer über alle angeschlossenen Displays ausgestreckt.

Das ist falsch. Diese Option gibt es bei AMD schon seit einigen Treiberversionen. nVidia hinkt(e) hier (bisher) hinterher.
 
Zurück
Oben