Test GeForce GTX 680 im Test: Mit Kepler ist Nvidia wieder die Nummer 1

bekommt man die karte überhaupt noch für 436€?
 
Iscaran schrieb:
http://www.hardwareheaven.com/revie...gtx-580-oc-performance-review-conclusion.html

GTX480, 30% mehr Watt bei 10-15% mehr Leistung vs. HD 5870 - störte damals keinen der fanboys.
GTX580 v HD 6970, zwar auch mehr leistung aber auch mehr watt, nicht mehr soviel wie GTX480 aber dennoch AMD wins....störte noch vor wenigen Wochen niemanden.

JETZT plötzlich hat nVidia mal eine Karte die in dem Bereich knapp punktet und schon ist die Konkurrenzkarte HD 7970 ein mega fail....

Einfach nur lachhaft die Argumentationsketten.

...und DU hast Dir auch ganz genau gemerkt, dass es Nvidia-Fanboys waren, denen der Stromverbrauch der GTX460 egal war, und der der 7970 auf einmal nicht?
Oder ist das DIR, als eigentlicher Fanboy nur so subjektiv aufgefallen? Zudem hab ich kein Kommentar gelesen, indem die 7970 so als Heizung verschrienen wird wie Thermi...
Man kann sich ne Menge einbilden...
 
Wolfgang schrieb:
Jedoch ist Kepler eben die einzige GPU, die den Limiter mit GPU-Boost verbindet und sich autoamtisch und dynamisch sehr fein heruntertaktet.

Das ist vielleicht mal das Ziel bzw. der Wunschtraum.
Aktuelle ist es so, das noch nicht mal der Limiter und der GPU-Boost richtig "zusammenarbeiten".
Oft genug ist es so, das mit dem Limiter begrenzt wird, dies deutlich unter der durch. FPS liegt und trotzdem sogar der Turbo, absolut nutz- und sinnlos, gestartet wird. Uebrigens auch sehr schoen in eurem eigenen Test zu sehen, das das Ganze so gut wie nie so funktioniert wie es wohl sollte.

Die verringerte Leistungsaufnahme, die sich noch ergibt, liegt dann ausschliesslich an der geringeren Last und ist bei Nvidia nicht hoeher als bei AMD, sondern im Vergleich zum Standardtakt noch geringer, da ja ganz unnuetzerweise Nvidia den Turbo anschmeisst.

Nividia hat hier was implementiert, was definitiv nicht so arbeitet wie es soll. Die Features werden hoch gelobt, es wird aber "vergessen" zu erwaehnen, das sie meist nicht richtig arbeiten.
Trackmania und Hard Reset zeigen wie das Ganze funktionieren soll und kann. Der Rest zeigt, das bei der Umsetzung uebel geschlampt wurde.
 
Zuletzt bearbeitet:
Der FPS-Limiter kenne ich eigentlich erst seit ca 2007,
ich hatte meist Rechner die nie "zuschnell" waren um alte Spiele mit über 200fps zu haben, das ist ja in der heutigen zeit anders wo man sich bei www.gog.com oder steam alte Schätze nochmal auf den win7 Rechner besorgen kann.

Das müsste halt geteste werden wenn eine AMD/ATI Karte auch bei den geteste Spielen (Trackmania2, Hard Reset) runtertakte wenn sie anstelle mit über 200fps nur mit 45 fps läuft, vorstellen kann ich mir das weil es meine HD5870 auch schon macht.
Weil in den modernen rechenintensiven Spielen hat sich die GTX680 ja nur im boosterbereich aufgehalten,


genau .... GreatEvil
 
Zuletzt bearbeitet:
Motkachler schrieb:
AMD brauch nur eine HD 7970 oder HD 7980 Gigahertz + Edition bringen.
Dann wars das mit der Singlekarten Krone von Nvidia. Wenn sie schlau sind passiert das in den nächsten 2 Wochen. Dann wars ne kurze Kronenzeit.:D

Gähn...
http://www.hardwareluxx.de/index.ph...tx-680-mit-2-ghz-gpu-takt-in-entwicklung.html

Motkachler schrieb:
Die GeForce GTX 680 ist nicht der Überflieger, den manche sich eventuell gewünscht hätten. Ja, Nvidias neue Grafikkarte ist in vielen Fällen schneller als die Radeon HD 7970, in manchen Spielen fällt sie aber auch dahinter zurück - und in Einzelfällen sogar hinter eine 7950.

Das Fazit hier triffts genau. Die sagen im gegensats zu vielen Reviewern was sache ist.
http://hartware.de/review_1460_17.html

Wieso liest hier eigentlich niemand den Test und schreibt einfach das nieder, was ihm in sein gepresstes Hirn passt ?
https://www.computerbase.de/artikel/grafikkarten/nvidia-geforce-gtx-680-test.1733/seite-3

Um es einfacher zu machen:
Zeitgleich hat Nvidia das Scheduling der Rechenbefehle vereinfacht und stärker auf die Software ausgelagert, während bei Fermi noch das genaue Gegenteil der Fall ist. Hierdurch sind für deutlich mehr Befehle die Rechenwege beziehungsweise die Verteilung der Aufgaben schon vorher festgelegt, während bei Fermi die Hardware mehr Einfluss darauf hatte, welche Daten wohin verteilt werden. Durch diese Änderung soll die Effizienz deutlich steigen.

Übersetzt lautet dies.
Das NVIDIA nun unter dem selben Problem leidet wie AMD.
Die Treiber müssen jetzt stärker angepasst werden.
Während zu Zeiten von Fermi und vorher noch der Automat die größte Arbeit verrichtet hat(Hardwareseitiges Sheduling), so müssen jetzt Leute herhalten, die die Treiber auf die jeweiligen Anwendungsgebiete einstellen.
Genau deshalb waren die Treiberupdates von NVIDIA immer nur Bugfixes und nur marginal Performance ausgelegt bis auf ein 1% Punkt da oder dort.

Kurz um, NVIDIA wird im laufe der Zeit ebenfalls durch Treiberupdates die Leistung signifikant verbessern können.
Die Frage, die sich nun stellt ist, wie gut kann das NVIDIA im Gegensatz zu AMD ?
AMD hat ja nun einige Jahre Vorsprung und NVIDIA muss sich auf diesem Gebiet nun wohl deutlich mehr aneignen.

Fuxus schrieb:
Eine Frage geht mir jedoch nicht aus dem Kopf: Jetzt hab ich schon zum 2. mal gesehen/ gehört dass sich die Karte hochtaktet wenn sie nicht voll ausgelastet ist. Mir erschließt sich aber der sinn dahinter nicht. Wenn sie nicht ausgelastet ist, dann noch mehr Power zur Verfügung zu stellen ist doch umsonst oder?

Man kann es ganz einfach erklären.

Die Karte GTX680 will immer so schnell sein wie die TDP es zulässt. Also wenn die Karte merkt, dass sie nicht ausgelastet ist, so setzt der Turbo ein der die Taktraten und auch die Spannung erhöht sich, wobei erst der Takt hoch geht, dann die Spannung und weiter der Takt. Dies ist ein Anpassungsvorgang und variiert ständig.

Der Limiter setzt dem Ganzen einem Riegel vor. Mit ihm kann man quasi der Karte eins auf den Kopf schlagen und sagen Nö ! So schnell brauche ich es nicht !
Somit taktet die Karte runter und senkt die Spannung bis zu der tatsächlich eingestellten FPS-Frequence. Bei älteren Spielen kann dies sehr niedrig ausfallen und man spart eine menge Energie ein.
 
Zuletzt bearbeitet:
Bei meiner 480 hat das aber auch so in etwa funktioniert, ohne solche solche Hilfsmittel, außer V-Sync. Medal of Honor - Pacific Aussault, durchgehend 60FPS, Karte nicht richtig hochgetaktet (450MHz oder so), nur um die 62°C warm und Lüfter auf Idle-Drehzahl. So ein verbesserte Anpassung bei der 680 ist schon eine gute Sache, dass die Karte dann beispielsweise nur auf 200MHz schaltet, um das obige Beispiel darzustellen. Wandert Skyrim ins Laufwerk, kann die Karte soweit ausdrehen, wie möglich.

Und den Kunden freut es, weil er evl. am Netzteil sparen kann und mit 450W auskommt, welches billiger ist, aber trotzdem gut ist.

Edit: Bei sehr hohen FPS-Zahlen fiepen Grafikkarte gerne, das wäre dann auch abgestellt.
 
Was heißt den hier verfälscht ? Klar kann man die Karten dann nicht wirklich 1:1 miteinander Vergleichen, aber hey so ein feature hätte ATI auch bringen können.
Natürlich kann man die Karten vergleichen, hab ich doch geschrieben, der Test passt NV hat die Fakten verdient so wie sie sind. Einen Vergleich zu einer Software modifizierten Radeon wäre trotzdem interessant, warum folgt gleich.

dennoch ist die Karte sehr effizient und so lange die FPS stimmen ist mir persönliche egal, wie die es geschafft haben das die Effizienz stimmt.
Mir ist es eben nicht egal, ich würde interessieren was die Architektur wirklich kann und wo das Software/Treiber Einschreiten anfängt. Ergo würd ich gerne mal Effizienz Runs ohne Turbo und mit festen Clocks sehen. Dann könnte man hoch rechnen was AMD an Effizienz gewinnen würde, würden sie im nächsten Treiber auch einen Turbo integrieren. Die TDP Überwachung ist sowieso schon vorhanden, wäre ein leichtes seitens AMD hier auch ein paar % rauszukitzeln. (genau die paar % an denen sich die Fanboys gerade aufhängen) Wohl wesentlich einfacher als jetzt schnell mal eine neue High End Radeon(OC) nachzuschieben.

Am liebsten würde den GPGPU Ballast der HD 7970 kurz mal schnell über Bord werfen, nur um zu wissen wie effizient GCN arbeitet, würde sie wie Kepler daherkommen. (hat wer einen Lötkolben parat) ;)
 
Zuletzt bearbeitet:
Kleine Frage:
Wenn man mehr transistoren hat ist die prduktion auch teuerer?
AMD HD7970: ca. 4,31 Mrd.
Nvidia GTX 680: ca. 3,54 Mrd.
 
@fippi22
Nicht direkt. Ein größerer Chip macht die Produktion eher teurer (auch wenn das natürlich mit der Transistorenzahl zusammenhängt). Und der der GK104 liegt fast mittig zwischen HD7870 und HD7970 (von der Chipgröße), deswegen kann man vermuten, dass das auch auf die Kosten für eine Die gilt.
 
Zuletzt bearbeitet:
Zhalom schrieb:
Und ihr seit euch sicher, die Garantiebestimmungen jedes Herstellers geprüft zu haben? Wobei es sicher ist, das noch sehr viele Grafikkarten mit dem Chip kommen werden ,wisst ihr das schon?
Laut Nvidia muss jede GTX 680 die verkauft werden will GPU-Boost im vollen Umfang unterstützen. Und die Aussage über die Garantie stammt von Nvidia selber - bezweifle, dass da ein Bordpartner was anderes macht :)

@Schaby
Das Review war sehr viel arbeit und ist doch umfangreiche geworden as wir erst dachten. Da sind uns einige, feine Details dann leider untergegangen :)
 
Weswegen erscheint die HD 7850 nicht in größeren Auflösungen?
Die dürfte da evtl. sogar nen Ticken schneller wie die GTX570 sein.
 
Mich würde ein Gedanken Experiment interessieren, wäre die 680 AMDs neue Karte gewesen und die 7970 Nvidias neue Karte, würde mich interessieren wie die comments dann abgelaufen werden. Schade das man sowas natürlich nicht mehr machen kann aber es weiß ja eh jeder was bei rumkommt.
 
minustaurusrex schrieb:
Sich ne GTX 680 zu kaufen ist reine Geldverschwendung eine Palit GTX 580 gibts für 390,- eur die hat eine leise und leistungsfähige Kühlung, 3GB VRAM, und ist übertaktet genauso schnell extrem übertaktet sogar schneller als die GTX 680 die wiedermal in hohen Auflösungen wegen der lächerlichen 2GB VRAM versagt.

Es ist ja auch nicht allein die Speichermenge (das für sich allein betrachtet ist schon traurig genug für eine 500 € teure Grafikkarte, dass dort noch immer gegeizt wird) sondern auch das verkrüppelte Speicherinterface mit seiner 256bittigen Anbindung, was ganz sicher auch einer der Gründe ist, warum diese Karte in 2560x keine Bäume ausreissen kann! (was der Chip in dieser Auflösung an Rohleistung bietet, ist ohne Vergleiche wohl nur sehr schwer einzuschätzen, aber die Performance wäre mit 384- oder besser noch 512bit sicherlich doch nochal um Einiges höher!)
 
@Arno Nimus
Jep, und die Karte wäre dann noch teurer geworden. Super Geschäft, aber vielen sind die knappen 500 Euro schon mehr als genug. Nichts für ungut, aber die Leistung in 2560x1600 ist immerhin knapp über der der HD7970.

Wenn dir das nicht genügt, dann musst du in extremen Settings spielen. Mit welcher Karte quälst du dich denn momentan in 2560x1600, so dass die GTX680 nur einen kleinen Sprung darstellen würde?
 
Zuletzt bearbeitet:
@Wolfgang
sowas kann man bestimmt noch nachträglich ändern, oder?

Ich kann sogar deine Begeisterung für diese Karte nachvollziehen. Dennoch stand und steht CB für einer der wenigen Seiten im Netz, die als "Neutral" einzustufen sind. Und genau deshalb dürfen solche Dinge einfach nicht passieren.

Wie du wahrscheinlich auch schon festgestellt hast, wird genau das von einigen hier kritisiert.
 
Booby schrieb:
Dann schau dir Metro, Anno oder Serious Sam an, die Performance anhand eines einzigen Spiels auszumachen ist nicht hilfreich!

ja aber das ist dann genauso Cherry Picking da zB. Metro der GTX 680 scheinbar gar nicht liegen mag, eventuell ein Treiber Problem imho ist die GTX 580 fast genauso schnell mit 200 Mhz weniger.

Wenn man also es nötig hat Metro heranzuziehen ...

Bei Serious Sam hat die HD7970 im Full HD 1% Vorsprung. Dass Tahiti nach oben raus bei Auflösungen besser skaliert ist nichts Neues.

Bei Anno selbst stimmt iwas mit der Engine nicht.

So ist eine HD5870 fast durchweg schneller als eine HD7850 ^^ und eine HD6990.

Jedenfalls skaliert die Engine extrem komisch.

Du wirst immer für beide Seiten Musterbeispiele finden, alles in allem ist bei Full HD die GTX 680 aber im Schnitt fixer.

OC sind beide etwa gleich gut unterwegs und die Tahiti Karten skalieren im Schnitt besser mit höheren Auflösungen.

Alles in Allem ergibt sich ein absolut ausgeglichenes Leistungsbild, aus Featuresicht ist meiner Ansicht nach die GTX vorne, weshalb diese meine Empfehlung bekommen würde.
 
Zuletzt bearbeitet:
Tomahawk schrieb:
Ein größerer Chip macht die Produktion eher teurer
Man bezahlt beim Fertiger immer den ganzen Wafer. Wie teuer ein Chip am Ende ist hängt nur davon ab, wie viele funktionstüchtige Chips man pro Wafer erhält. Und da spielt neben der Größe und dem Verschnitt auch das Design und seine Fehlertoleranz eine große Rolle.
Da Tahiti ~25% größer ist müsste AMD also 25% höhere Yields erreichen, damit die Chips gleich viel kosten.
 
Zuletzt bearbeitet:
Arno Nimus schrieb:
Es ist ja auch nicht allein die Speichermenge (das für sich allein betrachtet ist schon traurig genug für eine 500 € teure Grafikkarte, dass dort noch immer gegeizt wird)

naja marktwirtschaftlich gedacht ist es sinnvoll die Karte mit 2 GB zu bringen.

Ob man nun 2 oder 4 GB verbaut schlägt sich mit Sicherheit nicht unerheblich in den Fertigungskosten nieder, zudem wird der 2 GB Ram etwas besser taktbar sein also limitiert das SI weniger.

Da die meisten Benchmarks in Regionen stattfinden, bei denen 2 Gb vollkommen ausreichend sind bleibt die GTX 680 am Ende als Gewinner stehen. Wie das in 2 Jahren aussieht...

Wirtschaftlich macht NV aber alles richtig, kleiner Chip, ausreichend RAM, kostengünstiges Board mit nur 256 Bit was die Komplexität vereinfacht.

Das ist vor allem dann interessant, wenn man die Konkurrenz auch im Preis unterbieten will, was nicht jetzt sein muss aber wenn zb die GTX 780 kommt, kann man easy den GK104 für die GTX 760 Serie hernehmen.
 
Zurück
Oben