News Erster Test der Nvidia GeForce GTX 680

Ich warte mal lieber den CB Test ab, aber dennoch scheint NVidia nicht den angekündigten hohen Leistungsunterschied zu bringen - war ja zu erwarten.

Momentan gibt es für mich keinen Grund von meiner HD5870 wegzugehen - solange sie nicht den Geist aufgeben sollte. :p
 
addicT* schrieb:
Yeah! Ich hatte gehofft, dass nVidia nach dem zugegeben großspurig klingenden "wir hatten uns von der Radeon 7XXX mehr erhofft" Taten sprechen lassen würde. Nun scheint sich das, zumindest oberflächlich, zu bestätigen.

Freue mich auf den CB-Test. :)

Ich gestehe, ich hätte nicht erwartet das sie so schnell ist und dabei auch beim Verbrauch überzeugen kann.
Aber real betrachtet hatte ich mir nach den überheblichen Aussagen seitens Nvidia doch mehr erhofft, der "Wow" Effekt ist da jedenfalls ausgeblieben.
Es sieht wohl so aus als wären beide Grafikkarten in etwa auf Augenhöhe, also keine Grundlage für große Kraftsprüche.

Gruß, Deep
 
Zuletzt bearbeitet:
jetzt werden alle ihre 7970 wieder verkaufen und sich eine GTX680 kaufen, da diese schneller ist... :)

freue mich schon auf den test von cb riesig!
 
Na ja. Vom Hocker haut mich das ganze jetzt nicht. 3125 Punkte im 3DMark11 schafft meine 7970er auch locker wenn ich sie etwas übertakte. Luft nach oben habe ich auch noch sehr viel.

Desweiteren kommt es auch darauf an welche Qualitätseinstellungen verwendet wurden usw usw... Solchen komischen Test´s wie diesem hier traue ich nicht ganz...

Ich warte auch erstmal ab auf einen kompletten Test seitens CB. Denke aber das die GTX680 in etwa gleich schnell sein wird. In extrem hohen Auflösungen und mit hohen Qualitätseinstellungen kann ich mir aber vorstellen das die 680er sogar leicht langsamer sein könnte... Na ja alles nur Spekulationen... Der Test wird´s zeigen,...
 
Jiggerman schrieb:
jetzt werden alle ihre 7970 wieder verkaufen und sich eine GTX680 kaufen, da diese schneller ist... :)

freue mich schon auf den test von cb riesig!


Glaube ich eher nicht,aber wenn es wirklich Leute gibt die das machen wollen sollten sie nur ein bisschen ihr Grips anregen,nur ca.2 FPS mehr bei BF3(Läuft auf NV allg. besser) und dafür die HD 7970 verkaufen dabei noch Verlust machen und mit einem Geld aufschlag die GTX 680 kaufen.Die Paar Watt die die Karte weniger Verbaucht macht das auch nicht Wett und seien wir mal ehrlich fast jede HD 7970 lässt sich über 1100mhz Takten und schon wäre auch die GTX 680 langsamer(Ich weis nicht ob sich die GTX 680 auch so gut Takten lassen wird wie die HD 7970,Donnerstag werden wir es sehen :D )
 
Project-X schrieb:
Bisher steigen die leistung der nVidia Karten immer durch mehr Unifield Shader einheiten, und nachdem der GTX580 512 Shadern hat, sollte der neue GTX680 Theoretisch mit 1536 Shadern das 3x Leistung haben. Aber irgendwie geht es nicht mehr auf, trotz 1D Shadern.

Stimmt, man muss dazu mal wissen das 40nm auf 28nm eine halbierung ist.
Heißt Theoretisch könnte bei gleicher Chip größe also doppelt soviele Einheiten verbaut werden.
Jetzt wurden die sogar verdreifacht und der Chip samt Leistungsaufnahme schrumpft.
Das da einiges beschnitten wurde ist wohl eindeutig, nur nicht ob das wichtig war was da jetzt weg ist :D aber man munkelt ja GPGPU Leistung ...
 
pipip schrieb:
Somit lässt sich jz da es eine NV Karte gibt, verbesserte OC Varianten bringen die den NV viel besser angenähert sein könnten (Performance/Verbrauch)
Also ist es nicht unmöglich dass die 680 gtx mit dem Turbo schon sehr am Limit arbeitet, und overclocking vllt gar nicht mehr wirklich möglich ist. (Vermutung, kann auch anders sein :D)

Ziemlich sicher arbeitet die GTX680 schon recht am Limit. Sonst hätt der Turbo nicht nur läppische 50Mhz. Selbst wenn noch 100-200 Mhz mehr gingen, ist es nicht gesagt, dass der Chip so gut mit Takt skaliert wie Tahiti.

Der 28NM Prozess dürfte ziemlich derselbe sein, welchen AMD bekommt.
Und man sieht es ja bei der kleineren 7870 oder bei der etwas grösseren 7970, viel mehr als 1000-1100 Mhz dürfte der Prozess nicht mitmachen, bei einer Verkaufsversion wohlgemerkt. Mit OC und einem gut selektierten Chip sind sicher auch 1200-1250 unter Luft dauerhaft drin.

Eine gut selektierte 7970 aus später Produktion, vielleicht sogar neuer Chip Revision unter Wasser wär IMHO n Kracher.
 
amd hätte die 7970 auch mit 1000mhzu standardtakt rausbringen können, dann wäre die 680 nicht mehr über ihr gewesen, ausserdem hat die 680 auch nur 2 x6pol anschluss, womit sie auch nicht mehr die allergrößten reserven zum OCn hat. aber mal abwarten wie die tests nächste woche ausfallen.
 
Aza* schrieb:
Naja NV ist 3 Monate hinten dran, läßt ohne Ende Sprüche ab und bringt dann einen Chip, der in HD wahrscheinlich nur knapp besser und dann teurer und schlechter verfügbar ist.

Der 28nm Prozess läuft erst seit Anfang des Jahres und wurde kürzlich erst pausiert, aufgrund der geringen Ausbeute bzw. Produktionsproblemen. Was hat das mit AMD/NV zu tun? 3Monate sind da nix gar nix. Der 28nm Prozess soll noch das ganze Jahr so schlecht laufen und NVidia hat jetzt eine Effizientere Archtiektur aber großartig das du "Entäuscht" bist.
Ergänzung ()

AMD-Mafiosi schrieb:
Die zweite Frage ist: Wie wird AMD kontern?

Damit die Leistungsaufnahme Explodiert und man bedenke noch die schlechte 28nm Ausbeute :lol: NVidia ist jetzt schon effizienter wie stellst du dir denn das vor?
 
Käme wirklich zeitnah ein GK110 wäre es wohl kaum nötig die HD7990 mit einer Dual-GK104 zu kontern.
Von daher klingt es für mich recht plausibel das GK110 entweder erst wirklich sehr spät kommt als GTX7xx oder nur für Tesla vorbehalten ist.
AMD hat auch auf die schnelle keinen Tahiti XTX auf Lager und Nvidia braucht im Desktop Segment auch keinen GK110, von daher wirds wohl rein auf ein Dual-GPU Duell hinauslaufen :rolleyes: wie immer eigentlich.

Ich gehe mal realistisch davon aus, dass GK104 5-10% schneller wird, bei marginal kleinerer Verlustleistung. Die Preise werden wohl auch auf ~500€ gehen und die AMD´s können ihre Preispolitik wie gehabt fortsetzen.

Ziemlich geil finde ich das Adaptive V-Sync. Dann brauch ich mir keine Gedanken mehr mache ob meine Karte bei nem Spiel die 60FPS schafft, ich lass das immer permanent an, hab ich keine 60FPS schaltet es V-Sync ab, hab ich mehr, hab ich zugleich auch einen Framelimiter. Was will man mehr?
 
Zuletzt bearbeitet:
Kriegsgeier schrieb:
Sehr geil, wie du aus einem Wort was ein "h" zuviel hat sich lüstig machst ;) War ein vertippen...

PS: was soll denn deiner Meinung denn GK110 mehr haben als GK104? Wenn du es gleich nennst, dann siehst du selbst, dass es wenig Sinn macht so ein Chip raus zu bringen.

Hähä, da mußt du aber sehr dicke Finger gehabt haben. Schau mal auf deine Tastatur und auf das Wort. Um ein "h" in dieses Wort zu verpflanzen, ist ein Vertippen auf der Tastatur nicht möglich, also ist deine Aussage gelogen! Du hast dieses Wort so geschrieben, wie gedacht.:D
 
Warum werden diese 500€ + X Grakas eigentlich immer noch mit Luftkühlung ausgeliefert? Ich meine in dem Preissegment sollte eine Wasserkühlung langsam zum Standard werden.

Gerade auch, weil die 200 Watt Karten (Luft) thermisch am Limit sind (wie man sehr schön an dem sich immer selbst einschränkenden Turbo sehen kann).

Zumal ja die Ausstattung für die Wakü nur einmal gekauft werden muss. Und danach muss man nur alle 2-3 Jahre den Grakakühler tauschen...
 
Hab mal meine 7950 auf die Werte der GTX680 1000mhz Gpu/ 1500mhz ram (6000mhz) angehoben. Und das ohne zusätzlicher Spannung oder Powertune.
Treibereinstellungen auf Default . Und siehe da, die 680 sieht im Heavenbench kein Land mehr. Mein Karte zieht mit den Einstellungen ca 175 Watt .Default sind es 150 Watt.
http://ht4u.net/reviews/2012/sapphire_radeon_hd_7950_oc_test/index15.php


Ehb87387.jpg


Und dafür wollen die von Nvidia 500-600 Euro. Die ticken wohl nicht richtig.
 
AMD-Mafiosi schrieb:
An die GK110 Spekulanten: Ich glaube auch kaum, dass ein GK110 kommt. Vllt wird NV ihn im HPC Markt etablieren, dann aber zu Mondpreisen, denn AMD hat in der Kategorie mal nichts zu liefern und Intel ebenso wenig. Knights Ferry ist immer noch keine Alternative auch wenn der Ansatz, der mit Ivy verfolgt wird, sehr für solche Karten Sprechen würde.

Das ein GK110 kommen wird ist so sicher wie das Heute Abend die Sonne untergeht !
Ich verstehe nicht, warum es so viele Leute hier gibt, die glauben, dass NVIDIA einfach so still sitzenbleibt und zusieht, wie AMD ihre jetzige High-End-Karten verfeinert und ihren 3 monatigen Vorsprung ausbauen kann.

Natürlich wird es einen GK110 geben, nur eben ist seine Bezeichnung nicht sicher, ob sie noch unter der GTX600-Serie laufen wird, oder NVIDIA gleich auf GTX700 weitermacht.
AMD wird ebenfalls ihre HD8000er präsentieren. Das ist auch sicher !

Für alle GK110 Zweifler:
http://www.3dcenter.org/news/tape-o...rfolgreich-gk110-karten-aber-nicht-vor-august

Also warum soll NV den Gk110 bringen? Vllt wird er optimiert und als Kepler Refresh an den Markt gehen, denn selbst NV dürfte gemerkt haben, dass Stromsparen auch bei PCs in ist ;)

Weil die Konkurrenz nicht schläft ! Wer den Markt verpennt, der bleibt irgendwann in der Insolvenz stecken. NVIDIA hat schon mit dem Fermi deutlich zu spüren bekommen, wie schnell doch alles gehen kann und schon wurden sie von damals noch ATI an die Wand gefahren.

Ebenso ist es NVIDIA sehr wohl bewusst, dass es sehr viele Enthusiasten gibt, die eben primär die Leistung im Vordergrund sehen möchten.

Wie kommt man eigentlich darauf, nur weil NVIDIA jetzt den Performance-Chip GK104 herausbringt, dass NVIDIA gar keinen GK110 plant ?
Der GK110 ist die Weiterentwicklung des gestrichenen GK100. Genau wie der GF110 alias GTX580 die Weiterentwicklung des GF100 alias GTX480 ist.

Der Grund warum NVIDIA jetzt erst den GK104 herausbringt, liegt in der bescheidenden Möglichkeit seitens TSMC den 28 nm Fertigungsprozess endlich in die Gänge zu bekommen.
Es ist schlicht und einfach wirtschaftlich nicht möglich jetzt schon einen GK110 in Auftrag zu geben. Das ist der ganz Grund dahinter.
Nun wird eben der GK104 dank seiner Performanzstärke und Sparsamkeit eben als GTX680 vermarktet und tritt somit an den Platz des einstig geplanten GK100.
NVIDIA hat eben mehr von AMD erwartet und nun gibt es eben den GK104 als High-End-Karte.

Project-X schrieb:
Bisher steigen die leistung der nVidia Karten immer durch mehr Unifield Shader einheiten, und nachdem der GTX580 512 Shadern hat, sollte der neue GTX680 Theoretisch mit 1536 Shadern das 3x Leistung haben. Aber irgendwie geht es nicht mehr auf, trotz 1D Shadern.

Bei der GTX580 hat noch der "HotClock" dafür gesorgt, dass eben die mageren 512 Shadereinheiten deutlich mehr ausgequetscht wurden. Sprich, der Hotclock sorgte für eine Verdopplung der Shaderleistung.
Die GTX680(GK104) besitzt aber keinen "HotClock" mehr und hat dafür eben deutlich mehr Shadereinheiten. Aber dafür ist diese Art eben sparsamer.
 
Zuletzt bearbeitet:
Mr.Seymour Buds schrieb:
Warum werden diese 500€ + X Grakas eigentlich immer noch mit Luftkühlung ausgeliefert? Ich meine in dem Preissegment sollte eine Wasserkühlung langsam zum Standard werden.

Gerade auch, weil die 200 Watt Karten (Luft) thermisch am Limit sind (wie man sehr schön an dem sich immer selbst einschränkenden Turbo sehen kann).

Zumal ja die Ausstattung für die Wakü nur einmal gekauft werden muss. Und danach muss man nur alle 2-3 Jahre den Grakakühler tauschen...

Ganz einfach, weil die meisten keine Wasserkühlung haben wollen, nur Freaks. Egal wie gut Wasserkühlung ist, Wasser kommt mir nicht ins Gehäuse.:D
 
Ich würde mich ebenfalls als "gemäßigter" enthusiast bezeichnen, da ich grundsätzlich auch auf wasserkühlung verzichte, aber dennoch meistens die beste highend single-gpu kaufe, egal, was sie kostet :p
 
Da es wohl untergegangen ist, hier nochmal:

Die GTX 680 scheint kein PhysX zu unterstützen!

Auf dem mittleren Bild von dem Test http://www.hkepc.com/7672/page/6#view ist bei GPU-Z kein Haken bei PhysX. Ich habs gerade nochmal probiert, den kann man auch nicht selber setzen oder entfernen.
 
Zuletzt bearbeitet:
Auslesefehler. Davon ab heißt es PhysX und nicht PsyiX ;-)
 
Die Betonung liegt auf "scheint" - bei dieser Architektur müssen die Bibliotheken sicher angepasst werden und ob das aktuelle GPUz es erkennen kann ist auch fraglich.
 
Zurück
Oben