News Bilder der finalen Nvidia GeForce GTX 680?

Tigerfox schrieb:
Und statt sich nach all den schlechten Erfahrungen mal unabhängiger von TMSC zu machen (wann hatte ein neuer Fertigungsprozess bei denen zuletzt nicht lange große Probleme und schlechte Ausbeute?) machen sich immer mehr von denen abhängig.
Was sollen sie auch sonst machen? Um konkurrenzfähig zu bleiben muss man eben so schnell wie möglich auf kleinere Strukturen umsteigen.
Es fehlen einfach die Alternativen.
Sich jetzt 1 Jahr lang mit nem schlecht laufenden Prozess rumzuärgern ist auch nicht schlimmer als noch 1-2 Jahre zu warten um überhaupt starten zu können ohne dann die Sicherheit zu haben dass es dann super laufen wird.
 
Das ist aber nur die kurzsichtige Sichtweise, denn so langsam müssten die doch gemerkt haben, dass es jedesmal eine Quälerei mit TMSC ist und sich um die Schaffung von Alternativen bemühen. Sicher hilft das nicht von jezt auf gleich, aber wenn sie jetzt mal damit anfangen, hab sie vielleicht beim übernächsten Shrink nicht solche Probleme.
 
Sontin schrieb:
Äh hä?
Wenn HotClock wegfällt und der generelle Takt geringerer ist, dann ändert sich doch nicht die Rechenarchitektur. Takt beschreibt einfach nur die Schaltgeschwindigkeit.

Die "Shader" müssen sich daher mitnichten denen von AMD ähneln.

Offensichtlich schon. Da müssen die Shader sehr viel mehr auf Takt ausgelegt sein = eventuell weiteres Packaging und niedrigere Density.
 
Nen Dual-Core kannste schon mal direkt vergessen. Entweder nen dicken Quad für 200€+ oder nen schwächeren, dafür nen fetten CPU Kühler zum Übertakten. Sonst kann man sich das System direkt innen Po schieben.
Und ne 570 GTX...joah sicher aber nicht bei Crysis2 oder BF3 mit ultra und 4AA etc.!
 
Ich wette, die GTX 680 putzt nicht mal ne HD 7950 weg, und das ist kein Scherz ^^
 
Krautmaster schrieb:
Offensichtlich schon. Da müssen die Shader sehr viel mehr auf Takt ausgelegt sein = eventuell weiteres Packaging und niedrigere Density.

Über soetwas würde ich nicht spekulieren. Designen einer GPU ist auch immer eine Frage von FuE.

Wer wirklich sehen will, wozu Kepler anscheinend in der Lage ist, sollte mal im HWL vorbeischauen: http://www.hardwareluxx.de/communit...iskussionsthread-828035-182.html#post18578444

Die GT640m - GK107 in mobiler Form - ist fast so schnell wie GF106 als GTS450 trotz geringerer Taktung und deutlich weniger Bandbreite.

Ich lehne mich - optimistisch eben, weil man nichts zu verlieren hat - aus dem Fenster und sage, dass GK104 mehr als 2x so schnell ist als die GTX560TI.
 
Da mich ich mal gespannt, endlich der direkte Vergleich 28nm v. 28nm, maximale Performance per Watt von NV, wenn sie jetzt GCN nicht knacken wars das, effizienter wirds für lange Zeit nicht werden. Euren Leistungsklopper gibts laut Gerüchten erst viel später, steht auch in der News das wird wohl ein Performance Chip!
 
Zuletzt bearbeitet:
Grosses wird kommen.... GK104 basierten 1536 CUDA Cores - GeForce GTX 680 @ TDP ~190 Watt

nVidia-GeForce-GTX-680-Specifications.vorschau2.jpg


http ://diy.pconline.com.cn/graphics/news/1203/2702126.html?ad=6431
 
Zuletzt bearbeitet:
Jolly91 schrieb:
Ich wette, die GTX 680 putzt nicht mal ne HD 7950 weg, und das ist kein Scherz ^^
Jo, ist ja auch echt realistisch, dass nVidia mit der GTX 680 ne Karte ins Rennen schickt, die nicht mehr wie 3-5 Prozent schneller als die "Vorgängerkarte" (GTX 580) arbeitet. :o
Supermax2004 schrieb:
Ich prügel NV ins Nirvana wenn die 680 so ein richtig deftiger Analflop wird! :mad:
Made my day! :freak:
 
vor allem ist immernoch nicht richtig klar, ob die GTX680 überhaupt das Topmodell ist. Oder ob die kürzlich vorgestellte Karte eine GTX680 war.
 
1536 Cuda-Kerne/Shader-Kerne? WTF? Meine 480 hat da nur 480. Oder verstehe ich gerade was falsch?

Aber was ich sagen wollte, ich hoffe, die haben beim Referenzdesign nicht wieder den Lüfter und Chip kastriert. Hat mich schon bei Vorgängerkarten gestört.

Edit: Kann natürlich sein, dass das Bild gefälscht ist.
 
Zuletzt bearbeitet:
Ja die 1536 CUDA Cores wurden ja schon indirekt bestätigt... 3-4x bessere FPW (Performance pro Watt).

=> (3 x 512 Cores der GTX580) => GK104 1536 CUDA Cores /// GK110 => 2304 CUDA Cores !!!


Der Oak Ridge's Titan Supercomputer wird 2012 um 18'688 Tesla-GPU's auf Basis der Nvidia nächsten Generation-Architektur mit dem Codenamen "Kepler" erweitert! Titan wird aus insgesamt 200 CRAY XK6-Rack's
mit 18'688 CPUs und maximal 18'688 GPUs bestehen. => http://de.wikipedia.org/wiki/Cray_XK6

Zusammen mit dem versprochenen verbesserte Programmierbarkeit, sollte Kepler effizienter sein für GPGPU-Aufgaben. Die Kepler Gaming Grafikkarten sollten als GeForce GTX 600-Serie umgesetzt werden.

1-1080.1620460359.png


The new "Nvidia Kepler" architecture is expected to have significantly increased computational efficiency
and 3-4 times higher double-precision FP performance-per-watt.

http ://www.xbitlabs.com/news/other/display/20111012223953
_ORNL_s_Titan_Supercomputer_to_Deliver_10_20_PetaFLOPS_Performance.html

Titan Supercomputer to Deliver 10 - 20 PetaFLOPS Performance.

cray_xk6.jpg


Oak Ridge setzt auf 18.000 Kepler-GPU's http://www.heise.de/newsticker/meldung/Oak-Ridge-setzt-auf-18-000-Kepler-GPUs-1359028.html
 
Zuletzt bearbeitet:
Naja 3000MHZ Speichertakt ist auch mal ne Ansage, ob da noch viel nach oben geht :D .
Damit ist man gleichauf mit der 580GTX, wobei aber die rohpower wohl leicht darüber ist wird spannend wie die bandbreite hier limitiert oder doch nicht.

Bin gespannt was sich bei den 670 Ti gerüchten und der flashbarkeit noch so entwickelt, das könnte dann wirklich mal wieder eine interessante NV werden.
Vorallem wirkt sich dort auch der Turbo stärker als auf der 680GTX aus.
 
Zuletzt bearbeitet:
Ob die Bandbreite die Karte abkrüppeln lässt, wird der Grafikkartentest von Computerbase zeigen. :freaky:

Interessant wäre auch ein Vergleich zwischen Ati 7970, GTX580 und GTX480 in Skyrim mit Texturmods.
 
1536 Cuda-Kerne/Shader-Kerne? WTF? Meine 480 hat da nur 480. Oder verstehe ich gerade was falsch?
Hört sich im ersten Moment etwas viel an, gibts aber eine einfache Erklärung dazu. Durch das wegfallen des hot Clocks hat deine Geforce quasi "Turbo Kerne" und die 1500 von Kepler laufen im "ECO-Mode."(daher reicht die TDP auch für so viele Kerne aus, da es wohl nur 1GHz wird) Der Schritt hätte schon bei Fermi 1.0 kommen müssen! Dürfte die Sache tatsächlich effizienter machen, aber obs reich GCN zu schlagen bezweifle ich mal. Nah dran reicht nicht, da sie sowieso schon später dran sind.

Eine GTX 480 ohne hot Clock hätte wohl auch so um die 800-1000 Kerne unter gebracht bei gleicher TDP aber natürlich niedrigen Takt.

Ob die Bandbreite die Karte abkrüppeln lässt, wird der Grafikkartentest von Computerbase zeigen.
Kann ich dir jetzt schon sagen, die Bandbreite reicht locker, es gibt keine Grafikkarten die von der Bandbreite verkrüppelt werden. Allerdings werden die 2GB Vram das Todesurteil der Karte. HD 7970 3GB hat so gut wie gewonnen, da über kurz oder lang der Vram GCN gewinnen lässt, genau so wie 8800GTX v. GF 9

Erst die 4GB Versionen werden der HD 7900 dann richtig gefährlich werden...

Wenn die Folie stimmt wird Maxwell die "ueber GPU" -> haben will :D
 
Zuletzt bearbeitet:
Zuletzt bearbeitet:
Sollte die GTX680 nach diesen ganzen Gerüchten nicht/kaum schneller sein als die 7970 wird das die Blamage des Jahres für Nvidia (Vergleichbar mit AMDs Bulldozer im CPU Segment).
 
Ach ja... Blamage des Jahres ?!?

Die AMD HD7970 Radeon wurde hier doch abgefeiert als superdupertolle High-End Karte... und nVIDIA kommt nur mit ner 499$ Karte mit GK104 256 Bit Performance-Chip und plättet alle AMD Radeon's - köstlich ;o)
 
Zuletzt bearbeitet:
Achtung Nvidia Fanboy gesichtet. "Köstlich" (:rolleyes:) ist wohl eher wie du dich gleich angegriffen fühlst, vor allem da ich "SOLLTE" geschrieben habe. Spiel dich doch nicht so auf als ob du viel mehr wüsstest als alle anderen.
 
Zuletzt bearbeitet:
ich wollte grade schreiben Achtung Fanboy :D Also die 680 soll also ca 1.5x schneller sein als die 7970 in Battlefield 3? Das wage ich mal stark zu bezweifeln. Angeblich soll ja AMD auch noch ne 20% schnellere Single Gpu geplant haben, als die 7970 und so weiter bla bla bla. Die Fermi Grakas wurden auch hoch angepriesen und waren dann eher mäßig. Einfach abwarten sich jetzt den Kopf und die Mäuler zu zerreißen ist unnötig.

Ich Spiel immer noch zufrieden mit meiner guten alten Gtx 295 und werde dann gerne im Winter umsteigen auf eine neue AMD oder Nvidia.
 
Zurück
Oben