News Erstes Lebenszeichen des GTX-600-Nachfolgers aufgetaucht

boxleitnerb schrieb:
Ob GK110 für Desktop kommt, ist dann noch nicht völlig klar. Könnte sein, dass es bei GK204 aufhört als GTX780.
Interessante Aussage, wenn man bedenkt, dass du GK110 @ Games sicher als Performance-schneller als HD 8970 bezeichnet hast.
Abgesehen von der seitenweise Erklärungen, dass ich GK110 aufgrund des Stromverbrauchs (& Yields) viel zu schwarz sehen.

Die Informationen mehr als 2 Monate vor dem Start sind grundsätzlich nutzlos (außer man kennt Leute, die direkten Kontakt haben).
Denn 2 Monate vor dem eigentlichen Fermi-Start und GTX680 dachte man damals noch völlig anders über die kommende High-End-Karte.

Ob die internen Karten-Nummern 11x oder 20x heißen, ist völlig irrelevant für die Performance- und Einführungs-Einschätzung.
 
Fühl dich mal nur nicht zu überlegen. Ich sehe deine Projektionen bzgl. GK110 weiterhin als viel zu pessimistisch und realitätsfern an. Schneller als die 8970 wäre so eine Karte wohl auch - WENN sie kommt.

Es ist eine Möglichkeit, muss so nicht kommen. Wenn es sich finanziell lohnt für Nvidia, das Profisegment komplett abzutrennen, dann ja. Das weiß bisher nur Nvidia selbst.
 
Ich frage mich immer nur ob es so viel Bringt die Shaderzahl zu erhöhen und ein bisschen an der Taktate zu spielen wenn die Speicherbandbreite unangetastet bleibt.

Shaderzahl GTX 580: 512, GTX 680: 1536, GTX 780 zw. 1.728 und 2.112
Speicherbandbreite GTX 580: 192,4 GByte/s., GTX 680 192,2 GByte/s., GTX 780 ? GByte/s.

Man bekommt den Eindruck das die Kepler Karten beim Speicher stark ausgebremst werden und ohne diesen Flaschenhals weitaus mehr leisten könnten. Aber wahrschinlich könnte Nvidia dann nicht mehr mit ihrer Energieeffizienz punkten.
 
Die Shader sind auch niedriger getaktet bei Kepler als bei Fermi. Aber man geht mit der Speicherbandbreite schon ziemlich effizient um ja. Es gibt Fälle, wo eine 680 trotz gleicher Bandbreite 50% schneller ist als eine 580, das hab ich erst kürzlich mit einem Kollegen getestet.
 
Aber wahrschinlich könnte Nvidia dann nicht mehr mit ihrer Energieeffizienz punkten.
Du liegst richtig, mit einem größeren SI würde die Effizienz beeinträchtigt werden. Das muss NV packen beim Big K, der wohl wieder ein größeres SI bekommen wird, laut Gerüchten. Außerdem ist die Speicherbandbreite wohl der Grund warum der Vram so knapp bemessen ist, 3 oder im dem Fall 4GB lassen sich nur schwer in Masse auf hohe Taktraten trimmen. Bin mir ziemlich sicher das das einer der Gründe ist, warum die GTX 690 mit nur 2GB auskommen muss.

Genau darum ist auch Tahiti so beeindruckend in Sachen Energieeffizient schon seit Anfang an. Ein GPGPU Chip mit einem für AMD untypischen hohen SI, so effizient. Und das beim ersten Anlauf, nicht schlecht her Specht. Zur Erinnerung, NV brauchte einen 2. Anlauf für Thermi, der dann immer noch nicht effizient war sondern nur einigermaßen hin gebogen.
 
Zuletzt bearbeitet:
Äh, GF110 war ähnlich effizient wie Cayman, siehe GTX570 vs HD6970. Aber das nur am Rande. 3 GB trimmt AMD auch auf 1275 bzw. 1500 MHz, das ist jetzt keine besondere Kunst - die Frage ist, wieviel Energie am Interface dabei draufgeht. Wieviel der Speicher selbst braucht, weiß ich nicht.
 
Shio schrieb:
dann wäre der GK110 ein refresh?

Ja, in dem Falle ein Refresh von einem Chip der nicht auf den Markt kam, weil er aus welchen Gründen gestrichen wurde. Deswegen hat die High-End-Karte den nächst größeren Chip abbekommen. Deswegen auch das Names-Leistungschaos im Mainstreambereich.

Herdware schrieb:
Das würde aber gleich doppelt nicht zum Namen passen.

Bisher war es bei Nvidia immer so, dass je höher die letzte Zahl, je kleiner ist die GPU. Das High-End-Modell hat hinten eine 0 und das kleinste Low-End-Modell eine 9.

Und wie gesagt, bei einem Kepler-Refresh würde die mittlere Zahl hochgezählt (GK11x), nicht die erste, und die nächste vollwertige Generation nach Kepler hat außerdem den Codenamen Maxwell. Die High-End-GPU der Maxwell-Generation würde GM100 heißen.

Wenn Nvidia aber dieses Namensschema umgeworfen haben sollte, dann sagt der Name GK208 genau gar nichts mehr aus. Bzw. können wir nur total ins Blaue hinein raten, für was er wohl stehen könnte.

Für mich ergibt die Bezeichnung auch kein Sinn. Außer Maxwell verzögert sich und größerer Refresh von Kepler wird dazwischen gezogen. Ansonsten ist das Gerücht der letzte Mist.
 
Shio schrieb:
...
dann wäre der GK110 ein refresh?

Wenn das bisher verwendete Nummerschema noch gilt, ja. Das ist das Selbe wie bei GF100 (GTX480, 470) und GF110 (GTX580, 570).

Die Erklärung dafür, dass direkt die GK110 kommt und es keine GK100 gegeben hat, könnte sein, dass diese GPU komplett ausgelassen wurde. Der normale Fall wäre ja gewesen, dass die High-End-Variante ein paar Monate vor der Mittelklasse (GK104 und niedriger) kommt. So war es bisher eigentlich immer. Der Termin für die GK100 wäre dann schon Ende 2011 gewesen, zeitnah zu AMDs 7900ern, und das war auch in den ursprünglichen Roadmaps von Nvidia so angegeben.

Aber aus irgendwelchen Gründen haben sie sich dagegen entschieden. Vielleicht, weil die ursprüngliche GK100 nicht die Erwartungen erfüllt hat (quasi eine zweite "Thermi"). Vielleicht auch einfach nur, weil Nvidia gesehen hat, dass sie AMDs Tahiti auch mit der viel günstiger herzustellenden GK104 kontern können und den riesigen 500mm^2-Chip nicht brauchen. Wahrscheinlich eine Mischung aus beidem.

Aber das ist nur spekuliert von mir.
 
Für mich klingt es auch komisch, dass der Refresh nun aus GK10x GK20x machen soll, sind wir doch seit dem G80 eine Erhöhung an der zehner-Stelle gewohnt (G80/84/86->G92/94/96/98, GT200->GT215/16/18, GF100/104/106/108->GF110/14/16/17/19).
Dass aus dem GK107 der GK208 werden soll ist nicht weiter verwirrend, die letzte Ziffer bezeichnet ja eher die relative Position innerhalb der Generation, gut Möglich, dass der Refreshchip des GK107 hier eine andere Position einnimmt, der nur in kleineren GeForce GT 6xxM-Modellen verwendete GF117 ist ja auch nur ein geshrinkter G108 ohne eigene Videoausgänge, trotzdem hat er eine andere Ziffer.

Die Angabe von 1728 bis 2112 Shadern find ich mehr als lächerlich, das hieße bei weiter 192 Shadern pro SMX 9 bis 11 SMX. Abgesehen vom GK106, bei dem es wohl auch nur nachträglich geändert wurde, hatten alle NV-Chips bis jetzt immer eine gerade Anzahl von SM(X). Beim GK110 weiss man es nicht, 2496 würde 13 SMX heißen. Es wären auch nur 1 bis 3 SMX mehr als beim GK104. Da würde ich doch einfach 10 SMX für wahrscheinlich halten.
 
Äh, GF110 war ähnlich effizient wie Cayman, siehe GTX570 vs HD6970. Aber das nur am Rande.
Nur so am Rande, nur die HD 6970(max. Performance ohne Rücksicht auf Verluste) hatte nicht die beste Effizienz von AMD, schau mal wo die 6950 liegt und der Rest:

Schlechter als Thermi geht kaum, wo soll der Ruf denn auch sonst herkommen? Mit der HD 6000 hatte AMD die höchsten Effizienzvorsprung ever: http://www.techpowerup.com/reviews/NVIDIA/GeForce_GTX_680/28.html

Ich warne dich mal vor wegen alter Zeiten, noch so ein "Thermi ist effizient" Gelaber und du bist auf Ignore.

Und versuch mal GTX 680 4GB Vram OC, viel Glück...
 
Zuletzt bearbeitet:
Du warnst mich vor? Was soll das denn bitte? So ein arrogantes Gerede kannst du dir sparen. Und ob du mich auf ignore setzt oder nicht, ist mir sowas von egal, das glaubst du gar nicht. Zensieren lasse ich mich jedenfalls nicht von dir, das sollte klar sein :)

Bei Fermi v1 vs. HD5000 sah es noch viel schlechter aus, das hat sich beim Refresh deutlich gebessert, und es gibt Lösungen, die bei der Effizienz praktisch gleichauf liegen. Das ist halt Fakt, kann ich auch nix dafür.
 
Zuletzt bearbeitet:
Kasmopaya schrieb:
Nur so am Rande, nur die HD 6970(max. Performance ohne Rücksicht auf Verluste) hatte nicht die beste Effizienz von AMD, schau mal wo die 6950 liegt ...
Wie jetzt, AMD's HD 6970 ineffezient, kannst du dies näher erläutern? Hab nämlich selber eine u. möchte umsatteln auf ne GTX 680 4GB, KFA² GeForce GTX 680 EX OC.

Kasmopaya schrieb:
...Und versuch mal GTX 680 4GB Vram OC, viel Glück...
Wieso, wegen der Speicherverdoppelung? Das 256 Bit DDR Speicherinterface finde ich nen bissel arg dürftig.
 
Zuletzt bearbeitet:
Wie jetzt, AMD's HD 6970 ineffezient, kannst du dies näher erläutern?
http://www.techpowerup.com/reviews/NVIDIA/GeForce_GTX_680/28.html
Akzeptable Effizienz für eine 2GB Karte, aber der Unterschied zur HD 6950 macht schon deutlich, hier wurde auf Performance optimiert. Lustiger weise wird die Karte immer wieder als Synonym für die HD 6000er genommen, solche Aussagen kann ich nicht ernst nehmen.
wegen der Speicherverdoppelung?
Jap, bei meiner GTX 580 3GB auch so, obwohl alle Chips auf der Vorderseite liegen und mitgekühlt werden. 0 OC Potenzial, und wers doch macht riskiert einen extrem schnellen Vram tot seiner Karte.

PS: Du wolltest es nicht anders

PPS: Übringes es gibt soweit ich weis keine einzige GTX 680 4GB die eine Datendichte Verdopplung packt, alle nur durch verdoppeln der Chips, ein weiteres Zeichen wie schwer man sich tut die 4GB zu realisieren.
 
Zuletzt bearbeitet:
Guckst du die GTX560 Ti 448 an, den kleinsten GF110-Ableger und vergleichst ihn mit der 6950. 5% schneller bei 15% mehr Verbrauch. Nicht gleich gut, aber ähnlich, so wie ich geschrieben habe. Kein Vergleich mit der ersten 40nm-Generation. Die techpowerup-Werte kann man sich übrigens sonstwohin schieben, weil die die Verbrauchswerte von einem Spiel (Crysis 2) mit allen Benchmarks verwurschteln.

Also bitte mal etwas genauer recherchieren, bevor du arrogant losstänkerst ;)

Und jetzt zurück zum Thema bitte.
 
Zuletzt bearbeitet:
OK, thx.
aber bei der Vram-Kühlung mit Firmen eigenen Sonderkühlern + ev. bei Kartenrückseitig angebrachtem RAM, diese mit zusätzlichen Ram-Kühlkörpern
17131_0__ZURA_201_1g.jpg
auszustatten, dürfte ein Teil es Probs. lösen (bei gutem Gehäuseseitenlüfter)?
 
mit zusätzlichen Ram-Kühlkörpern auszustatten, dürfte ein Teil es Probs. lösen (bei gutem Gehäuseseitenlüfter)?
Ja, die Passivkühler in Kombination mit einem Lüfter der direkt drüber geht und das Problem ist Geschichte. Trotzdem, Finger weg vom Vram OC. You've Been Warned!
 
Zuletzt bearbeitet:
@boxleitnerb:
Das finde ich auch viel übersichtlicher.
ist dir mal der gedanke gekommen, dass interne bezeichnungen für außenstehende gar nicht übersichtlich sein sollen? ;)
falls das kein typo für den noch fehlenden gk108 (z. b. gt610, g605) sein sollte, dann ist das mit sicherheit nicht als hilfestellung zur beschaffung von informationen vor fall des nda gedacht ;)
eine veränderung des namensschemas kann also durchaus möglich sein.
 
Lübke schrieb:
@boxleitnerb:
ist dir mal der gedanke gekommen, dass interne bezeichnungen für außenstehende gar nicht übersichtlich sein sollen? ;)
falls das kein typo für den noch fehlenden gk108 (z. b. gt610, g605) sein sollte, dann ist das mit sicherheit nicht als hilfestellung zur beschaffung von informationen vor fall des nda gedacht ;)
eine veränderung des namensschemas kann also durchaus möglich sein.

Könnte, aber eine gewisse Logik muss eigentlich immer dabei sein finde ich. Zumindest wenn ich mir Fermi und Kepler bisher anschaue, sind die Bezeichnungen durchaus logisch.
 
@boxleitnerb: klar steckt ne logik dahinter, für irgendwas müssen interne namen ja gut sein. und wenn das nda gefallen ist und alles bekannt ist, dann... ja dann können wir die logik auch nachvollziehen ;)
bsp:
G80 -> G90? falsch
G92 -> G102? falsch
GT100 -> GT200? falsch
GF100 -> G?100? falsch
GF110 -> GK100? falsch
GK104 -> GK110 oder GK114 oder GK200 oder GK208? ;)
 
Zurück
Oben