Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News Gerüchte zu finalen Spezifikationen zu Nvidias Tesla K20 (GK110)
- Ersteller Wolfgang
- Erstellt am
- Zur News: Gerüchte zu finalen Spezifikationen zu Nvidias Tesla K20 (GK110)
Krautmaster
Fleet Admiral
- Registriert
- Feb. 2007
- Beiträge
- 24.281
die TDP Limitierung ist bei Tela Karten auch anders gesetzt als im Desktopumfeld.
Ich nehme schlicht folgendes an:
Tesla: Teilausbau, bzw MaximalAusbau mit kleinem Takt + hohem TurboTakt -> kleine TDP (225W-250W) -> Turbo bei geringer Parallelisierung im Rahmen der TDP.
Desktop: Teilausbau bis Maximalausbau. Je nach Konkurrenz. 275-300W
Die TeslaKarten generell fahren meist etwas geringere Takt und höhere Effizienz.
Bei diesen Großrechenzentren ist es wichtig dass die Karten eine möglichst hohe Perf/W aufweisen, was im Desktopumfeld bei High End weniger wichtig ist.
Ich nehme schlicht folgendes an:
Tesla: Teilausbau, bzw MaximalAusbau mit kleinem Takt + hohem TurboTakt -> kleine TDP (225W-250W) -> Turbo bei geringer Parallelisierung im Rahmen der TDP.
Desktop: Teilausbau bis Maximalausbau. Je nach Konkurrenz. 275-300W
Die TeslaKarten generell fahren meist etwas geringere Takt und höhere Effizienz.
Bei diesen Großrechenzentren ist es wichtig dass die Karten eine möglichst hohe Perf/W aufweisen, was im Desktopumfeld bei High End weniger wichtig ist.
Zuletzt bearbeitet:
Amok-Sepp
Lt. Junior Grade
- Registriert
- Okt. 2011
- Beiträge
- 485
Lexxington schrieb:Warm, Fermi, Tesla???
In meinen Augen genauso wenig akzeptabel wie die aktuellen Trinity Heizkraftwerke!
Eine GTX 680 hat 8 SMX @ 195W TDP.
Wenn der K20 jetzt mit 13 SMX @ 225W kommt, ist das eine saustarke Perf./W.
Auch bei 30% weniger Takt.
pimbolie1979
Cadet 2nd Year
- Registriert
- Aug. 2004
- Beiträge
- 31
Die 7950 und 7970 Karten sind bei double precision Berechnung um den Faktor 8 schneller als eine GTX 680.
Daher sind die GTX 680 für Berechnungen gänzlich untauglich. Selbst eine GTX 570 ist bei der double precision Berechnung schneller als eine GTX 680.
NVIDIA hat sich gedacht ich kann sehr viel Geld verdiehnen wenn ich die double precision Einheiten in den TESLA Karten verbauen und diese dann für ca. 3000€ verkaufe.
Nur gibt es ein Problem dabei. ATI bietet eine sehr hohe double precision Leistung für unter 400€ an. Warum soll ich also eine 3000€ Karte kaufen wenn ich auch eine 400€ Karte kaufen kann.
Ich muss dann natürlich von CUDA auf OPEN CL umstellen, dann kann ich aber NVIDIA oder ATI Karten verwenden.
Demnach muss NVIDIA umbedingt wieder mehr double precision Einheiten in den Konsumer Karten verbauen.
Daher sind die GTX 680 für Berechnungen gänzlich untauglich. Selbst eine GTX 570 ist bei der double precision Berechnung schneller als eine GTX 680.
NVIDIA hat sich gedacht ich kann sehr viel Geld verdiehnen wenn ich die double precision Einheiten in den TESLA Karten verbauen und diese dann für ca. 3000€ verkaufe.
Nur gibt es ein Problem dabei. ATI bietet eine sehr hohe double precision Leistung für unter 400€ an. Warum soll ich also eine 3000€ Karte kaufen wenn ich auch eine 400€ Karte kaufen kann.
Ich muss dann natürlich von CUDA auf OPEN CL umstellen, dann kann ich aber NVIDIA oder ATI Karten verwenden.
Demnach muss NVIDIA umbedingt wieder mehr double precision Einheiten in den Konsumer Karten verbauen.
Hakuzwei
Lieutenant
- Registriert
- Feb. 2010
- Beiträge
- 1.005
Mehr Double Precision Leistung bei den Desktop Karten fände ich super oder das Amd es endlich mal hin bekommt vernünftige OpenCl Treiber zu programmieren, in beiden Fällen hätte ich endlich eine gute Alternative für Blender Cycles mit Gpu Support, momentan ist die Gtx580 immer noch das Maß der Dinge, weil AMD Karten nicht mal funktionieren, und die aktuell erhältlichen Kepler Consumer Karten allesamt lahme Krücken in Double Precision sind.
Draco Nobilis
Banned
- Registriert
- Jan. 2012
- Beiträge
- 2.943
Dieses Big Kepler Gespenst ist jetzt seit wie lange schon in den Foren unterwegs?
Der wird niemals so erscheinen(für Consumer), genauso wie 50% Mehrleistung zwar sicher erreichbar wären, aber niemals umgesetzt werden wenn AMD dies nicht erzwingt. Genausowenig wird AMD dazu NVIDIA zwingen indem sie ihren Chip 50% schneller machen. Schneller heißt hier nämlich Prinzipiel größer. Den beide ändern ihre Architektur nur minimal. In Anbetracht dessen das ein großer Chip viel mehr Probleme macht und viel teurer ist wäre es schlicht wahnsinn sowas auf den Consumermarkt zu bringen.
Der Big Kepler soll außerdem doch eher ein GPGPU Monster werden, zumindest hieß es so mal(Reste von Tesla). Daher ist fraglich ob er dann überhaupt schneller als "50%-über-Radeon 7970 GHz Edition" wird.
Nvidia kann nicht zaubern.
Wieso kommt AMD eigentlich nicht auf die Idee eine abgespeckte Version ihres Designs für Consumer zu veröffentlichen, und zwar mit mehr Gamingleistung als GPGPU? Wissen die schon wieder was in den Konsolen verbaut wird und können daher eh bestimmen was läuft?
Mir kommt es vor als ob die Karten von AMD immer mit einem riesen Zusatzballast hergestellt werden xD
Falls Big Kepler so käme:
Man muss sich überlegen was passiert wenn die nächsten Karten um 50% schneller werden bei etwa 50% größerem Chip. Sie werden die Marge herunterziehen oder die Preise massiv rauf(500-600€ lol, eher 800€).
Die nächste Generation müsste dann logischerweise noch schneller sein, was in 28nm wieder unmöglich wäre(größer als 500mm² ja sehr realistisch). Und im nächsten Fertigungsprozess wird es dank der Probleme beim Umstieg auch sehr eng werden.
Wenn AMD nicht so eine Null in Verbreitung ihrer Softwarestandards wäre dann hätte AMD auch mal im GPGPU Sektor eine Chance. Den die Hardware ist derzeit der von NVIDA in GPGPU massiv überlegen.
Der wird niemals so erscheinen(für Consumer), genauso wie 50% Mehrleistung zwar sicher erreichbar wären, aber niemals umgesetzt werden wenn AMD dies nicht erzwingt. Genausowenig wird AMD dazu NVIDIA zwingen indem sie ihren Chip 50% schneller machen. Schneller heißt hier nämlich Prinzipiel größer. Den beide ändern ihre Architektur nur minimal. In Anbetracht dessen das ein großer Chip viel mehr Probleme macht und viel teurer ist wäre es schlicht wahnsinn sowas auf den Consumermarkt zu bringen.
Der Big Kepler soll außerdem doch eher ein GPGPU Monster werden, zumindest hieß es so mal(Reste von Tesla). Daher ist fraglich ob er dann überhaupt schneller als "50%-über-Radeon 7970 GHz Edition" wird.
Nvidia kann nicht zaubern.
Wieso kommt AMD eigentlich nicht auf die Idee eine abgespeckte Version ihres Designs für Consumer zu veröffentlichen, und zwar mit mehr Gamingleistung als GPGPU? Wissen die schon wieder was in den Konsolen verbaut wird und können daher eh bestimmen was läuft?
Mir kommt es vor als ob die Karten von AMD immer mit einem riesen Zusatzballast hergestellt werden xD
Falls Big Kepler so käme:
Man muss sich überlegen was passiert wenn die nächsten Karten um 50% schneller werden bei etwa 50% größerem Chip. Sie werden die Marge herunterziehen oder die Preise massiv rauf(500-600€ lol, eher 800€).
Die nächste Generation müsste dann logischerweise noch schneller sein, was in 28nm wieder unmöglich wäre(größer als 500mm² ja sehr realistisch). Und im nächsten Fertigungsprozess wird es dank der Probleme beim Umstieg auch sehr eng werden.
Wenn AMD nicht so eine Null in Verbreitung ihrer Softwarestandards wäre dann hätte AMD auch mal im GPGPU Sektor eine Chance. Den die Hardware ist derzeit der von NVIDA in GPGPU massiv überlegen.
riDDi
Admiral
- Registriert
- Aug. 2004
- Beiträge
- 7.557
Geht dieses Gezeter schon wieder los. "Das ist nicht der Vollausbau da kommt noch viel mehr". Hat man am GK104 ja toll gesehn, wie da fast sofort noch der Vollausbau quasi direkt hinterher kam
Vermutlich wird davon auch kein "Vollausbau" kommen, weil Nvidia von den Radeon 8000 mehr erwartet hatte.
Vermutlich wird davon auch kein "Vollausbau" kommen, weil Nvidia von den Radeon 8000 mehr erwartet hatte.
Tuetensuppe
Vice Admiral
- Registriert
- Juli 2008
- Beiträge
- 7.142
LHC schrieb:Super 50% schneller als die HD7970 bzw. 80% schneller als die GTX580
Immer das gleiche Geblubbere .... Schon die GTX 680 sollte 50% schneller sein als die HD 7970
Für dich mag es Sinnlos sein.LHC schrieb:@aylano
Es ist doch völlig irrelevant wie groß die Chips sind, ein vergleich AMD vs. Nvidia hat hier noch nie sinn gemacht,
Ich nutze es um den Einführungszeitpunkt & Co eines GPU-Chips zu bewerten. Und vor einem Jahr wurde ich noch als Hardcore-AMD-Fanboy bewertet, wenn ich GK110 @ Game-Desktop für 3 oder gar 4Q 2012 vermutete.
a) Offtopicim gegensatz zu AMD verdient Nvidia noch sehr viel gutes Geld während AMD die Belegschaft teilweise kündigen und schlechte Zahlen schreiben muss.
b) Die Profite kommen primär durch HPC & Workstation und Lizenz-Verkäufe.
In einem Jahr wird es ganz anders aussehen, weil einerseits AMD im Workstation- & HPC-GPGPU mit OpenCL & GCN & APU in den bisherigen quasi-Monopol-Markt von Nvidia reindrängt und andererseits nächstes Jahr auch noch die Playstation-GPU-Lizenzen wegfallen.
Momentan ist das abschneiden von GK110 im Game-Markt schon wichtig. Denn wenn dieser floppt, dann muss Nvidia in Zukunft extra HPC-Dies herstellen, was dann höhere R&D- und Produktionskosten bedeutet.
Ja, noch sehen die Nvidia-Zahlen schön aus.
In der Vergangenheit hatte Nvidia auch immer die Single-GPU-Performance-Krone.In der Vergangenheit hat AMD auch kleinere DIEs herstellen lassen, aber was bringen AMD kleine Chips wenn man im GPU Sektor keine 3% Gewinn erwirtschaftet?
Mit HD 5800 musste man nur 7 Monate auf den Nvidia-Konter (GF100) warten, aber Nvidia konnte noch die Single-GPU-Performance zurückholen.
Bei HD 7970 musste man nur 4 Monate auf Nvidia warten, aber später konnte AMD zurückkontern und Nvidia nicht mehr.
Wenn der Trend so weitergeht, dann sieht der High-End-Performance bei Nvidia immer schlechter aus, was dann eben bei Nvidia zu einen Verlust führen kann.
Hier geht es um GK110.
Ich kann mich noch gut erinnern, dass die Masse Jänner/Februar 2012 noch an einen GK110 in April/Mai/Juni 2012 glaubte. Also, im schlimmsten Fall erfahren wer erst Jänner/Februar 2013 die Verschiebung von GK110 im Consumer-Markt, falls falls falls so eine eintreten soll.
D. h. es könnte jetzt viel schlimmer um GK110 aussehen, als du denkst.
Was willst damit sagen?Schau dir mal die Zahlen von Nvidia an, Geforce ist heute eine Qualitäts Marke geworden, im OEM Markt kommt alles von alleine rein, egal wie gut AMD ist, das wird sich auch nicht in 4 Jahren ändern.
Dass der heutige übliche Nvidia-Käufer heute lieber (s)eine Marke kauft anstatt das für ihm bessere Produkt?
Aber das wird so nicht ewig sein.
Wenn GK110 wie GF110 floppt, dann werden viele Nvidia-Käufer die Marke infragestellen und nicht mehr Monate warten und warten. Genauso passierte es schon bei GF110, wo das Nvidia-Image einen deutlichen Kratzer bekommen hat.
Übrigens, in der R600/R670-Ära dachte die meisten "Experten", dass AMD nie wieder im Grafikmarkt Fußfassen wird. Das war damals schlimmer als sie heute über AMD bzw. AMD-CPUs denken. Selbst der Nvidia-CEO glaubte so und legte sich nur mehr mit Intel an.
Heute muss man ständig ewig auf Nvidias-High-End-GPU-Produkte warten, wenn ein Fertigungswechsel stattfindet. Wenn Nvidia mit GK110 wieder floppt, dann kann es sein, dass viele aufhören auf Nvidia-Produkte zu warten und dann wirkt sich das massiv in den Finanzen aus. Vorallem, weil AMD die alten Schwächen (AF-Flimmern, Treiber-Qualität, ...) nicht bzw. quasi nicht mehr hat.
Nicht zu vergessen ist die Einführung der 20nm-Fertigung. Nvidia könnte ja auch GK110 teildeaktiviert in Dez 2012 einführen und 6-7 Monate später den GK110-Refresh (non-teildeaktiviert) und 6-7 Monate später den 20nm-Performance-GPU (GM104?). Das wäre noch eine vernünftige Roadmap, weil AMDs HD8800 ja auch erst April 2013 kommen soll.
Aber GK110 soll erst März 2013 kommen und dann geht sich schon ein GK110-Refresh zeitlich kaum aus, da die meisten dann doch auf 20nm-GPUs warten könnten.
AMDs Finanzlage mag zwar jetzt mies aussehen und Nvidias Finanz-Lage superduper.
Aber die Zukunft von Nvidia sieht anhand der zukünftigen Produkte bei weitem nicht so rosig aus wie es heute ist und die Finanzlage darstellt.
Ein GK110-Desktop-Flop können sich heute genauso-wenige vorstellen, wie damals der GF100-Flop (GTX480). Das Problem bei einen Flop ist, dass es dann zu erheblichen (finanziellen) Problemen führen kann. Aber es muss nicht. Bei GF110 bzw. GTX480 konnte Nvidia mit einem blauen Auge davonkommen und die Sache zurechtbiegen.
Und wenn wenn wenn das so passieren mag, dann sehen die AMDs-Finanzen entsprechend besser aus.
riDDi
Admiral
- Registriert
- Aug. 2004
- Beiträge
- 7.557
@Amok-Sepp: Damit wollte ich nur ganz salopp die Spezialisten aufs Korn nehmen, die als die GTX 680 raus kam behaupteten, dass das nur der Performance-Chip wäre und in Kürze dann der Vollausbau der Architektur folgen würde. Was nie passiert ist. Weil ein solcher Chip nicht besonders sinnvoll und kaum produzierbar ist und damit den sündteuren Tesla-Karten vorbehalten bleibt.
Zuletzt bearbeitet:
Straputsky
Commander
- Registriert
- Nov. 2005
- Beiträge
- 2.507
LHC schrieb:Es ist doch völlig irrelevant wie groß die Chips sind, ein vergleich AMD vs. Nvidia hat hier noch nie sinn gemacht, im gegensatz zu AMD verdient Nvidia noch sehr viel gutes Geld während AMD die Belegschaft teilweise kündigen und schlechte Zahlen schreiben muss.
Meinst du das in Bezug auf die Performance? Weil in der Produktion ist die Chipgröße durchaus relevant. Vor allem wenn das stimmt, was semiaccurate berichtet, dass nVidia bei der 28nm Fertigung sein Bezahlmodell geändert hat. Statt "pro funktionierendem Die" wird jetzt "pro Wafer" gezahlt. Eine schlechte Chipausbeute dürfte da die Kosten stark steigen lassen. Dies wäre im Profi-Segment mit seinen hohen Preisen noch ein geringeres Problem, im Consumer-Markt aber durchaus problematisch.
nVidia subventioniert die Desktop-Karten durch den Verkauf von Quadro und Tesla. Das hat gleichzeitig eine Vielzahl von positiven Effekte:
Einerseits können sie den großen Chip auf Quadro- und Teslabereiche erweitern, sie haben einen Grund jederzeit die Chips zu produzieren und drittens sparen sie sich einen Gaming-Chip in der Entwicklung.
Es handelt sich also um Gk110 eben mitnichten um ein Compute-Monster oder so. Er ist ein Grafikchip mit ein paar Erweiterungen und zusätzlichen DP-Einheiten.
Einerseits können sie den großen Chip auf Quadro- und Teslabereiche erweitern, sie haben einen Grund jederzeit die Chips zu produzieren und drittens sparen sie sich einen Gaming-Chip in der Entwicklung.
Es handelt sich also um Gk110 eben mitnichten um ein Compute-Monster oder so. Er ist ein Grafikchip mit ein paar Erweiterungen und zusätzlichen DP-Einheiten.
Matzegr
Commander
- Registriert
- Jan. 2011
- Beiträge
- 2.628
Krautmaster schrieb:2880 ALUs ist schon relativ hardcore, sprich 500mm² + fast 2x GK104 und bei ~ 750 Mhz auch locker 50% schneller als dieser - folglich würde ich den GK110 locker 50% über der Ghz Edition der HD7970 einordnen.
Also 2880 ALUs bei 750 GHz bringen ~40% mehr gegenüber den 1536 ALUs bei 1GHz bei der GTX680
Die Yield muss passen (ich nehme an dass diese passt denn die TDP für den Teilaktiven Tesla fällt recht gering aus).
225W TDP recht gering? 2496 ALUs bei 705MHz bringen ~14% mehr Leistung als ne GTX 680 bei 15% höherer TDP. Das klingt gar nicht gut. Bei 705MHz müßte eine deutliche Spannungssenkung gegenüber der GTX 680 drinne sein und somit müsste die TDP niedriger sein.
pimbolie1979 schrieb:Nur gibt es ein Problem dabei. ATI bietet eine sehr hohe double precision Leistung für unter 400€ an. Warum soll ich also eine 3000€ Karte kaufen wenn ich auch eine 400€ Karte kaufen kann.
AMD Consumer-Karten haben kein ECC, oder?
Evader
Lt. Junior Grade
- Registriert
- Aug. 2007
- Beiträge
- 382
Und vor einem Jahr wurde ich noch als Hardcore-AMD-Fanboy bewertet, wenn ich GK110 @ Game-Desktop für 3 oder gar 4Q 2012 vermutete.
Ist GK110 aktuell nötig? Nein.
In einem Jahr wird es ganz anders aussehen, weil einerseits AMD im Workstation- & HPC-GPGPU mit OpenCL & GCN & APU in den bisherigen quasi-Monopol-Markt von Nvidia reindrängt und andererseits nächstes Jahr auch noch die Playstation-GPU-Lizenzen wegfallen.
Ich wage es stark zu bezweifeln, das die PS3 Lizenzen so viel bringen. Bei der XBOX war das anders, da wurde in einem Quartal mal über 54 mio. $ Umsatz gemacht (hab den Conference Call noch im Kopf). Warum? Weil nV sich den Chipsatz bezahlen hat lassen, was MS gar nicht gefallen hat. Was bekommt nV pro RSX heute? Die Antwort kenne ich nicht, aber ich bin mir dennoch sicher es sind Peanuts im Vergleich zur xbox.
Denn wenn dieser floppt, dann muss Nvidia in Zukunft extra HPC-Dies herstellen,
"Wenn wenn wenn wenn wenn"
Das ist im Moment doch viel zu sehr ins Blaue geballert.
Also, im schlimmsten Fall erfahren wer erst Jänner/Februar 2013 die Verschiebung von GK110 im Consumer-Markt, falls falls falls so eine eintreten soll.
Und? Hat AMD dem nach aktuellem Stand etwas im Q1 2013 entgegenzusetzen? Nein? Ah! Dann passt ja wieder alles.
D. h. es könnte jetzt viel schlimmer um GK110 aussehen, als du denkst.
Weshalb?
Wenn GK110 wie GF110 floppt, dann werden viele Nvidia-Käufer die Marke infragestellen und nicht mehr Monate warten und warten.
GF110 ist gefloppt? Das wäre mir neu. Wenn überhaupt dann der GF100 und auch das bei weitem nicht so, wie es immer gerne behauptet wird.
nV hatte genügend Flops und "Image-Schleifpapier" in der Vergangenheit, NV30, NV30 Treibercheating, Bumpgate, fehlerhafte Treiber die im schlimmsten Fall die Graka töten etc.
Das sind Dinge die IMHO viel viel schlimmer waren und sind, als eine teildeaktivierte Heizplatte.
Q2 2009 war sogar eine komplette Katastrophe, finanziell gesehen.
Was hat es gebracht aus der "nV geht unter" Ecke? Nüscht.
nV hat sich stets erholt und verdient gutes Geld.
Ich glaube viele verwechseln Wunschdenken mit der Realität.
Übrigens, in der R600/R670-Ära dachte die meisten "Experten", dass AMD nie wieder im Grafikmarkt Fußfassen wird.
Da gibts auch das schöne Gegenbeispiel einiger Member hier, die nach dem AMD-ATi Kauf so Dinge wie "nV hat im Grakageschäft keine Bedeutung mehr und wird ein Unternehmen mit 400 Millionen $ Umsatz im Jahr" von sich gegeben haben.
Wie du sehen kannst, geben sich da beide Seiten nicht viel was geistigen Dünnpfiff angeht.
Ein GK110-Desktop-Flop können sich heute genauso-wenige vorstellen, wie damals der GF100-Flop (GTX480).
Ja, einen HD8000 flop können sich heute wohl genauso wenige vorstellen, wie damals den R600 Flop.
Matzegr
Commander
- Registriert
- Jan. 2011
- Beiträge
- 2.628
Sontin schrieb:...Flop ...7900GHz sein ... 15% schneller und saugt gleichmal 70 Watt mehr aus der Steckdose.
70W mehr?
Laut CB braucht die GHz Edition 43W mehr als ne GTX 680 oder in Prozent ausgedrückt +14%, was nicht schlecht ist bei +15% Leistung, zumal Tahiti noch den ganzen GPGPU-Ballast mitschleppt.
Krautmaster
Fleet Admiral
- Registriert
- Feb. 2007
- Beiträge
- 24.281
Tuetensuppe schrieb:Immer das gleiche Geblubbere .... Schon die GTX 680 sollte 50% schneller sein als die HD 7970
riDDi schrieb:Geht dieses Gezeter schon wieder los. "Das ist nicht der Vollausbau da kommt noch viel mehr". Hat man am GK104 ja toll gesehn, wie da fast sofort noch der Vollausbau quasi direkt hinterher kam
Vermutlich wird davon auch kein "Vollausbau" kommen, weil Nvidia von den Radeon 8000 mehr erwartet hatte.
ja genauso immer das selbe Geblubbere von denen die den GK110 totreden wollen ^^.
Man ging davon aus, dass bereits die GTX 680 auf GK110 setzt -> die Spekulationen die schon seit langem im Umlauf sind bewahrheiten sich offensichtlich 1:1, sprich 2880 Shader und 384 Bit SI... die Zahlen sind noch vor GK104 spekuliert worden als eben dieser GK110.
Dass die GTX680 mit dem GK104 eindeutig das Namenschema sprengt ist offensichtlich, genauso wie es nicht Nvidias Art ist eine TopEnd GPU X80 mit kleinem <300mm² CHip zu bringen.
Ich sag nicht, dass der GK110 zum GTX 680 Release als Comsumer Karte gebracht hätte werden können, zumindest aber wie in der Vergangenheit meist üblich vor den Tesla Ablegern sprich Sommer.
Aber wie gesagt, das braucht man hier gar nicht groß diskutieren, imho ist der GK110 nicht auf dem Markt ... ob der eine das nun aus technischer und der andere aus wirtschaftlicher Sicht begründet.... seis drum.
Ich vertrete die Ansicht dass es vermutlich hauptsächlich um wirtschaftliche Interessen geht den GK110 nicht as soon as possible zu bringen. Warum:
1. ein GK104 auf hohem Takt reicht für die Tahiti Karten - dass Nvidia hierzu den GK104 über "Soll" fahren muss sieht man an dem kleinen SI und dem sehr hohen Takt als auch der Speicherbandbreitenlimitierung. Ursprünglich war die Karten wohl eher etwas dezenter angesetzt, man schau sich auch das kleine Board der GTX670 an, die wohl eher einer GTX 660 gleichgekommen wäre.
2. kann man davon ausgehen, dass der TSMC 28nm Prozess länger aktiv sein wird als die 40nm da TSMC bereits mit 28nm im Verzug war und immer kleiner immer schwerer wird...
3. Aufgrund der schlechten 28nm Fertigung zu Beginn wäre ein großer Chip zudem unrentabel im Desktopsegment da geringe Yield. Im Gegensatz zur GTX480 musste man nicht auf Teufel komm raus mittels großem Chip kontern.
4. Warum den 28nm Prozess voll ausfahren, und dass gleich im ersten halben Jahr... Nvidia würde es dann wie bei der 8800 GTX gehen, nur geringe Leistungssteigerung wäre bis zum neuen Prozess möglich. Die Chipgröße ist mit 550mm² schon am Limit genauso die Abwärme bei ca 300W.
Einen Chip wie den GK110 kann man kaum noch toppen da über Architektur bei weitem nicht die Mehrleistung rausgeholt wird wie über den Shrink. Nicht mehr...
5. AMD geht genau den gleichen Weg, diese haben vermutlich auch einen größeren Chip seit längerem in Petto, auch wenn Nvidia hier in der Regel eher in die Vollen geht als AMD.
Gleicher Weg heißt mit Chips um 300mm² möglichst hohe Endpreise abzugreifen, nach ca 1-1,5 Jahren einen Refresh bringen (GTX 780 / HD8970) die dann die Chipgröße und Shaderzahl erhöhen. Somit kann man Innovation bringen, Raufanreize setzen.
Matzegr schrieb:Also 2880 ALUs bei 750 GHz bringen ~40% mehr gegenüber den 1536 ALUs bei 1GHz bei der GTX680
jep, die Rechnung passt soweit aber wie viel Takt der Vollausbau haben wird... weiß aktuell keiner. iDR haben die DesktopKarten etwas mehr Takt als die Teslas, auch etwas mehr Verbrauch. Wenn man müsste könnte man weit nach oben gehen, imho kann man auch eine GTX 690 mit Luft kühlen. Sprich 300W wären kein Thema.
Ich denke eher, dass der Desktopableger mit Turbo bei bedarf und Teilauslastung einen ordentlichen Spielraum spendiert bekommt.
Da sind 50% schon realistisch, aber ob nun 40% oder 50%... das wird hier keiner sagen können. Fakt ist nur, dass es aufgrund der Daten ein ordentlicher Batzen Mehrleistung sein wird.
Zuletzt bearbeitet:
Mir tut Nvidia leid. Gute Konzepte und dann durch Designfehler der ganze Profit zunichte gemacht. Laut Semiaccurate ist nämlich nicht TMSC an der schlechten Chipausbeute schuld (andere Kunden haben nämlich mit der 28nm-Fertigung keinerlei Probleme), sondern Nvidia selbst.
Wenn sich der GK104 also gut fertigen lässt, werden die besten Chips für Tesla-Karten herangezogen und die schlechteren für den Consumer Market. Wenn sich der GK104 schlecht fertigen lässt, ist ein profitabler Verkauf im Comsumer-Bereich vermutlich nicht möglich. Oder sie deaktivieren halt solange Bereiche, bis der Ertrag halt eben doch für alles passt.
Wenn sich der GK104 also gut fertigen lässt, werden die besten Chips für Tesla-Karten herangezogen und die schlechteren für den Consumer Market. Wenn sich der GK104 schlecht fertigen lässt, ist ein profitabler Verkauf im Comsumer-Bereich vermutlich nicht möglich. Oder sie deaktivieren halt solange Bereiche, bis der Ertrag halt eben doch für alles passt.
Richthofen
Lieutenant
- Registriert
- März 2004
- Beiträge
- 547
aylano schrieb:Man braucht nicht Charlie heißen, um die Schwierigkeiten von Nvidia zu erahnen/ermuten.
Aha soso. Na ich glaube der zuvor genannte Herr dürfte jetzt erstmal ordentlich auf den Nägeln kauen, weil ein ganz anderes Unternehmen in gewaltigen Schwierigkeiten ist und das heißt nicht Nvidia.
Das kleinere Fertigungsprozesse im schwieriger zu handeln sein werden ist nichts neues. Du erzählst hier permanent alten Kaffee. Da Nvidia's Konkurent in diesem Umfeld mit den gleichen Problemen zu kämpfen hat entstehen hier keine Nachteile für Nvidia. Sie verkaufen auch weiterhin mehr als die Konkurenz und vor allem zu besseren Preisen.GK110 (550mm²) kommt fast 1 Jahr nach AMDs 350mm²-Chip, welcher damals eine schlechte Yield hatte. Und das nur in Tesla-Form, die mit 4000$ fast 10 mal so teuer verkauft werden können, wie es im Desktop passiert.
Fermi selber kam hingegen nur 7 Monate nach AMDs 350mm²-Chip, welcher am Anfang ebenfalls eine schlechte Yield hatte. Immerhin schon für den Massen-Markt @ 400-500$
So oder so sieht es für GK110 sehr schlecht aus.
Vorallem wenn man weiß, dass bei GF100 die Deaktivierung des 16. Blockes wegen Desgin-Regelfehler von Nvidia passierten und nicht aufgrund der damaligen schlechten Fertigung.
Und der hohe Stromverbrauch des GF100 wurde selbst im GF110-Refresh nicht gelöst.
Das haben High End Lösungen nunmal so ansich. Wenn die Performance stimmt und das Kühldesign in Ordnung ist, dann ist das per se auch erstmal kein Problem. GF110 war der Konkurenz klar überlegen und hat sich dementsprechend gut verkauft. Anders als GF100 kam er auch nicht zu spät sondern vor der Konkurenz in den Markt.
Dass Nivdia GK110 nur im Tesla-Markt um mehrere Thausend Dollar verkaufen kann, zeigt das Problem des GK110s im Consumer-Markt. Denn in diesem Markt können auch die GK110 mit sehr schlechten Yields noch profitable verkauft werden. Und die Yield bleiben momentan die große Unbekannte.
Genauso wie bei AMD. Für Nvidia reicht es das Teil im Profisektor zu verkaufen und im Consumer Markt was kleineres oder sogar wenn es unbedingt sein muss auch GK110 zu entsprechenden Preisen. Sie können damit auch weiterhin ihre Stellung halten während AMD an allen Ecken und Enden zu siechen beginnt.