News Nvidia zeigt GeForce GTX 780 in Asien

Flatan schrieb:
Finde es immer wieder erstaunlich wieviele hier bereit sind solche Preise zu zahlen... :freak:

Ich finde es immer wieder erstaunlich, das Menschen Geld für einen Urlaub ausgeben. ;)

aylano schrieb:
Schuld sind eher diese Leute, die die überzogenen teuren Grafikkarten kaufen und solche hohe Preise zulassen.

Egal ob der TITAN verkauft wird oder nicht, der Preis bleibt identisch.
Das Ding ist ein Prestigeprojekt...die scheitern nicht und werden nicht verramscht.

Wie z. B. ein VW Phaeton.
 
akuji13 schrieb:
Egal ob der TITAN verkauft wird oder nicht, der Preis bleibt identisch.
Das Ding ist ein Prestigeprojekt...die scheitern nicht und werden nicht verramscht.

Wie z. B. ein VW Phaeton.

Das stimmt. Der Preis der Titan ergibt sich ebensowenig aus Angebot und Nachfrage oder auch den Herstellungskosten, wie z.B. die 1000 Dollar für eine Extreme Edtion von Intel. Das sind quasi "symbolische" Preise für das Beste, was es für Geld zu kaufen gibt.

Sollte allerdings die GTX780 statt ca. 500 Euro wirklich 700-800 Euro kosten, dann hätte Nvidia aus der Tatsache, dass sich die Titan möglicherweise doch ganz gut verkauft hat, wohl eindeutig die falschen Schlüsse gezogen. Eine GTX x80 ist keine ausgesprochenes Enthusiastenmodell, sondern eine ganz normale High-End-Karte. Und auch wenn eine GTX780 z.B. 15 oder 20% schneller sein sollte, als eine GTX680, dann rechtfertigt das noch lange keine solche Preiserhöhung. Das wäre der ganz normale technische Fortschritt zwischen zwei Generationen.

Wo wären wir, wenn das früher immer so gehandhabt worden wäre?
Aktuelle Grafikkarten würden inzwischen zig Milliarden kosten, weil sie ja entsprechend schneller sind, als die ersten VGA-Karten. :lol:
 
Zuletzt bearbeitet:
Herdware schrieb:
Die Titan und die GTX780 wären in den Zeiten vor Kepler (und Tahiti) ein Jahr früher als GTX680 und GTX670 zu den üblichen Preisen auf den Markt gekommen. Dass es nicht so kam, lag zum Teil auch an AMDs Tahiti.
Das stimmt überhaupt nicht.
65nm ... GT200 kam 6-7 Monate nach RV670. GT285 brauchte @ 55nm trotzdem einen 2. Respin, um überhaupt effizienter zu sein als GT200.
45nm ... GF100 kam 6-7 Monate nach HD 5870 und das mit völlig schlechter Yield & Teildeaktiviert.
Dass Titan mindestens 1 Jahr später kam, war eine logische Folgerung aufgrund der Probleme der letzten Jahre.

Diese Aussage behaupteten auch jene Leute, die an einem Mega-GK100 vor über einem Jahr glaubten, sowie einen Mega-Titan um 500-600 Euro.

Nvidia selbst ließ verlauten, dass sie von Tahiti deutlich mehr erwartet hätten.
Da hatten sie ja eh recht, weil AMD 1 Jahr später einen Treiber mit +10% Performance rausbrachten.
Dazu ist GCN noch recht neu, sowie R600 damals auch neu war und nicht das ganze Potenzial zeigen konnte.
Mit neuen Generationen hat Nvidia die SM von damals 16-Shader auf mittlerweile 192 Shader hochgetuned.
D.h. es könnte im Front-End des GCN noch sehr viel potential drinnen stecken, sodass sie in Zukunft bei kleinerer Fertigung die Shader deutlich erhöhen (= +100%) können und nicht nur 33%, wie beim letzten Mal.

Herdware schrieb:
Warum denn nicht? Die HD5870 wurde auch mit der GF100 gekontert. Trotz massiver Fertigungs-Probleme bei dieser GPU.
Wenn Nvidia gekonnt hätte, hätten sie wahrscheinlich viel lieber die kleine GF104 in die GTX480 gesteckt, ging aber nicht, weil AMD so stark vorgelegt hatte.
Nur sollte man wissen, dass man die wesentlichen Yield-Probleme in April (= 6-7 Monate Verspätung) gelöst hat (30 statt 10%) und das 16. Block-Problem nicht mehr lösen konnte.

Interessant sind deine Argumente, die Nvidia bisher noch nie gemacht hat. Nur weil du der Meinung bist, dass es Nvidia hätte so machen können, glaubst du dass deine Meinung gleich fakt ist. Nur hatte Nvidia in den 4 Jahren davor, wo du noch nicht angemeldet wars, noch nie so gehandelt. Vorallem, kann gerade Nvidia solche Taktische Spielchen spielen, weil sie mit ihrer Architektur sehr unflexible sein dürften.
Nur bei AMD kann ich mich erinnern, wo sie mal so nebenbei einen Grafik-Chip (RV790) einschoben. Aber das dauerte trotzdem 1 Jahr und schlussendlich war es ein getunter RV770.

Wer behauptet, die GK110 wäre plötzlich die große Aussnahme und nicht mehr wirtschaftlich als normale High-End-GPU zu vermarkten, der soll das bitte erstmal irgendwie belegen.
Genau diese Mega-Preise und kleinen Gewinn-Zuwachs im Operativen Geschäft deutet eben darauf hin.
Was viele bei den kleinen Stückzahlen noch vergessen, sind die R&D-Kosten die noch auf die Die-Kosten umgelegt werden müssen.

Das ist übrigends ein Thema auf das ich schon seit einigen Jahren konkret hindeute. Nachdem der Mega-GK100 letztes Jahr doch nicht zu Mega-schönen Preise kam, sowie Titan genauso nicht mit 500-600 Euro Preisen dahertanzte, glauben anscheinend noch immer einige an einen überwirtschaftlichen GK110.

Vor paar Monate versuchten mich ein paar zu belehren, dass der 1000$-Titan deshalb so gute Preise hat, weil er es sich in der Performance verdient. Dazu glaubten sie an niedrige Preise in wenigen Monaten. Wenn das so wäre, hätte GTX 780 alias Little-Titan um 400-500 Euro geben müssen und in diesen Monaten einen non-Teildeaktivierten Titan. Und wenn ein GTX 780 dann um 600-700 Euro kommt, dann zeigt es eben, dass sie mit ihrer Meinung völlig falsch lagen.

Nicht zu vergessen, dass Nvidia ohne Intel-Lizenzen fast keinen Gewinn macht.
Außerdem kann man den massiven Gewinn-Einbruch ja auch auf Titan zuführen, weil Nvidia mit ihren bestehenden Produkten im Vors-Quartal ordentliche Gewinne machten und im 1Q dann die Verluste von Titan aufnehmen mussten.
Aber das kann man leider nicht mehr so einfach nachvollziehen. Es dürfte kein Zufall sein, dass Nvidia die Profi-Karten in den GPU-Consumer-Markt geschoben hat, damit man die Realen Verhältnisse weniger nachvollziehn kann.

Unyu schrieb:
Vor 1,5 Jahren gab es nur 28nm Papierprodukte. Du weißt genau, das die üblichen Big Chips erst Monate nach dem neuen Prozess aufgeschlagen sind.
Ob Produkte Papierprodukte sind, mag relevant sein, wenn sie nur wenige Wochen auseinander sind.
Was soll ich wissen? HD 7970 war AMDs erste Chip und das war schon ein AMD-Big-Die. Wobei ich Nividas Big-Die den 500 mm²-Die meinte, den sie damals um 1000$ verkaufen hätte können.

Mir geht es nicht um zulegen, sondern um Gewinn gegenüber keinem Gewinn. Die Leute, die jetzt im gehobenen Preissegmenten schauen werden nvidia nehmen. Die Leute, die jetzt Testberichte lesen, werden nvidia in der Topposition finden, selbst wenn die Leute eigentlich nur eine 7770 wollten, wird darum zu nvidia gegriffen.
Und was soll da AMD dann tun, wenn eh alle Nvidia nehmen, egal was in den Testberichten & Co steht?
Der Umsatz-Rückgang im 1Q zeigt ja deutlich, dass gar nicht mehr so viel Nvidia nehmen wie vorher.

Ich glaube du vergisst, dass es auch was kostet, wenn AMD was drauflegt oder sonst was tut.

AMD hat viele entlassen. In der Branche ist es sehr problematisch ohne Entwicklungsabteilung dazustehen.
Bitte doch ein bischen am Boden Bleiben. Selbst wenn sie 15% in R&D-Einsparen, kann es genauso 15% längere Entwicklungszeit von GPU-Dies oder 15% weniger GPU-Die-Stücke bedeutet. Und mit dem auslassen von Sea-Island haben sie übrigends schon einiges an R&D eingespart.

Verfolgungswahn? Die GK100 im Frühjahr wäre nie gekommen, und die paar Experten in Foren bestimmen ganz sicher nicht den Gewinn.
Das hat nichts mit Verfolgungswahn zu tun, sonder es reicht schon wenige User um in den wichtigsten Foren (die übridgens auch einfluss auf die Verkäufer haben) des Landes eine Stimmung zu verbreitern.

Im übrigen, welches Produkt ist eher auf 300€ gesunken, die 7970 oder die GTX 680? Letztere ist ehrheblich preisstabiler, trotz günstigerer Herstellung.
Schön, dass du die Preis-Stabiltät des GTX 680 jetzt als positiv siehst und nicht das schlechtere Preis-Leistungs-Verhältnis deutlich anmerkst. Nur ein Tipp. Damals ging es um einen Preis-Sturz von 550 Euro auf 300 Euro in wenigen Wochen. Und nicht von 550 Euro in Richtung 300 Euro in 1,5 Jahren.

Das Problem ist, wenn Nvidia noch weiter ihre Produkte mit deutlich schlechteren Preis-Leistungs-Verhältnis verkaufen, dass sie immer mehr Nvidia-Treue Kunden nur verlieren werden.

Genau genommen ist es seit 28nm klar, das die Preise steigen werden. Mit 20nm wird es nicht besser und im Endeffekt ist damit der Desktop GPU Markt tot.
Witzigerweise verstanden mich auch jahrlang kaum einer, dass Globalfoundries primär wegen den zukünftigen verdammt hohen Preisen frühzeitig gegründet wurde und nicht nur wegen der Geldbeschaffungs-Aktion mittels Fabriken-Verkauf bzw. AMD-Schützenhife aus dem Emiraten.

Was du aber vergisst ist, dass AMD schon seit der HD 6000er-Serie wieder versucht aus dem Preis-Krieg zu kommen und mit HD 6000 und dann HD 7000 die Preise gesteigert hat. Seitdem machen sie schöne Gewinne. Nur bedeuteten diese Preissteigerungen, dass das Preis-Leistungs-Verhältnis in dieser Zeit kaum gestiegen sind und somit logischerweise viele keinen Anreiz haben eine neue Grafikkarte zu kaufen. Genau das wird sich mit 20nm ändern.

Tot ist der Desktop-Markt nicht. Wennschon für Nvidia. AMD macht für AMD bzw. ATI-Verhältnisse (Umsatz immer zwischen 200-400 Mio. Euro und Gewinn max 60 Mio. $) gute Umsätze und gute Gewinne.

PS: jetzt zeigt sich bei Titan & GTX 780, was ich bei Nvidia schon seit Jahren hingedeutet habe. Und zwar die immer späteren Einführungen bzw. problematischen Produkt-Einführungen.
Genau das könnte man beim GTX 780 schön sehen.
Denn wem soll ein GTX 780 um 600 Euro interessieren, wenn man was erheblich schnelleres @ 20nm 6 Monate später um 600 Euro bekommen kann? Und 6 Monate zu warten ist erheblich weniger als 1,25 Jahre auf Titan sowie 1,5 jahre auf den kleineren Titan.
 
Zuletzt bearbeitet:
@aylano

Sehr interessanter und richtiger Beitrag bis auf den letzten Punkt.

20nm in 6 Monaten wird es nicht geben. Die Zeiträume zum nächsten Fertigungsprozess werden immer länger. Ein Grund weshalb sich AMD dazu entschied bei 2 Generationen zu bleiben und die 7970 bereits zu beginn recht stark zu machen.

Nvidia hingegen mit ihrem Bigchip, welcher zu Beginn nicht gefertigt werden konnte refreshen eben die Hälfte und machen daraus 3 Generationen.
 
aylano schrieb:
Interessant sind deine Argumente, die Nvidia bisher noch nie gemacht hat. Nur weil du der Meinung bist, dass es Nvidia hätte so machen können, glaubst du dass deine Meinung gleich fakt ist. Nur hatte Nvidia in den 4 Jahren davor, wo du noch nicht angemeldet wars, noch nie so gehandelt.

Du kannst mir glauben, dass ich mich schon wesentlich länger mit Computern und Grafikkarten befasse, als ich hier im CB-Forum angemeldet bin und ich hätte garantiert genauso "geschimpft", wenn Nvidia so eine Masche z.B. anlässlich von Fermi abgezogen hätte, wie jetzt bei Kepler.

Und es ist nunmal so, dass Nvidida vorher noch niemals auf die Vermarktung von Big-Chips in normalen 500Euro-Konsumerkarten verzichtet hat, bzw. ihn erst fast ein Jahr später als 950Euro-Monpreisprodukt nachgeschoben. Das ist etwas komplett Neues, das es seit der G80 (dem ersten modernen Big-Chip) nicht gegeben hat und auch vorher niemals.

Klar ist das, was ich schreibe, letztlich auch nur Spekulation. Aber sie begründet sich eben auf der Erfahrung mit Nvidia-Big-Chip-Karten der letzten 6,5 Jahre.
Wenn man sich die technischen Daten (Die-Fläche, SI, TDP-Einstufung usw.) und sogar auch die offiziellen Namen der GPUs anschaut, dann ist klar, dass die Titan nunmal die vorher fehlende "echte" GTX680 ist und die GTX780 die GTX670 usw.
Bzw. muss man sich nur mal das PCB der GK104-GTX670 anschauen... da sage mal jemand ernsthaft, dass das eine High-End-Karte und ein legitimer Nachfolger der GTX570/470/275/9800GT/8800GT sein soll.
Auch Nvidia weiß das und vergrößtert das Winzding deshalb im Referenzdesing künstlich durch ein überlanges Kühlergehäuse. :)

Klar. Die kleinen Kepler-Karten sind trotz ihrer Performance-Klasse-GPU stark genug, um an den alten Big-Chip-Karten vorbei zu ziehen. Aber sowas hat es früher schon gegeben, ohne das dadurch dieEingruppierung und das Preisgefüge der neuen Generation komplett aus den Fugen geraten wäre. Der Leistungsspung war sogar noch viel krasser z.B. bei der G80-Generation. Die 8800GTX schlug locker Luxus-Dual-GPU-Karten aus der Vorgängergeneration und Nvidia nahm das nicht zum Anlass, sie erstmal ein Jahr zurückzuhalten und dann für 1000Dollar zu verkaufen. (Wobei sie das vielleicht getan hätten, wenn sie da schon gewusst hätten wie schwach die HD2000ern sein werden. ;) )

Das die Big-Chips der Kepler-Generation plötzlich nicht mehr wirtschaftlich (für eine Vermarktung in 500Euro-Karten) zu fertigen wären oder dass massive technische Schwierigkeiten zu einer Verzögerung von ca. einem Jahr geführt hätten usw., sind ebenfalls nur Spekulationen und anders als meine basieren die eigentlich auf gar keinen Fakten oder offiziellen Aussagen.
Das erklärt die hohen Preise und die Stagantion auch nicht besser, als meine auf jahrelangen Erfahrungen basierende Theorie, dass Nvidia sich bewusst dazu entscheiden hat, die Leistungsklassen umzusortieren und die Preise zu erhöhen... einfach weil sie es (mangels Konkurrenz) können.
Die "technische Probleme"-Erklärung hat nur den Vorteil, dass sie AMD-Fans das wohlige Gefühl verschaffen kann, dass Nvidia inzwischen nicht mehr in der Lage wäre, deutlich an AMDs Produkten vorbeizuziehen. Dass sie dabei gescheitert sind, wieder eine größere und entsprechend leistungsfähigere Big-Chip-GPU zu entwickeln, wirtschaftlich produzieren zu lassen und mit gutem Gewinn als normale 500Euro-High-End-Karte zu vermarkten.
Aber wie gesagt, Nvidia hat das über viele Jahre immer wieder hinbekommen und ich sehe einfach nicht, warum das plötzlich anders sein soll.
 
Zuletzt bearbeitet:
Nun AMD ist in den letzten 5 Jahren stärker geworden (GPU) auch das bekommt Nvidia zu spüren. Für die ist es eben nicht mehr so leicht wie noch zu G80/GT200 Zeiten mal eben locker so an AMD vorbeizuziehen, mussten schon paar mal die Single GPU Performance Krone abgeben, die AMD bis dahin nur mit einem X2 schlagen konnte.

Nvidia hat das sicherlich gestunken hat aber eben auch neue Geschäftsfelder auf die Sie Ihr Augenmerk legen (siehe Tegra4, ihr komisches Project Shield etc.)

Und AMD ist offensichtlich auch nicht mehr unaktraktiv wenn man bedenkt welche Leute wieder bei AMD arbeiten so wie nun der jetzige/ehemalige Senior Technical Marketing Manager bei Nvidia Sean Pelletier der zu AMD wechselt.

http://www.anandtech.com/show/6967/...-pelletier-from-nvidia-tech-marketing-to-join

Ich denke diese Leute wissen am Besten wer gut für die Zukunft aufgestellt ist.

PS: G80/GT200 diese Generationen kamen alle vor den AMDs raus. Seit der 5870 war das umgehrt, war sogar ein halbes Jahr später dran und die neue "Generation" ist die alte Architektur. Ich sehe also nicht wo die Innovation von Nvidia ist. Sollte AMD Ende diesen Jahres/Anfang nächsten Jahres bereits mit 20nm kommen, wird Nvidia einen schlechten Stand haben.
 
Zuletzt bearbeitet:
Herdware schrieb:
Wenn man sich die technischen Daten (Die-Fläche, SI, TDP-Einstufung usw.) und sogar auch die offiziellen Namen der GPUs anschaut, dann ist klar, dass die Titan nunmal die vorher fehlende "echte" GTX680 ist und die GTX780 die GTX670 usw.
Bzw. muss man sich nur mal das PCB der GK104-GTX670 anschauen... da sage mal jemand ernsthaft, dass das eine High-End-Karte und ein legitimer Nachfolger der GTX570/470/275/9800GT/8800GT sein soll.
Auch Nvidia weiß das und vergrößtert das Winzding deshalb im Referenzdesing künstlich durch ein überlanges Kühlergehäuse. :)

Klar. Die kleinen Kepler-Karten sind trotz ihrer Performance-Klasse-GPU stark genug, um an den alten Big-Chip-Karten vorbei zu ziehen. Aber sowas hat es früher schon gegeben, ohne das dadurch dieEingruppierung und das Preisgefüge der neuen Generation komplett aus den Fugen geraten wäre. Der Leistungsspung war sogar noch viel krasser z.B. bei der G80-Generation. Die 8800GTX schlug locker Luxus-Dual-GPU-Karten aus der Vorgängergeneration und Nvidia nahm das nicht zum Anlass, sie erstmal ein Jahr zurückzuhalten und dann für 1000Dollar zu verkaufen. (Wobei sie das vielleicht getan hätten, wenn sie da schon gewusst hätten wie schwach die HD2000ern sein werden. ;) )

Das die Big-Chips der Kepler-Generation plötzlich nicht mehr wirtschaftlich (für eine Vermarktung in 500Euro-Karten) zu fertigen wären oder dass massive technische Schwierigkeiten zu einer Verzögerung von ca. einem Jahr geführt hätten usw., sind ebenfalls nur Spekulationen und anders als meine basieren die eigentlich auf gar keinen Fakten oder offiziellen Aussagen.

absolut. Dem kann man nicht wirklich viel hinzufügen. Was Nvidia gerade auf den Markt wirft widerspricht jeglicher Firmenpolitik die man die letzten Jahre fahren musste. Und hier hatte man bei den Single GPU fast immer sehr ausgeglichene Verhältnisse. (dann wenn beide selbe Fertigung fuhren)

AMDs Tahiti ist ein super Chip, dessen Stärken aber im Computing Umfeld liegen. GCN war AMDs größer Schritt in diesem Umfeld, zugleich aber ein schritt weg von den kleinen effizienten DIE wie der der HD5870 die den deutlich größeren 1D Pendants von Nvidia die Stirn bieten konnten - im Gaming Umfeld wohlgemerkt. Der Schritt war nötig um eine gute Skalierung mit der Shaderzahl und konstante GPU Performance im Computing Sektor zu erzielen.

Zu Nvidias Glück konnte man den GK104 so weit quälen, dass dieser die recht konservativ getaktete HD7970 duellieren könnte. Am kleine SI und sehr hohen Takt, sowie an all dem was Herdware genannt hat, erkennt man gut, dass der Chip nicht dafür vorgesehen war. Nicht umsonst gab es Bilder der identischen Karte ala GTX 670 TI - genau das würde auch zu dem Chip passen.

Heißt nicht dass der GK100 oder GK110 schon damals bereit gewesen ist. Mit nichten. Das is Spekulazius, sowohl für als auch wider.

Dass die HD7970 / Tahiti gerade wegen dem Takt und dem Rohdaten mehr Reserven bietet zeigt sie ja, im Computing als auch mit der Ghz Edition sowie den mit optimierten Treibern erhaltene Performance Zuwächse. Bei Kepler hat sich zum Vorgänger wenig getan. Hot Clock fiel weg ja, auch ein großer Schritt aber bei weitem nicht die Wandlung die AMD vollziehen musste.

Mir fiele die Wahl HD7970 / GTX680 schwer. Letztere arbeitet mir zu nahe am Flaschenhals, bietet weniger Ram, ist dafür schlanker und gerade bei DualHead geht die AMD Karte Verbrauchs technisch gar nicht. Gut, im Jetzigen System wayne aber wenn mit Haswell vllt was Neues herkommt...

Die GTX780 ist für mich eine klare Einschubskarte. Ich geb der Karte keine 9 Monate bis eine Ablöse kommt, eventuell sogar nochmal in 28nm (Vollausbau GK110 mit Mehrtakt) oder eben dann direkt 20nm. Wobei ich auch hier AMD zeitlich klar vor Nvidia vermute.

TITAN ist für mich ein Marketing Gag welches eher den verfrühten Ausblick auf Next Gen liefert... geschickter Schachzug wie ich finde wenn man das Produkt ohnehin längst fertig hat. Auch der 20nm Chip dürfte architekturell wohl stehen. Genau wie bei AMD.
 
Zuletzt bearbeitet:
Herdware schrieb:
Bis vor Kepler/28nm war das aber nicht so. Da startete Nvidia eigentlich immer gleich mit dem Big Chip und brachte die kleineren Varianten ein paar Monate danach.
Sie starten mit dem Big Chip eine Generation/Refresh, aber nicht gleichzeitig mit dem Prozess!

Vor G80 gabs G71, vor GT200 gabs G92, vor GF100 gabs diverse GT21x.
Vor GK104 gab es nichts. Der letzte Big Chip gleichzeitig zum neuen Prozess war afaik R600 oder NV30.

Warum nicht? Sogar Ende 2011 wäre ein plausibler Termin für eine GK100-Karte gewesen.
Was erzählst du da? Ende 2011 gabs nur Papier Tahitis und du willst noch eine größere Nummer schieben? Der Prozess war noch nicht so weit, so wie es immer am Anfang eines neuen Prozesses ist. Am Besten schauen wir nochmal auf G80, 1/2 Jahr nach G71. Kein 80nm Wagnis, sondern ein Chip auf einem 6 Monate bewährten Prozess.

Herbst 2012 wäre der richtige Zeitpunkt für den Kepler Vollausbau gewesen, das ist genau GK104 + die üblichen 6 Monate. Im März hätte ein Big CHip niemals starten können, nur mit TSMCs alten 28nm Roadmaps im Kopf.

Ich habe keine Berichte darüber gelesen, dass man bei den Fertigungsprozessen für GPUs schon am Ende der Fahnenstange angekommen ist.
hongkongfui schrieb:
Danke, das Bild habe ich gesucht. Die Waferpreise steigen und fressen einen guten Teil des Shrinkgewinns auf.

Tatsächlich war ich sogar überrascht, dass AMD das Risiko eingegangen ist und in 28nm direkt mit der für ihre Verhältnisse sehr großen und kompexen Tahiti-GPU und damit auch in eine grundlegen neue Architektur eingstiegen sind und vor allem damit auch wirklich gut gefahren sind.
Das war ja genau das, worüber Nvidia bei 40nm und Fermi gestolpert ist und was Intel bei seinen CPUs seit je her bewusst vermeidet.
Gut es schon einige Zeit her, aber mir war so, das es bei GF100 nicht direkt an der Fertigung lag, das nur wenige Chips pro Wafer voll funktionsfähig war.
AMD hatte anfangs mit 28nm waren tatsächlich sehr gewagt. Als Krönung musste noch unbedingt ohne dirketen Konkurrenzdruck der Launch noch weiter nach vorne geschoben werden. Ich bin sehr gespannt ob AMD dasselbe Spiel mit 20nm wiederholt und sich erstmal die eigenen 28nm Preise zerstört.

aylano schrieb:
HD 7970 war AMDs erste Chip und das war schon ein AMD-Big-Die. Wobei ich Nividas Big-Die den 500 mm²-Die meinte, den sie damals um 1000$ verkaufen hätte können.
Ob 350 oder über 500mm² ist doch ein erheblicher Unterschied.

Und was soll da AMD dann tun, wenn eh alle Nvidia nehmen, egal was in den Testberichten & Co steht?
Die Marketingsabteilung komplett neu besetzen. So eine Situation ist der Tod für ein Unternehmen, aber sie ist kein Naturgesetz!

Was du aber vergisst ist, dass AMD schon seit der HD 6000er-Serie wieder versucht aus dem Preis-Krieg zu kommen und mit HD 6000 und dann HD 7000 die Preise gesteigert hat. Seitdem machen sie schöne Gewinne. Nur bedeuteten diese Preissteigerungen, dass das Preis-Leistungs-Verhältnis in dieser Zeit kaum gestiegen sind und somit logischerweise viele keinen Anreiz haben eine neue Grafikkarte zu kaufen. Genau das wird sich mit 20nm ändern.
Hoffentlich hast du Recht ... ;)

Denn wem soll ein GTX 780 um 600 Euro interessieren, wenn man was erheblich schnelleres @ 20nm 6 Monate später um 600 Euro bekommen kann? Und 6 Monate zu warten ist erheblich weniger als 1,25 Jahre auf Titan sowie 1,5 jahre auf den kleineren Titan.
Refresh fand ich noch nie so spannend. Denn wenn man Kepler will, die stehen seit März im Regal. Wenn nicht, ein Refresh macht aus einem schlechten Produkt selten was gutes. Der Titan Fall ist natürlich extrem, der Refresh ist zwar besser, aber auch mindestens im gleichen Maß teurer.

Aber: Es gibt immer Leute, die zu beliebigen Zeitpunkten kaufen. Denen sage ich nicht "warten noch 6 Monate", die kaufen hier und jetzt eine GTX 7x0 statt der viel besseren GTX 8x0. Machen die eben nicht das beste Geschäft, aber EGAL!
 
Zuletzt bearbeitet:
G3cko schrieb:
@aylano

Sehr interessanter und richtiger Beitrag bis auf den letzten Punkt.
Schön zu höhren, wenn es Leute gibt, die meine Beiträge sehr gerne lesen.

Herdware schrieb:
Du kannst mir glauben, dass ich mich schon wesentlich länger mit Computern und Grafikkarten befasse, als ich hier im CB-Forum angemeldet bin und ich hätte garantiert genauso "geschimpft", wenn Nvidia so eine Masche z.B. anlässlich von Fermi abgezogen hätte, wie jetzt bei Kepler.
Wie ich dir schon sagte. Es ist ein großer Unterschied, ob man nur paar Chip-Daten (Performance, Die-Größe, SI, TDP-Einstufung) kennt, oder wenn man kronkret weiß, was dahinter steckt.

Nach meiner Erfahrung verwechselt du sehr oft Ursache mit Symtom.

Erstens,
hat Nvidia @ Fermi nicht so eine Maschen ziehen müssen, wie bei Fermi, weil sie eben anders konnten.
Damals in der Fermi-Ära war ich auch einer der ersten bzw. der erste, der meinte, dass Nvidia in Zukunft die 350mm²-Die (GTX 680) im ersten Jahr und die 500mm²-Die (Titan) im 2. Jahr rausbringen muss, um keine massiven Produkt-Verspätungen im Low-End bis Performance-Bereich zu bekommen, welche im Fermi sehr massiv waren. Nvidia macht das, was sie können und das ist nicht so schlecht. Nur, mit der Preis-Masche zeigen sie halt ihr wahres Gesicht.

Zweitens,
muss man sehr konkret die GPU-Architektur (Front-End, Shader & Co) in Sachen Platzverbrauch und Performance-pro-Watt verstehen, damit man trotzdem nur halbwegs die Ursachen verstehen kann.
Bestes Beispiel ist eben der RV770. Damals verstand keiner, dass der R600 bzw. RV670 ein viel zu überdimensioniertes Front-End hatte (4 SIMD pro Grafik-Engine), welche sie in Zukunft über mehrere Generationen kaum vergrößern musste.
Deshalb war der RV770 völlig überraschend, weil AMD damals beim RV770 nur SIMD hinzufügen musste.
D.h. Wenn man eine GPU-Architektur nicht konkret versteht, dann kann man sich schon mal zwischen Top und Flop-GPU-Karte sehr schnell irren. Der Unterschied zwischen Prognose und Beurteilung ist, dass eine Prognose dann zeigt, wie genau dann deine Vor-Beurtelung, während man bei einer Beurteilung im Nachhinein sich vieles Reininterpretieren und Schein-Interpretieren kann.

Drittens,
wenn so ein 600+ Euro GTX 780 mit 250 W-TDP dahertanzt, würde das ja meinen Aussagen erst recht bestätigten, dass Titan ein mit viel Geld auf Effizienz gezüchtete GPU ist, sowie weiterhin schlechte Yields hat. Eigentlich hatte ich für GK110 eine höheren Stromverbrauch erwartet, aber das Problem ist, dass man mit viel Geld eben auch Grafikkarten sehr effizienz hochzüchten kann.
D. h., der Mega-Preis vom Titan kann eben aufgrund der bewusst reduzierten Nachfrage viele Probleme Verstecken.

Und die Probleme des Titan werden nicht gelöst sein, wenn Nvidia in 3-4 Monaten trotzdem noch einen 15-SMX-Titan bringen. Denn auch nach dem Refresh-Jahr gibt es einen kontenuierliche Fertigungs-Qualitäts-Verbesserung.

Und es ist nunmal so, dass Nvidida vorher noch niemals auf die Vermarktung von Big-Chips in normalen 500Euro-Konsumerkarten verzichtet hat, bzw. ihn erst fast ein Jahr später als 950Euro-Monpreisprodukt nachgeschoben. Das ist etwas komplett Neues, das es seit der G80 (dem ersten modernen Big-Chip) nicht gegeben hat und auch vorher niemals.
Typische Symtom-Beschreibung.
Ohne Performance-pro-Watt und Performance-pro-mm²-Verhältnisse zu eigenen Vorgänger-Produkten & Konkurrenz-Produkten sowie Wafer-Kosten kann man keine halbwegs genauen Beschreibungen machen.
Es ist ja kein Zufall, dass Nvidia genau aus diesen Punkten den Preis bestimmt und nicht auswürfelt.

Klar ist das, was ich schreibe, letztlich auch nur Spekulation. Aber sie begründet sich eben auf der Erfahrung mit Nvidia-Big-Chip-Karten der letzten 6,5 Jahre.
Wenn man sich die technischen Daten (Die-Fläche, SI, TDP-Einstufung usw.) und sogar auch die offiziellen Namen der GPUs anschaut, dann ist klar, dass die Titan nunmal die vorher fehlende "echte" GTX680 ist und die GTX780 die GTX670 usw.
Spekulieren kann man aber nur mit eindeutigen Fakten, wie Shader & Front-End & Co.
SI-Sagt leider nichts eindeutigens, sondern nur hinreichendes aus. Und zwar, dass ein 512-SI sehr stark sein kann, aber nicht sein muss. Denn entweder ist der Chips schwach (R600) oder er wird verwendet, um billige GDDR3-Chips statt teure GDDR5-Chips zu verwenden. (siehe GT200).
Die TDP-Einstufung ist leider auch nur ein hinreichender Hinweis, weil man die TDP-Stufe mit teures Geld runterzüchten kann [GTX 285 (siehe GTX 275) oder GTX 690 oder Titan] oder einem die TDP überhaupt nicht wichtig ist. In diesem Fall muss man sich die vielen Produkt-Kollegen anschauen, um den "wahren" Wert einer TDP einschätzen zu können.

Als Beispiel kann man auch den Wechsel auf 65/55nm nehmen. Also,
R600 --> RV670 und G80 auf G92
Während AMD da so 100 Mio. Transistoren durch Die-Bereinigung (Ring-Bus & 256 statt 512-SI & Co) reduzieren konnte, erhöhte Nvidia die Transistorne so um 100 Mio. Stück. Was genau da Nivdia machte, ist nicht bekannt. Es wird GPGPU vermutet. Aber genau bei diesem Schritt holte AMD in Sachen Effizienz massiv auf. AFAIK sogar mehr als bei RV770 vs GT200. Genau an diesem Beispiel sieht man, wie genau man die Architektur kennen muss, weil sich von R600 --> RV700 sowie G80 --> G92 (also quasi zwei Die-Shrinks) verdammt viel getan hat.

Bzw. muss man sich nur mal das PCB der GK104-GTX670 anschauen... da sage mal jemand ernsthaft, dass das eine High-End-Karte und ein legitimer Nachfolger der GTX570/470/275/9800GT/8800GT sein soll.
Auch Nvidia weiß das und vergrößtert das Winzding deshalb im Referenzdesing künstlich durch ein überlanges Kühlergehäuse. :)
Was soll man sich da ansehen?
Die GPUs verbrauchen bei Gleichen Die-Größen immer mehr Strom. Unter anderem, weil sie die Shader-Fläche erhöhen können. Da mit heutigen 350mm²-Dies mit damaligen 350mm² und 500mm²-Dies nur deshalb zu vergleichen, weil sie mit High-End gleich geheißen haben, erklärkt leider nicht die Technische Ursache.

Das die Big-Chips der Kepler-Generation plötzlich nicht mehr wirtschaftlich (für eine Vermarktung in 500Euro-Karten) zu fertigen wären oder dass massive technische Schwierigkeiten zu einer Verzögerung von ca. einem Jahr geführt hätten usw., sind ebenfalls nur Spekulationen und anders als meine basieren die eigentlich auf gar keinen Fakten oder offiziellen Aussagen.
Kurz gesagt: Jeder der mehr weiß als du, spekuliert laut dir mit seinen Mehr-Wissen auf garkeinen Fakten oder offiziellen Aussagen. Was du offensichtlich nicht weißt ist, dass ich schon Jahre bevor du dich angemeldet hast, schon Prognosen/Gedanken über GF100 und GK100 und bei AMD ab R600 machte.
Also, während ich mich schon Jahre mit Architektur-Elementen (Front-End & Shadern sowie Auswirkungen auf Verbrauch & mm²) beschäftige, kann man bei dir in der Hinsicht garnichts rauslesen.

Ich habe deshalb mich damit beschäftigen "müssen", weil ich schon früh erkannte, dass ich ohne diesen Architetkur-Details völlig daneben lag. Deshalb erkannte ich sehr früh, dass mit GT200-A (bisal probleme), GT200-B (bisal-Mehr probleme), GF100 (große Problem), GK110 (gravierende Probleme) Nivida immer größere Probleme mit ihren Big-Dies hatte.

Performance-pro-mm², Einführungszeitpunkte, Performance-pro-Watt und exponentialer Preis-Anstieg & Co sind eben fakten die man rauslesen kann. Aber das machen ganz wenige Leute.

Das erklärt die hohen Preise und die Stagantion auch nicht besser, als meine auf jahrelangen Erfahrungen basierende Theorie, dass Nvidia sich bewusst dazu entscheiden hat, die Leistungsklassen umzusortieren und die Preise zu erhöhen... einfach weil sie es (mangels Konkurrenz) können.
Die-Größen und Leistungsklassen & Preisklassen sind leider noch lange keine relevanten Erfahrungswerte
Das Problem bei Theorie-Aussagen ist, dass man hier genauso konkrete Auswirkungen über Stromverbrauch & Die-Fläche & Co wissen sollte. Weil wenn man es nicht tut, klammern man sich an mögliche Auswirkungen, die aber völlig irrelevant sind, während bedeutende Auswirkungen vernächlässigt werden.

Wer über Theorie spricht, der sagt eh schon indirekt, dass er keine weiteren relevante Informationen mehr liefern kann bzw. die Sache im Detail nicht (wirklich) versteht. Sonst würde er ja schon mit klaren Informationen kommen.
Deshalb kann man übrigends schon in wenigen Zahlen herausfinden, welche Information-Menge hinter seiner Aussage steht, oder ob er nur eine Bezugslose Meinung von sich gibt.

Die "technische Probleme"-Erklärung hat nur den Vorteil, dass sie AMD-Fans das wohlige Gefühl verschaffen kann, dass Nvidia inzwischen nicht mehr in der Lage wäre, deutlich an AMDs Produkten vorbeizuziehen. Dass sie dabei gescheitert sind, wieder eine größere und entsprechend leistungsfähigere Big-Chip-GPU zu entwickeln, wirtschaftlich produzieren zu lassen und mit gutem Gewinn als normale 500Euro-High-End-Karte zu vermarkten.
Würde diese Theorie stimmen, so hätte Nivdia uns mit der Titan-Einführung so überrascht und das machten sie vorne (1000 statt 500 Euro) und hinten (Umsatz Rückgang statt ein wirtschaftlicher Aufschwung) nicht.

Und würden sie so einen (angelich wirtschaftlich) 500 Euro Titan vor 20nm-Einführung bringen, so gäbe es auch hier keine Logik, außer der verzweifelte Notverkauft. Was hier noch viele vergessen, sind bei diesen geringen Stückzahlen die hohen R&D-Kosten pro Die. Daher kann man nicht so einfach die Nachfrage beliebig verkleinern und trotzdem locker flockig dem Die Wirtschaftlich herstellen zu können.
Der R&D-Kosten-Anteil beim 500mm²-Die war bisher noch kein Thema, eben weil die Stückzahlen früher wesentlich höher waren.

Aber wie gesagt, Nvidia hat das über viele Jahre immer wieder hinbekommen und ich sehe einfach nicht, warum das plötzlich anders sein soll.
Klar siehst du es nicht, weil du die Fakten dir nicht genau ansiehst, dass die 500mm²-Dies mit den Jahren es immer schwieriger hatten. Das alles kann man mit einer gründlichen Recherche heutzutage recht einfach nachvollziehen. Damals war das wesentlich schwieriger.

Außerdem hatte Nvidia in den letzten Jahren eben auch andere Sparten (Chipsatz & Profi-Karte & Co) die die Zeit überbrückten, wo es in der Hauptsparte bei weitem nicht so gut aussah.
Wobei GT200 und GF100 damals auch sehr mies aussah.
Denn während der Verkauf von GT200A damals im 3Q2008 mit der Wirtschaftskrise zusammenviel, konnte Nvidia damals zur GF100-Einführung sehr stark von den GT21x-Desgin-Wins (40nm-Shrinks) profitieren, während da AMD mit ihren DX11-40nm-Massen-Dies zu spät & gering für den Westmere-Milenstein kamen.

Beim Umstieg auf 20nm wird es diesesmal erheblich schwieriger.
a) kennen wird das Potential (= Fortschritte) von Sea-Island noch nicht
b) braucht AMD nur einen 350mm²-Die, um in High-End-Markt (Titan) und Enthusiast (X2) und Tesla-Markt und Quadro-Markt konkurrieren und als erster vorerst über paar Monate übertrumpfen zu können, während Nvidia da wie in den letzten Jahren (GF104 vs GF100 und GK104 vs GK110) schon 2 Dies braucht, die einerseits mehr R&D kosten und anderseits erhebliche Wafer-Stückzahlen benötigten.
c) braucht Nvdia parallel dazu auch noch 20nm-Wafer für Tegra, weil die Konkurren (Qualcomm & Samasung) schon auf 20nm-Wafer umstellt.
d) verliert Nvidia ab 4Q 2013 schon immer mehr die Konsolen-Lizenzen.
e) Nvidia auch nicht mehr die ganzen Treiber-Qualität & Flimmer-Qualität & Cuda & PhysX & Optimus & Co Vorteile nicht mehr hat.

Damit können sie den 500mm²-Die eben nicht lockerflokig 1 Jahr nach 20nm-Einführung rausbringen, weil Kaveri (neue Art des GPGPU-HPC) und 20nm-FiroPro aufgrund Treiber-Entwicklungen nicht mehr 9 Monate nach der neuen Fertigung-Einführung kommen werden.
Gleiches gilt für den 20nm-Tegra, weil diesesmal Nvidia keinen klugen Schachzug mehr machen kann und einen Markt-Nische fand.

Mit der Tesla-Monopolstellung und Tegra-Marktnische (quad-Core) konnte Nvidia damals in diesen Märkten auf den 28nm-Wechsel warten und fast alle Wafer für die Kepler-Low-End & Mainstream-Notebook-GPUs verwenden.
Nur wird das beim 20nm-Wescheln kaum mehr gehen, weil Nvidia a) überall 20nm-Wafer braucht und die 20nm-Wafer höchstwahrscheinlich nochmals etwas teurer sind, sodass sie kaum "billige" Massen-GPUs produzieren können.

Der Vorteil von AMD ist eben, dass sie eigene x86-CPU-Architekturen haben, wo sie die GPU-Technologie als Beschleuniger verwenden können. Diese Techniken wurden zwar vor 1-2 Jahren eingeführt, aber so richtig beginnt diese Technik ab Kaveri & Nex-Gen-Konsolen & Co zu funktionieren. Und wenn diese Technik so richtig funktioniert, wird das alleine schon auf einigen Nvidias-Geschäftsfeldern auswirken. Gerade jene Felder, die früher für Nvidia in schwierigen Zeiten sehr hilfreich waren.

Kurz gesagt:
Alleine die HSA als Konkurrenz wird Nvidia schon ziemlich in Schwierigkeiten bringen. Eben weil der Tegra-Markt noch immer nicht angesprungen ist und ständig Verluste bringt. Und das Image von Nvidia hat sich mit Fermi & Titan schon erheblich verschlechtert, wodurch in Zukunft nicht mehr so viele auf die Superduper-550mm²-Überdrüber-Karte einige Quartale warten werden.

Zwar sind das nicht alles direkt mit High-End-GPU-Karten zu tun, aber indirekt sind die positiven und negativen Auswirkungen aus den anderen Sparten teils sehr massiv, weil es um 20nm-Wafer-Zuteilungen und 500mm²-GPGPU oder Game-balance geht.

Außerdem wissen wir noch nicht, wie es ausgeht, wenn Nvidia weiterhin Preisleistungsmäßig so schlecht bleigt. Denn diese Situation hatten wir auch noch nicht.
 
nur mal kurz zum autovergleich:

akuji13 schrieb:
...
Das Ding ist ein Prestigeprojekt...die scheitern nicht und werden nicht verramscht.

Wie z. B. ein VW Phaeton.

und nun werfe der willige kunde mal einen sanften blick auf die gebrauchtpreise von einem phaeton. warum die dinger gebraucht so billig gehandelt werden ggü ihrem einstandspreis von etwa 65k euro für den v6 tdi mit 3l hubraum mag vllt. daran liegen, daß sich den viele firmen als dienstfahrzeuge holen und ihn iwann abstoßen.

aber niemand will sowas gebraucht als firmenfahrzeug, da sie bei der 1% regelung nämlich nicht den gebrauchtwagenpreis von vllt 15000 euro verrechnen dürfen, sondern den ursprünglichen preis von halt 65000 euro. also statt 150 sind dann 650 euro heranzuziehen.

deshalb werden davon viele an privatleute verkauft und die bezahlen halt meist ungern solche sterntalerpreise. und bezüglich scheitern: der phaeton mag ja ein gutes auto sein, jedoch ist er leider nie dort angekommen, wo er ursprünglich hin wollte, GANZ nach oben.


die graka ist daher wirklich was ganz anderes als der phaeton, aber auch die titan ist doch schon ein bissel arg abgehoben im preis. da sollte sie eher phaeton niveau anpeilen.
 
Das ist mal wieder ein Nischen Produkt nichts neus nichts inovatives an Leistung.
Es ist mal wieder nur en Produkt um paar euro zu machen.
Da brauch amd derzeit nichts nachschmeisen die bringen liebe ende des jahres was ordenliches aufen markt.
 
CR4NK schrieb:
Dieses Jahr werden wohl mehr Leute in neue Prozessoren investieren als in Grafikkarten. Also bei mir (und alle anderen die ab 7950/GTX670 ausgerüstet sind können diese Karten getrost links liegen lassen.

Das läuft ja nicht seit diesem Jahr sondern seit 2-3 Jahren!
Seit dieser Zeit gab es keinerlei Gründe mehr irgendwas aufzurüsten und die Hersteller schieben einen refresh nach dem anderen raus.
 
aylano schrieb:
Kurz gesagt: Jeder der mehr weiß als du, spekuliert laut dir mit seinen Mehr-Wissen auf garkeinen Fakten oder offiziellen Aussagen.

Du bildest dir vielleicht nur ein, so schrecklich viel mehr zu wissen als alle anderen. ;)

Wer über Theorie spricht, der sagt eh schon indirekt, dass er keine weiteren relevante Informationen mehr liefern kann bzw. die Sache im Detail nicht (wirklich) versteht.

Hmmm....
Siehst du das auch so bei der Evolutionstheorie, oder der Relativitätstheorie usw.?

Ich will meine kleine Nvidia-Theorie nicht auf ein Niveau damit stellen, aber etwas eine Theorie zu nennen, bedeutet eben nicht, dass man überhaupt nichts weiß und alles nur wild ausgedacht ist. Eine Theorie ist ein systematischer Erklärungsversuch ohne endgültigen Wahrheitsanspruch. Wer wissenschaftlich/technisch an eine Sache herangeht, der arbeitet praktisch nur mit solchen Theorien.

Deine Ansichten über Theorien erinnern mich eher an eine Religion. ;)

Würde diese Theorie stimmen, so hätte Nivdia uns mit der Titan-Einführung so überrascht und das machten sie vorne (1000 statt 500 Euro) und hinten (Umsatz Rückgang statt ein wirtschaftlicher Aufschwung) nicht.

Das einzige Überraschende an der Titan war ihr später Erscheinungstermin und ihr Preis. Die ungefähren technischen Spezifikationen der großen Kepler-GPU waren ja schon ewig bekannt. Lange bevor die kleinen Performance-GPUs überraschenderweise in der GTX680 kamen.

Bzw. haben mich bei der Titan die Spekulationen über den Preis vor den ersten Reviews beinahe dazu gebracht anzunehmen, dass es eben doch nicht einfach nur eine normale Big-Chip-High-End-Karte ist, sondern irgendein besonderes Single-Chip-Monster, das in einer eigenen Liga über den normalen GTX, bzw. in der der Dual-GPU-Karten spielt und so ihren Preis irgendwie tatsächlich rechtfertigt.
Das war aber nicht so. Die Titan liegt ernüchternderweise in jeder Hinsicht genau da, wo man eine Kepler-High-End-Karte erwarten würde. Eine Karte, die unter anderen Umständen als stinknormale GTX680 gekommen wäre und ca. 500 Euro gekostet hätte.

Ok. Ich will nochmal klarstellen, dass ich es durchaus auch so sehe, dass Nvidia höchstwahrscheinlich ziemlich massive technische Schwierigkeiten bei der Entwicklung und Produktion der großen GKx00-GPUs auf dme neuen Fertigungsprozess gehabt hat.
Aber die gab es eben auch schon bei Fermi, ohne das daran alles komplett gescheitert wäre. Und ja, bei Fermi spielte, anders als du dich erinnerst, auch der damals neue 40nm-Prozess massiv mit rein. Nvidia "testete" den neuen Fertigungsprozess damals nur mit den kleinen GT218 und GT216 vorab und stolperte so blind in eine Falle, während AMD vorher Erfahrungen mit der Mittelklasse-GPU RV740 sammelte.
Die GF100 kämpfte mit fertigungsbedingten Leckströmen und für den Prozess ungünstig gewählten Transistor-Designs usw. Dinge, die bei den kleinen, langsamen GT218 nicht aufgefallen waren. Erst mit dem Refresh GF110 bekam Nvidia das richtig in den Griff und konnte das volle Potential des Chips ausnutzen.

Wie gesagt ist meine Theorie, dass es bei GK100 auf dem neuen 28nm-Prozess ganz ähnlich lief. Es gab Probleme (was man z.B. daran sieht, dass es selbst als Tesla keine voll aktivierten GK110 gibt, obwohl das ja dem Namen nach schon ein optimerter Refresh ist.) Die GK100 wurde aber garantiert entwickelt und nur aufgrund einer relativ kurzfristigen Entscheidung doch nicht vermarktet, nachdem Nvidia wusste, dass man sie gegen Tahiti doch nicht brauchen würde. Alles andere wäre angesichts des drohenden Tahiti, der auf dem Papier viel stärker ist, als die kleinen GK104, extrem fahrlässig gewesen.

Aber GK100 wäre wohl auch ein zweites Fermi geworden, mit reduzierten Taktfrequenzen, einigen deaktivierten Shaderclustern usw. Aber eben höchstwahrscheinlich auch nicht total "broken". Nvidia hätte sie vermarkten können, wenn sie es gemusst hätten und hätte damit höchstwahrscheinlich auch immer noch schwarze Zahlen geschrieben.
Für uns Konsumenten wäre es auf jeden Fall viel besser gewesen, wenn diese GPU Ende 2011/Anfang 2012 als High-End vermarktet worden wäre, weil so das bisherige Preisspektrum erhalten geblieben wäre. (So sah die offizielle Terminplanung ursprünglich aus. Die Big-Chips kamen wie gesagt bisher immer ein paar Monate vor den Performance-GPUs.)

Was hier noch viele vergessen, sind bei diesen geringen Stückzahlen die hohen R&D-Kosten pro Die. Daher kann man nicht so einfach die Nachfrage beliebig verkleinern und trotzdem locker flockig dem Die Wirtschaftlich herstellen zu können.
Der R&D-Kosten-Anteil beim 500mm²-Die war bisher noch kein Thema, eben weil die Stückzahlen früher wesentlich höher waren.

Das mit den kleineren Stückzahlen hat Nvidia sich ja wohl selbst eingebrockt, indem sie die Titan derartig verteuert haben.

Wie schon wiederholt gesagt, ist an der GK110 nichts besonderes. Das ist kein außergewöhnliches Riesenmonster, mit den Nvidia neue Ufer beschritten hat, sondern ein ganz gewöhnlicher Big-Chip in Tradition aller anderen seiner Art seit dem G80. Bei allen waren die R&D-Kosten hoch und die Ausbeuten niedriger als bei kleineren Chips usw. und immer gab es entsprechende abfällige Kommentare, die andeuteten, dass Nvidia damit auf Consumer-Karten unmöglich Erfolg haben könne. Trotzdem schaffte es Nvidia bisher immer, sie gewinnbringend in normalen High-End-Consumerkarten zu vermarkten. Tatsächlich mussten sie das auch, denn die kleineren GPUs hätten nicht ausgereicht, um AMD zu kontern.
Andererseits lernte AMD mit der Zeit, dass die zeitweise verfolgte Small-Chip-Strategrie eben nicht ausreichte, um an die großen Nvidia-GPUs heran zu kommen. Die erfolgreichen RV870 (HD5800er) waren schon wieder eine Abkehr davon und Tahiti ist wie gesagt schon ein richtig großer Chip, der garantiert auch viel aufwändiger zu entwicklen und teurer herzustellen ist, als z.B. die GK104.

Dass es plötzlich so extreme Schwierigkeiten und schlechte Ausbeuten usw. geben soll, die große GPUs unrentabel machen (was inzwischen AMD sogar stärker treffen würde als Nvidia, denn die haben jetzt auf Consumer-Karten die tendenziell größeren GPUs), hast du dir doch eigentlich nur mehr oder weniger ausgedacht. Diese Spekulation ist noch weniger als eine Theorie, das ist nur geraten. Ich habe jedenfalls nirgendwo etwas Konkretes gelesen, das darauf hindeutet.
Nvidia hat solchen Spekulationen über besodners schlechte Ausbeuten bei den GK110 sogar ausdrücklich widersprochen.

Es ist natürlich sehr leicht, zu behaupten, dass Nvidia lügt. Aber wenn man dem nicht etwas mehr als nur ein Bauchgefühl entgegen zu setzen hat, halte ich mich lieber an die Aussagen von denen, die es wissen müssen. Und wirklich wissen können das nur TSMC (die ziemlich sicher nichts sagen dürften, selbst wenn sie wollten) und eben Nvidia.

Klar siehst du es nicht, weil du die Fakten dir nicht genau ansiehst, dass die 500mm²-Dies mit den Jahren es immer schwieriger hatten. Das alles kann man mit einer gründlichen Recherche heutzutage recht einfach nachvollziehen. Damals war das wesentlich schwieriger.

Ich sage ja nicht, dass es leicht ist für Nvidia, Jahr für Jahr "zu liefern". Aber du stellst es so hin, als wäre in dieser Generation der übliche Big-Chip für Consumer plötzlich ein Ding der Unmöglichkeit geworden. Dass Nvidia von Anfang an nicht damit plante und nicht darauf hinarbeitete, mit ihm Tahiti zu kontern.
Wenn dese Theorie stimmt, dann ist Nvidia mit Kepler sehenden Auges haarscharf der größten Katastrophe seiner Geschichte als GPU-Hersteller entgangen, denn sie hätten AMD jetzt schon seit ca. 1,5 Jahren im High-End überhaupt nichts mehr entgegenzusetzen und auch auf viele weitere Monate nicht, wenn Tahiti nur etwas stärker (so satrk, wie nicht nur von NV erwartet) geworden wäre.

Ich glaube einfach nicht, dass Nvidia nicht alles daran gesetzt hat, das zu verhindern und ich bin auch ziemlich sicher, dass sie damit weitgehend Erfolg hatten, wiel sie wie gesagt immer wieder bewiesen haben, dass sie es können.
Die Titan musste nicht zwangsläufig ein Jahr verspätet und zu Mondpreisen kommen. Genausowenig wie die GTX780 über 700 Euro kosten muss.
Nvidia macht das weil sie es sich leisten können.

Wäre es anders gewesen, hätte es wohl sowas wie eine "GK102" gegeben. Eine GPU, kleiner als Gk100, damit sie noch wirtschaftlich zu fertigen ist, aber wesentlich größer als GK104, damit sie sicher Tahiti kontern kann. Über Gk104 bleibt einfach so viel "Luft", dass es unendlich dämlich von Nvidia gewesen wäre, die nicht zu nutzen.

Kurz gesagt:
Alleine die HSA als Konkurrenz wird Nvidia schon ziemlich in Schwierigkeiten bringen.

HSA in Kombination mit x86 wird wohl in absehbarer Zukunft ziemlich sicher nur auf den neuen Spielkonsolen eine wichtige Rolle spielen, einfach weil Intel nicht dabei mitmacht. Man kann Software nicht einfach an 80% des PC-Marktes vorbeientwicklen.
Außerdem ist HSA ja nicht wirklich eine Sache der Grafik. Viel mehr geht es darum, die CPU zu entlasten, indem man die GPU effizienter als bisher als Co-Prozessor "missbraucht". HSA richtet sich, wenn überhaupt, gegen Intel, nicht gegen Nvidia.

HSA wird vor allem bei ARM-basierten Mobilgeräten eine Rolle spielen, wo CPU-Leistung, im Gegensatz zu den x86-PCs, eine knappe Ressource ist und Platzhirsch Intel nicht im Weg steht. Das sieht schon an der Zusammensetzung der HSA-Foundation. Kann sein, dass Nvidias Tegra dadurch Probleme bekommen könnte, wobei ich es nicht mal für unmöglich halte, dass Nvidia, sollte HSA sich im ARM-Markt durchsetzen, sogar mit dabei einsteigt. AMD betont ja immer wieder, dass HSA ein offener Standard ist und tatsächlich könnte es sich auch für AMD lohnen, wenn ihr Konkurrent da mit macht.
 
Zuletzt bearbeitet:
Einziger Fakt ist:

Erst 2013 konnte nVidia mit der Titan die Single GPU Performancekrone innerhalb der aktuellen Grakageneration erreichen. Vorher nicht.

Alles andere sind niedliche Theorien, die aber letzlich über "Hätte, wäre, wenn, vielleicht"-Gequassel nicht hinauskommen.
 
DarKRealm schrieb:
Das kann ich ich dir von der Titan schon berichten. Spielt bei aktuellen Spielen soviel wie keine Rolle.

Kann ich so unterschreiben, sofern man nicht ein wenig an den Grafikeinstellungen werkelt. Bei Assassins Creed 3 mit SGSSAA z.B. wird die Karte zu 100% ausgelastet und erreicht entsprechend schnell auch die magische 80° Marke.
Mittlerweile kann ich sagen dass ein Temptarget von 87-89° durchaus ausreicht damit die Karte, bei 100-102% Verbrauch (PT auf Maximum) nie ausgebremst wird. Meine läuft durchgängig mit geschmeidigen 1,15Ghz, womit sie bei etwas höherem Verbrauch gut die doppelte Leistung als ihr Vorgänger, der GF110 abliefert. Und nein, dabei wird die Karte nicht unerträglich laut. Man hört sie, aber sie stört nicht und das Rauschen blendet man auch recht schnell aus.
Da sieht man meiner Meinung nach schon dass man hier sehr viel Wert auf Effizienz gelegt hat, aber auch ausreichend Taktreserven hat. Die GTX780 wird im Normalzustand sicherlich schneller als die 680 sein, der Verbrauch dürfte dabei aber wohl nicht allzu sehr ansteigen.

Alles weitere, auch der Erfolg der 780, wird davon abhängig sein wie viel Spielraum NV dem User gibt die Karte auf Kosten des Stromverbrauchs zu entfesseln. Wird der Spielraum ähnlich groß wie bei der TITAN, riskiert man zwar dass einige potenzielle TITAN Käufer lieber die 300€ sparen und dafür auf minimal weniger Leistung setzen, hat aber dafür ein gutes Argument in der Hand um einen Mehrpreis von 100-200€ ggü. der 680 rechtfertigen zu können.

Für Nutzer die allerdings nichts an der Karte ändern wollen, wird die 780 für den vermuteten Preis absolut ungeeignet. Wozu für Potenzial zahlen was man nicht nutzen möchte?

@Pilstrinker:
Wobei sich AMD die Krone auch teuer erkauft hat. Ich persönlich halte den Tahiti "XT" für die Rote Version des allseits beliebten Fermis: Viel neues im GPU-Computing, hoher Stromverbrauch bei vergleichsweise geringer Leistung. Und dabei noch lauter als der Vorgänger (im Falle der 7970 sogar bei etwa gleichem Stromverbrauch).
Die Gründe weshalb hier nicht rumgemeckert wird sind der Preis und die Fülle an guten Custom-Designs. Zwar ist der Stromverbrauch für die gebotene Leistung sehr hoch, allerdings dauert es einige Jahre auf Vollast bis man die Preisdifferenz wieder drin hat.
Und dank guter Alternativdesigns ist die Lautstärke eben auch kein großes Problem mehr.

AMD hat viel Luft bei einem möglichen Refresh und könnte NV damit richtig unter Druck setzen. Meiner Meinung nach wäre es Schade wenn sie mit der nächsten Generation auf 20nm warten. Bei dem vorhandenen Potenzial könnte man NV sogar dazu bewegen wieder "alte" Preise zu verlangen.
 
Zuletzt bearbeitet:
Sehr interessante Berichte die hier zu lesen sind auch wenn diverse AMD oder Nvidia - Fans versuchen die "Gegenseite" fschlecht aussehen zu lassen. Fakt ist, je mehr sich die beiden Firmen um die Krone streiten umso besser ist es für uns Endverbraucher!

Und bitte hört endlich auf über die Preise zu heulen, es kann sich auch nicht jeder sein Traumauto / Urlaub / Haus etc. leisten!

Viel schlimmer ist es dass vor 13 Jahren der Strom um die hälfte günstiger war, dass der Benzin € 0,599 gekostet hat, die Halbe Bier € 1,90 gekostet hat - das find ich schlimm!

Ich will und werde für die meine nächste Graka wieder Geld ausgeben und wenn Sie € 700 kostet und ich Sie mir leisten kann dann kauf ich Sie!
 
Herdware schrieb:
Du bildest dir vielleicht nur ein, so schrecklich viel mehr zu wissen als alle anderen. ;)
Natürlich bilde ich mir das ein, wenn ich 3-fach(6 statt 2) so viel Forum-Erfahrung habe wie du.
Zweitens, wenn ich schon sage, dass ich in den 4 Jahren gelernt haben, dass ich gezungen war, die Architektur-Details ebenfalls in Bezug auf Performance & Die-Größe & Gesamtstromverbrauch & Performance-pro-Watt & Performance-pro-mm² & Co zu betrachten, weil ich eben herausgefunden, dass anfängliche Prognosen (wie z.B: R600 und RV670) völlig daneben lagen, dann sage ich das nicht aus Spaß um andern mittels Klugscheißerei zu ärgern, sondern weil ich aus Erfahrung sprechen die wie schon erwähnt, x-fach größer ist.

Und wer sich in den letzten Jahren immer nur auf die Oberflächen (Performance-Only, Performance-Klassen, Die-Größe & Co) beschränkte, wird hat nicht wissen was sache ist. Und das sind auch jene Leute, die bei Prognosen schweigen und wenn das Produkt daraußen ist, allen Leute die Welt zu erklären.

Ich will meine kleine Nvidia-Theorie nicht auf ein Niveau damit stellen, aber etwas eine Theorie zu nennen, bedeutet eben nicht, dass man überhaupt nichts weiß und alles nur wild ausgedacht ist. Eine Theorie ist ein systematischer Erklärungsversuch ohne endgültigen Wahrheitsanspruch. Wer wissenschaftlich/technisch an eine Sache herangeht, der arbeitet praktisch nur mit solchen Theorien.

Deine Ansichten über Theorien erinnern mich eher an eine Religion. ;)
Grundsätzlich schöne Aussage, nur fehlt wieder mal eine Aussage. Und zwar müssen alle Theorien weiterhin auf Fakten-Basis basieren um a) eine Hypotese stellen zu können und b) diese auch erklären zu können.

Das einzige Überraschende an der Titan war ihr später Erscheinungstermin und ihr Preis.
Alleine deine geringe Faktenbasis ist oft völlig falsch, was eben Leuten basiert, die nie Prognose (= Konkrete Aussagen) stellen und nachher allen die Welt erklären. 500mm²-Dies hat Nvidai schon beim 40nm, bei 65nm, bei 55nm komischerweise genau 1 Jahr nach Fertigungs-Einführung eingeführt.

Mir wurde schon übelst unterstellt, als ich GK100 Einführungszeitraum schon 2Q 2012 anzweifelte und vorsichtig Ende 2012 erwähnte.
Dass Nvidia immer mehr Probleme mit ihren 500mm²-Dies hat, ist schon seit GT200A, GT200B, GF100 bekann, die eben alle vor deiner Registrierung erschienen. Ich habe schon x-mal auf die immer größeren 500mm²-Die hingewisen und ich finde es dann sehr lächerlich wenn Leute wie du, die erst vor kurzem registrierten, dann noch die Frechheit haben, mit die Welt zu erklären, von dem sie offensichtlich Null Ahnung haben.

Hier mal einen Auszug von meiner Aussage 05.07.2011, also 3 Monate bevor du registriert hast.
https://www.computerbase.de/forum/t...sten-quartal-2012.920071/page-2#post-10192261
twilight schrieb:
NVidia wird vermutlich mal wieder mit dem Topmodell beginnen und wenn die Vergangegheit uns irgendeinen Anhaltspunkt geben soll, würde ich mich mal fragen, warum NVidias große Messe GTC erst im Mai 2012 stattfindet. Weil sie vielleicht in ihrer optimistischen Art davon ausgehen, bis dahin Kepler HPC Karten zumindest samplen zu können. Mich würde es sehr wundern, wenn NVidia Kepler Geforce Karten vor Frühjahr 2012 liefern kann und wenns mal wieder nen paar Respins mehr braucht wäre auch Sommer mit einem Paperlaunch zur GTC nicht untypisch.
Man muss sagen, der jetztige Umstieg von 40nm auf 28nm könnte bei Verspätung viel mehr Auswirkungen haben als bei 90nm-->65/55nm sowie 55nm-->40nm.

Denn bei 90nm-->65/55nm war AMD mit ihrer Architektur zu langsam, um Vorteile aus ihren schnellen Umstieg zu erhalten.

Bei 55nm-->40nm hatte Nvidia schon vorher 40nm-GPUs entwickelt und konnte mehr Wafer als AMD bestellen, sodass AMD nicht genug 40nm-Wafer bekommen konnte.

Ich denke, Nvidia weiß das und nimmt den Umstieg dementsprechend ernster bzw agiert dementsprechend anders.

Denn wenn Nvidia versucht, ihre High-End-GPU vor Low-End & Mainstream in 28nm rauszubringen, könnte Nvidia wie die DX11-GPUs erhebliche (6-9Monate) Verspätungen riskieren.

Das hätte erhebliche Auswirungen auf die Konkurrenzfähigkeit & Marktanteiel, weil dann AMD alle 28nm-Wafer für sich beanspruchen kann.

Das könnte ich mir nicht vorstellen bzw. das wäre fast grob fahrlässig.


Damit war übrigens gemeint, dass Nvidia aus Technischen Gründen gezwungen ist, diesesmal die 350mm²-Die vor GK100 zu bringen, um GK106 & GK108 nicht so wie GF106 und GF108 9 Monate nach der Konkurrenz zu bringen, die zusätzlich nicht so richtig in den Markt kamen, weil sie gewisse Meilensteine Verpasste.

Dass GK104 vor GK110 hatte ich schon lange vorher abgeleitet, weil ich es mir nicht anders vorstellen konnte, bevor das Geheimnis so Feb 2012 dann gelüftet wurde.

Und schon damals Mitte 2011 sagte ich schon erhebliche Verspätungen an.
Das war auch diese Zeit, wo ich ungefähr entdeckte, dass alle 500mm²-Dies von Nvidia 1 Jahre nach der Fertigungs-Einführung kam.

Im Zitat deutet der Kollege klar auf GK100 @ Frühjahr 2012 hin, wo die optimisten eben auf GK100 in Mai 2012 träumten und die weniger optimisten auf 3/4Q 2012. Aber da ich ja schrieb, dass die Verspätungen schlimmer als bei 40nm & 55nm auffallen könnten, war für mich eine Verschiebung auf 1Q/2Q 2013 eben nicht überraschend, sondern im Bereich der Möglichkeit.

Ok. Ich will nochmal klarstellen, dass ich es durchaus auch so sehe, dass Nvidia höchstwahrscheinlich ziemlich massive technische Schwierigkeiten bei der Entwicklung und Produktion der großen GKx00-GPUs auf dme neuen Fertigungsprozess gehabt hat.
Das Problem ist, dass du den eigentlich Grund nicht erkennt.

Aber die gab es eben auch schon bei Fermi, ohne das daran alles komplett gescheitert wäre.
Leider kennst du nicht die Probleme von Fermi.
Fermi hatte große Design-Probleme, weil Nvidia sich nicht an die TSMC-Desgin-Richtlinen gehalten hat, sodass sie blöderweise auch den 16. Block abschalten mussten.
Übrigends, durch den Respin konnte Fermi die Die-Kosten trotzdem von 200$ auf 120$ Senken und das war dann im Akzeptablen Bereich, vorallem weil AMD wegen dem fehlenden DX11 schon unter Zugzwang war.

Die GF100 kämpfte mit fertigungsbedingten Leckströmen und für den Prozess ungünstig gewählten Transistor-Designs usw. Dinge, die bei den kleinen, langsamen GT218 nicht aufgefallen waren. Erst mit dem Refresh GF110 bekam Nvidia das richtig in den Griff und konnte das volle Potential des Chips ausnutzen.
Deshalb falsch, weil GTX 580 den selben Stromverbrauch wie GTX480.
Natürlich hatte Nvidia wegen Missachtung TSMC-Desgin-Regeln etwas mehr Leckströme. Aber das war schon unwichtig, was man am selben GTX 580 Stromverbrauch sah.

Erst der Telsa M2090 dürfte als die Leckströme & Co in griff bekommen haben (6 Monate nach GTX 580;) ), weil sie erst dann jene Daten erreichte, die Nvidia schon 1 Jahr davor erreichen wollte. Aber da hat Nvidia nicht mehr viel gemacht, sondern TSMC hat eben 40nm weiter verbessert.

Wie gesagt ist meine Theorie, dass es bei GK100 auf dem neuen 28nm-Prozess ganz ähnlich lief. Es gab Probleme (was man z.B. daran sieht, dass es selbst als Tesla keine voll aktivierten GK110 gibt, obwohl das ja dem Namen nach schon ein optimerter Refresh ist.)
Erstellst du auch Theorien, ob Morgen die Sonne aufgeht?
Nur zur Klasrstellung. Der zweite einer bedeutet nicht, dass der optimierter Refresh keine Teildeaktivierten Einheiten hat, sondern er bezeichnet eine Refresh-Karte.

Dass GF110 eine volldeaktivierte Refresh-Karte war, war so, weil die Nividias Probleme bei 500mm² erstmals so groß waren, dass die 500mm²-Die-Karte (GTX 480) bei der Einführung erstmals nicht vollaktiviert bringen konnte.

Dass Titan diesesmal sogar bei der Refresh-Karte nicht vollaktiviert bringen kann, zeigt eben die immer größeren Probleme, die sie momentan noch mit hohen Preisen verstecken/ irgendwie kompensieren können.

Aber du glaubst ja nicht, dass der GK110 solche Yieldprobleme bzw. sonstige Wirtschaftliche Probleme hat.

Aber GK100 wäre wohl auch ein zweites Fermi geworden, mit reduzierten Taktfrequenzen, einigen deaktivierten Shaderclustern usw. Aber eben höchstwahrscheinlich auch nicht total "broken".
GK110 ist genauso ein zweites Fermi. Das zeigt ja deutlich der Umsatz-Rückgang und der massive Gewinn-Einbruch.

Für uns Konsumenten wäre es auf jeden Fall viel besser gewesen, wenn diese GPU Ende 2011/Anfang 2012 als High-End vermarktet worden wäre, weil so das bisherige Preisspektrum erhalten geblieben wäre. (So sah die offizielle Terminplanung ursprünglich aus. Die Big-Chips kamen wie gesagt bisher immer ein paar Monate vor den Performance-GPUs.)
Das ist der Unterschied zwischen mir und dir.
1 Jahr davor konnte ich mir Technisch nicht eine andere Möglichkeit als GK104 vor GK100 vorstellen, während du heute noch immer nicht verstehen kannst, welche Problem da Nvidia hat. Und nein, sie können da mit Dies nicht so leicht herumjogglieren, wie du dir es so gerne vorstellst. Die Roadmap ist da übrigends viel steifer als bei AMD, wobei ich nicht weiß, warum das so ist.

Das mit den kleineren Stückzahlen hat Nvidia sich ja wohl selbst eingebrockt, indem sie die Titan derartig verteuert haben.
Angebot & Preis regelt die Nachfrage. Mein got nar, das weiß doch jeder Teeny schon. Du willst einfach die geringen Stückzahlen nicht wahrhaben.

Bei allen waren die R&D-Kosten hoch und die Ausbeuten niedriger als bei kleineren Chips usw. und immer gab es entsprechende abfällige Kommentare, die andeuteten, dass Nvidia damit auf Consumer-Karten unmöglich Erfolg haben könne. Trotzdem schaffte es Nvidia bisher immer, sie gewinnbringend in normalen High-End-Consumerkarten zu vermarkten.
Das stimmt auch. Nur galten die Aussagen immer nur für die Einführung sowie für weitere Verspätungen.
Als Charlie sagte, dass die Yields im September 2009 mit 2% dermaßen Schlecht sind, dass Fermi nicht für 2009 eingeführt werden kann, galt dies a) für 2009 und b) bestätigten sich weitere Verschiebungen auf April 2010.

Keiner behauptete das für die Ewigkeit, was du offensichtlich damals mitverstanden hast, was sich 2 Jahre vor deiner Registration ereignete.
GTX 580 hatte dann 6 Monate nach GTX 480 wieder gute Yields.
Das Problem bei Titan ist aber, nach 6 Monaten steht vielleicht schon ein 20nm-Konkurrent vor der Türe.

GTX 580 gabs dann noch 1 Jahr zu kaufen, während man bei Titan überhaupt mal auf non-teildeaktivierte Chips und 400-500 weiter hoffen muss, bevor 20nm-High-End kommt.

Es ist natürlich sehr leicht, zu behaupten, dass Nvidia lügt. Aber wenn man dem nicht etwas mehr als nur ein Bauchgefühl entgegen zu setzen hat, halte ich mich lieber an die Aussagen von denen, die es wissen müssen.
Du Ahnungsloser
Nvidia hat im Sept 2009 allen Leute voll ins Gesicht gelogen und sie haben einen Fermi-Dummy gezeigt, um die Lüge einer Einführung im Nov 2009 noch aufrechtzuerhalten.

Und wirklich wissen können das nur TSMC (die ziemlich sicher nichts sagen dürften, selbst wenn sie wollten) und eben Nvidia.
Yields & Co sind leider bei einigen Leuten zu bestimmten Zeitpunkten bekannt.
Bei dir offensichtlich nicht. ;) Aus diesem Grund weiß ich schon mal mehr, was nichts mit einbildung zu tun hat.

Ich sage ja nicht, dass es leicht ist für Nvidia, Jahr für Jahr "zu liefern". Aber du stellst es so hin, als wäre in dieser Generation der übliche Big-Chip für Consumer plötzlich ein Ding der Unmöglichkeit geworden.
Auf diese Problematik der Big-Dies gehe ich schon seit Jahren ein und erwähne es ständig. (siehe Link oben)
Es ist nicht unüblich, dass Neulinge kommen und anderen gleich die Welt erklären können und es garnicht wissen, wenn das Thema schon längst vor Jahren angesprochen wurde.

Dass Nvidia von Anfang an nicht damit plante und nicht darauf hinarbeitete, mit ihm Tahiti zu kontern.
Eine Architetkur wird über Jahre entwickelt und die Die-Entwicklung --> Produktion dauert im optimalfall 1 Jahr.
Das Nvidia & AMD so lockerflockig taktieren, wie es sich manche vorstellen, entspricht nicht der Realität.

Die Titan musste nicht zwangsläufig ein Jahr verspätet und zu Mondpreisen kommen. Genausowenig wie die GTX780 über 700 Euro kosten muss.
Nvidia macht das weil sie es sich leisten können.
Richtig, müssen nicht.
Nur hätte Nvidia wohl ein Verlustgeschäft gemacht, weil sie Intel-Lizenz-Bereinigt nur mehr 12 Mio. $ Gewinn gemacht hätte.

Die Titan musste nicht zwangsläufig ein Jahr verspätet und zu Mondpreisen kommen.
Genau diesen Glauben kann man aufrechterhalten, wenn man die wenigen Stückzahlen mit hohen Koset in der Effizienh hochzüchten kann.

Wäre es anders gewesen, hätte es wohl sowas wie eine "GK102" gegeben.
Was du dier alles herfantasierst.
In den letzten 7 Jahren, in dem ich intensiv dabei bin, habe ich sowas nicht erlebt.

Eine GPU, kleiner als Gk100, damit sie noch wirtschaftlich zu fertigen ist, aber wesentlich größer als GK104, damit sie sicher Tahiti kontern kann. Über Gk104 bleibt einfach so viel "Luft", dass es unendlich dämlich von Nvidia gewesen wäre, die nicht zu nutzen.
Ich glaube, so ein zustätzlicher Die kosten so 30 Mio. $. Abgesehen davon sind die R&D-Ressourcen bei Nvidia beschränkt, sodass sie schon die Konsolen aufgeben mussten, um sich auf Tegra zu konzentieren. Da waren sie sicher nicht noch eingie Zwischenschieber entwickeln.
 
Hieß es nicht, dass die Karte morgen zu kaufen gibt? Schon irgendwelche Shops?
 
Zurück
Oben