G3cko schrieb:
@aylano
Sehr interessanter und richtiger Beitrag bis auf den letzten Punkt.
Schön zu höhren, wenn es Leute gibt, die meine Beiträge sehr gerne lesen.
Herdware schrieb:
Du kannst mir glauben, dass ich mich schon wesentlich länger mit Computern und Grafikkarten befasse, als ich hier im CB-Forum angemeldet bin und ich hätte garantiert genauso "geschimpft", wenn Nvidia so eine Masche z.B. anlässlich von Fermi abgezogen hätte, wie jetzt bei Kepler.
Wie ich dir schon sagte. Es ist ein großer Unterschied, ob man nur paar Chip-Daten (Performance, Die-Größe, SI, TDP-Einstufung) kennt, oder wenn man kronkret weiß, was dahinter steckt.
Nach meiner Erfahrung verwechselt du sehr oft Ursache mit Symtom.
Erstens,
hat Nvidia @ Fermi nicht so eine Maschen ziehen müssen, wie bei Fermi, weil sie eben anders konnten.
Damals in der Fermi-Ära war ich auch einer der ersten bzw. der erste, der meinte, dass Nvidia in Zukunft die 350mm²-Die (GTX 680) im ersten Jahr und die 500mm²-Die (Titan) im 2. Jahr rausbringen muss, um keine massiven Produkt-Verspätungen im Low-End bis Performance-Bereich zu bekommen, welche im Fermi sehr massiv waren. Nvidia macht das, was sie können und das ist nicht so schlecht. Nur, mit der Preis-Masche zeigen sie halt ihr wahres Gesicht.
Zweitens,
muss man sehr konkret die GPU-Architektur (Front-End, Shader & Co) in Sachen Platzverbrauch und Performance-pro-Watt verstehen, damit man trotzdem nur halbwegs die Ursachen verstehen kann.
Bestes Beispiel ist eben der RV770. Damals verstand keiner, dass der R600 bzw. RV670 ein viel zu überdimensioniertes Front-End hatte (4 SIMD pro Grafik-Engine), welche sie in Zukunft über mehrere Generationen kaum vergrößern musste.
Deshalb war der RV770 völlig überraschend, weil AMD damals beim RV770 nur SIMD hinzufügen musste.
D.h. Wenn man eine GPU-Architektur nicht konkret versteht, dann kann man sich schon mal zwischen Top und Flop-GPU-Karte sehr schnell irren. Der Unterschied zwischen Prognose und Beurteilung ist, dass eine Prognose dann zeigt, wie genau dann deine Vor-Beurtelung, während man bei einer Beurteilung im Nachhinein sich vieles Reininterpretieren und Schein-Interpretieren kann.
Drittens,
wenn so ein 600+ Euro GTX 780 mit 250 W-TDP dahertanzt, würde das ja meinen Aussagen erst recht bestätigten, dass Titan ein mit viel Geld auf Effizienz gezüchtete GPU ist, sowie weiterhin schlechte Yields hat. Eigentlich hatte ich für GK110 eine höheren Stromverbrauch erwartet, aber das Problem ist, dass man mit viel Geld eben auch Grafikkarten sehr effizienz hochzüchten kann.
D. h., der Mega-Preis vom Titan kann eben aufgrund der bewusst reduzierten Nachfrage viele Probleme Verstecken.
Und die Probleme des Titan werden nicht gelöst sein, wenn Nvidia in 3-4 Monaten trotzdem noch einen 15-SMX-Titan bringen. Denn auch nach dem Refresh-Jahr gibt es einen kontenuierliche Fertigungs-Qualitäts-Verbesserung.
Und es ist nunmal so, dass Nvidida vorher noch niemals auf die Vermarktung von Big-Chips in normalen 500Euro-Konsumerkarten verzichtet hat, bzw. ihn erst fast ein Jahr später als 950Euro-Monpreisprodukt nachgeschoben. Das ist etwas komplett Neues, das es seit der G80 (dem ersten modernen Big-Chip) nicht gegeben hat und auch vorher niemals.
Typische Symtom-Beschreibung.
Ohne Performance-pro-Watt und Performance-pro-mm²-Verhältnisse zu eigenen Vorgänger-Produkten & Konkurrenz-Produkten sowie Wafer-Kosten kann man keine halbwegs genauen Beschreibungen machen.
Es ist ja kein Zufall, dass Nvidia genau aus diesen Punkten den Preis bestimmt und nicht auswürfelt.
Klar ist das, was ich schreibe, letztlich auch nur Spekulation. Aber sie begründet sich eben auf der Erfahrung mit Nvidia-Big-Chip-Karten der letzten 6,5 Jahre.
Wenn man sich die technischen Daten (Die-Fläche, SI, TDP-Einstufung usw.) und sogar auch die offiziellen Namen der GPUs anschaut, dann ist klar, dass die Titan nunmal die vorher fehlende "echte" GTX680 ist und die GTX780 die GTX670 usw.
Spekulieren kann man aber nur mit eindeutigen Fakten, wie Shader & Front-End & Co.
SI-Sagt leider nichts eindeutigens, sondern nur hinreichendes aus. Und zwar, dass ein 512-SI sehr stark sein kann, aber nicht sein muss. Denn entweder ist der Chips schwach (R600) oder er wird verwendet, um billige GDDR3-Chips statt teure GDDR5-Chips zu verwenden. (siehe GT200).
Die TDP-Einstufung ist leider auch nur ein hinreichender Hinweis, weil man die TDP-Stufe mit teures Geld runterzüchten kann [GTX 285 (siehe GTX 275) oder GTX 690 oder Titan] oder einem die TDP überhaupt nicht wichtig ist. In diesem Fall muss man sich die vielen Produkt-Kollegen anschauen, um den "wahren" Wert einer TDP einschätzen zu können.
Als Beispiel kann man auch den Wechsel auf 65/55nm nehmen. Also,
R600 --> RV670 und G80 auf G92
Während AMD da so 100 Mio. Transistoren durch Die-Bereinigung (Ring-Bus & 256 statt 512-SI & Co) reduzieren konnte, erhöhte Nvidia die Transistorne so um 100 Mio. Stück. Was genau da Nivdia machte, ist nicht bekannt. Es wird GPGPU vermutet. Aber genau bei diesem Schritt holte AMD in Sachen Effizienz massiv auf. AFAIK sogar mehr als bei RV770 vs GT200. Genau an diesem Beispiel sieht man, wie genau man die Architektur kennen muss, weil sich von R600 --> RV700 sowie G80 --> G92 (also quasi zwei Die-Shrinks) verdammt viel getan hat.
Bzw. muss man sich nur mal das PCB der GK104-GTX670 anschauen... da sage mal jemand ernsthaft, dass das eine High-End-Karte und ein legitimer Nachfolger der GTX570/470/275/9800GT/8800GT sein soll.
Auch Nvidia weiß das und vergrößtert das Winzding deshalb im Referenzdesing künstlich durch ein überlanges Kühlergehäuse.
Was soll man sich da ansehen?
Die GPUs verbrauchen bei Gleichen Die-Größen immer mehr Strom. Unter anderem, weil sie die Shader-Fläche erhöhen können. Da mit heutigen 350mm²-Dies mit damaligen 350mm² und 500mm²-Dies nur deshalb zu vergleichen, weil sie mit High-End gleich geheißen haben, erklärkt leider nicht die Technische Ursache.
Das die Big-Chips der Kepler-Generation plötzlich nicht mehr wirtschaftlich (für eine Vermarktung in 500Euro-Karten) zu fertigen wären oder dass massive technische Schwierigkeiten zu einer Verzögerung von ca. einem Jahr geführt hätten usw., sind ebenfalls nur Spekulationen und anders als meine basieren die eigentlich auf gar keinen Fakten oder offiziellen Aussagen.
Kurz gesagt: Jeder der mehr weiß als du, spekuliert laut dir mit seinen Mehr-Wissen auf garkeinen Fakten oder offiziellen Aussagen. Was du offensichtlich nicht weißt ist, dass ich schon Jahre bevor du dich angemeldet hast, schon Prognosen/Gedanken über GF100 und GK100 und bei AMD ab R600 machte.
Also, während ich mich schon Jahre mit Architektur-Elementen (Front-End & Shadern sowie Auswirkungen auf Verbrauch & mm²) beschäftige, kann man bei dir in der Hinsicht garnichts rauslesen.
Ich habe deshalb mich damit beschäftigen "müssen", weil ich schon früh erkannte, dass ich ohne diesen Architetkur-Details völlig daneben lag. Deshalb erkannte ich sehr früh, dass mit GT200-A (bisal probleme), GT200-B (bisal-Mehr probleme), GF100 (große Problem), GK110 (gravierende Probleme) Nivida immer größere Probleme mit ihren Big-Dies hatte.
Performance-pro-mm², Einführungszeitpunkte, Performance-pro-Watt und exponentialer Preis-Anstieg & Co sind eben fakten die man rauslesen kann. Aber das machen ganz wenige Leute.
Das erklärt die hohen Preise und die Stagantion auch nicht besser, als meine auf jahrelangen Erfahrungen basierende Theorie, dass Nvidia sich bewusst dazu entscheiden hat, die Leistungsklassen umzusortieren und die Preise zu erhöhen... einfach weil sie es (mangels Konkurrenz) können.
Die-Größen und Leistungsklassen & Preisklassen sind leider noch lange keine relevanten Erfahrungswerte
Das Problem bei Theorie-Aussagen ist, dass man hier genauso konkrete Auswirkungen über Stromverbrauch & Die-Fläche & Co wissen sollte. Weil wenn man es nicht tut, klammern man sich an mögliche Auswirkungen, die aber völlig irrelevant sind, während bedeutende Auswirkungen vernächlässigt werden.
Wer über Theorie spricht, der sagt eh schon indirekt, dass er keine weiteren relevante Informationen mehr liefern kann bzw. die Sache im Detail nicht (wirklich) versteht. Sonst würde er ja schon mit klaren Informationen kommen.
Deshalb kann man übrigends schon in wenigen Zahlen herausfinden, welche Information-Menge hinter seiner Aussage steht, oder ob er nur eine Bezugslose Meinung von sich gibt.
Die "technische Probleme"-Erklärung hat nur den Vorteil, dass sie AMD-Fans das wohlige Gefühl verschaffen kann, dass Nvidia inzwischen nicht mehr in der Lage wäre, deutlich an AMDs Produkten vorbeizuziehen. Dass sie dabei gescheitert sind, wieder eine größere und entsprechend leistungsfähigere Big-Chip-GPU zu entwickeln, wirtschaftlich produzieren zu lassen und mit gutem Gewinn als normale 500Euro-High-End-Karte zu vermarkten.
Würde diese Theorie stimmen, so hätte Nivdia uns mit der Titan-Einführung so überrascht und das machten sie vorne (1000 statt 500 Euro) und hinten (Umsatz Rückgang statt ein wirtschaftlicher Aufschwung) nicht.
Und würden sie so einen (angelich wirtschaftlich) 500 Euro Titan vor 20nm-Einführung bringen, so gäbe es auch hier keine Logik, außer der verzweifelte Notverkauft. Was hier noch viele vergessen, sind bei diesen geringen Stückzahlen die hohen R&D-Kosten pro Die. Daher kann man nicht so einfach die Nachfrage beliebig verkleinern und trotzdem locker flockig dem Die Wirtschaftlich herstellen zu können.
Der R&D-Kosten-Anteil beim 500mm²-Die war bisher noch kein Thema, eben weil die Stückzahlen früher wesentlich höher waren.
Aber wie gesagt, Nvidia hat das über viele Jahre immer wieder hinbekommen und ich sehe einfach nicht, warum das plötzlich anders sein soll.
Klar siehst du es nicht, weil du die Fakten dir nicht genau ansiehst, dass die 500mm²-Dies mit den Jahren es immer schwieriger hatten. Das alles kann man mit einer gründlichen Recherche heutzutage recht einfach nachvollziehen. Damals war das wesentlich schwieriger.
Außerdem hatte Nvidia in den letzten Jahren eben auch andere Sparten (Chipsatz & Profi-Karte & Co) die die Zeit überbrückten, wo es in der Hauptsparte bei weitem nicht so gut aussah.
Wobei GT200 und GF100 damals auch sehr mies aussah.
Denn während der Verkauf von GT200A damals im 3Q2008 mit der Wirtschaftskrise zusammenviel, konnte Nvidia damals zur GF100-Einführung sehr stark von den GT21x-Desgin-Wins (40nm-Shrinks) profitieren, während da AMD mit ihren DX11-40nm-Massen-Dies zu spät & gering für den Westmere-Milenstein kamen.
Beim Umstieg auf 20nm wird es diesesmal erheblich schwieriger.
a) kennen wird das Potential (= Fortschritte) von Sea-Island noch nicht
b) braucht AMD nur einen 350mm²-Die, um in High-End-Markt (Titan) und Enthusiast (X2) und Tesla-Markt und Quadro-Markt konkurrieren und als erster vorerst über paar Monate übertrumpfen zu können, während Nvidia da wie in den letzten Jahren (GF104 vs GF100 und GK104 vs GK110) schon 2 Dies braucht, die einerseits mehr R&D kosten und anderseits erhebliche Wafer-Stückzahlen benötigten.
c) braucht Nvdia parallel dazu auch noch 20nm-Wafer für Tegra, weil die Konkurren (Qualcomm & Samasung) schon auf 20nm-Wafer umstellt.
d) verliert Nvidia ab 4Q 2013 schon immer mehr die Konsolen-Lizenzen.
e) Nvidia auch nicht mehr die ganzen Treiber-Qualität & Flimmer-Qualität & Cuda & PhysX & Optimus & Co Vorteile nicht mehr hat.
Damit können sie den 500mm²-Die eben nicht lockerflokig 1 Jahr nach 20nm-Einführung rausbringen, weil Kaveri (neue Art des GPGPU-HPC) und 20nm-FiroPro aufgrund Treiber-Entwicklungen nicht mehr 9 Monate nach der neuen Fertigung-Einführung kommen werden.
Gleiches gilt für den 20nm-Tegra, weil diesesmal Nvidia keinen klugen Schachzug mehr machen kann und einen Markt-Nische fand.
Mit der Tesla-Monopolstellung und Tegra-Marktnische (quad-Core) konnte Nvidia damals in diesen Märkten auf den 28nm-Wechsel warten und fast alle Wafer für die Kepler-Low-End & Mainstream-Notebook-GPUs verwenden.
Nur wird das beim 20nm-Wescheln kaum mehr gehen, weil Nvidia a) überall 20nm-Wafer braucht und die 20nm-Wafer höchstwahrscheinlich nochmals etwas teurer sind, sodass sie kaum "billige" Massen-GPUs produzieren können.
Der Vorteil von AMD ist eben, dass sie eigene x86-CPU-Architekturen haben, wo sie die GPU-Technologie als Beschleuniger verwenden können. Diese Techniken wurden zwar vor 1-2 Jahren eingeführt, aber so richtig beginnt diese Technik ab Kaveri & Nex-Gen-Konsolen & Co zu funktionieren. Und wenn diese Technik so richtig funktioniert, wird das alleine schon auf einigen Nvidias-Geschäftsfeldern auswirken. Gerade jene Felder, die früher für Nvidia in schwierigen Zeiten sehr hilfreich waren.
Kurz gesagt:
Alleine die HSA als Konkurrenz wird Nvidia schon ziemlich in Schwierigkeiten bringen. Eben weil der Tegra-Markt noch immer nicht angesprungen ist und ständig Verluste bringt. Und das Image von Nvidia hat sich mit Fermi & Titan schon erheblich verschlechtert, wodurch in Zukunft nicht mehr so viele auf die Superduper-550mm²-Überdrüber-Karte einige Quartale warten werden.
Zwar sind das nicht alles direkt mit High-End-GPU-Karten zu tun, aber indirekt sind die positiven und negativen Auswirkungen aus den anderen Sparten teils sehr massiv, weil es um 20nm-Wafer-Zuteilungen und 500mm²-GPGPU oder Game-balance geht.
Außerdem wissen wir noch nicht, wie es ausgeht, wenn Nvidia weiterhin Preisleistungsmäßig so schlecht bleigt. Denn diese Situation hatten wir auch noch nicht.