Natürlich wissen sie es besesr.Herdware schrieb:Nvidia gehört neben TSMC zu den einzigen, die wissen wie gut oder schlecht die Ausbeute der GK110 wirklich ist. (Und TSMC wird bzw. darf dazu nichts sagen.) Solange mir keiner dem widersprechende Beweise vorlegen kann, glaube ich deshalb erstmal Nvidias offizieller Aussage dazu.
Und sie wussten es damals bei der Fermi-Dummuy-Präsentation am besten, dass Fermi extrem schlecht lief. Und die 2% Yield von Charlie stimmte, wobei damals non-teildeaktivierte Fermis gemeint waren, weil es bis dahin noch nie ein Top-Modell gegeben hat, dass Teildeaktiert war.
Kurz gesagt: Nvidia lügt voll ins gesicht, wenn es sein muss und deshalb ist die Aussage von hervoragenden K20-Yields nichtsbedeutend.
Vorwallem, können sie mit einem 4000$ Telsa trotzdem Gewinn machen, wenn sie 1. funktionierenden K20 pro 3000$-Wafer erhalten.
Deshalb schrieb ich auch von Leistung und nicht Performance.Der Preis ergibt sich aus sehr vielen verschiedenen Faktoren.
Ganz einfach. Ein Versuch jenen Leuten das Geld abzuzocken, die sowieso zuviel haben und dabei einen Mehrwert sehen.Wie erklärst du dir z.B., dass ein 3970X so viel mehr kostet als ein 3930K?
GK110 ist aber nicht so eine GPU, sondern eine 3930K. Das Problem ist, es gibt noch keinen 3930K und das ist das Problem.
Ich würde ja nichts sage, wenn es einen GTX Titan um 400-500 Euro gibt und einen GTX Titan Ultra um 1000 Euro, der 50-100 Mhz mehr hat. Denn dann gebe es den 500 Euro Titan. Bei deinen Aussage fehlt aber der 500 Euro Titan und deshalb ist IMO deine Betrachtungs-Ansicht falsch.
Ich hatte dich dabei auch nicht angesprochen, weshalb ich andere statt du schrieb.Ich sehe mich selbst nicht als ausgesprochener Nvidia-Fan.
Es kommt aber ein Verteidigen rüber, wenn man den Grund nicht erkennt, weshalb GTX Titan so teuer ist. Wobei ich nicht behaupte, dass es primär & nur die Yield ist.Ich will den Preis der Titan auch gar nicht verteidigen. Er ist definitiv viel zu hoch., Eigentlich sollte die Karte so viel wie eine GTX580 oder höchstens wie eine GTX280 kosten (deren GPU sogar noch monströser war, als die GK110). Oder eben so viel, wie die GTX680, die ihren rechtmäßigen Platz als normales High-End-Modell blockiert.
Sondern
a) generelle 28nm-Wafer-Knappheit, wo andere Projekte (Tegra) wichtiger sind bzw. mehr Gewinn pro 28nm-Wafer abwerfen,
b) höheren Komponenten Kosten, die die wunderschöne Energie-Effizienz hergezaubert hat.,
c) vielleicht vorerst noch hoch selektierte Chips, bis die Wafer-Qualität in (3-)6 Monaten sich (deutlich) weiterentwicklet hat, wo es dann auch deutlich mehr 28nm-Wafer gibt.
d) Ein Yieldproblem verursacht übrigends auch ein Ramp-Problem (= Erstlieferungs-Charge). Und genau diese 10.000 Stück deuten das an, wo wir uns zuerst mit einem BIlderbuch-Launch zufrieden geben müssen und dann tröpfeln da einzelne Karten in den Markt.
Wie die Performance aussieht und ob die Werte wirklich alle Stimmen, muss man erst noch abwarten.
Die Daten deuten eigentlich auf +50% Performance gegenüber GTX 680 hin.
Wann die 500mm²-GPU gegenüber der Konkurrenz eingetrudelt sind, ist heute vollständig nachlesbar.Das ist doch nur ein Hypothese von dir. Ich glaube (ohne Beweise dafür) nicht, dass du wirklich tiefere Einblicke in die GPU-Entwicklung bei Nvidia und Fertigungstechniken bei TSMC hast, als jeder andere Außenstehende.
Eigentlich auch, für wann jeweilige Generationen geplant waren. Durch die Preise kann man auch ein gespür, welche Mengen für den Verkauf verfügbar waren.
Mir persönlich sind noch einige Yield-Zahlen zu Fermi zu bestimmten Zeitpunkten bekannt.
Ich sage es direkt und ungemütlich: Du hast nicht verstanden, an was sich der Preis von Quadro & Tesla orientiert. Der Preis orientiert sich an der CPU-Performance und CPU-Preis. Und da hat der Quadro 6000 eine bessere Performance-pro-$ hat. Das hat nichts mit Politik oder sonst was zu tun, sondern mit einer aktuellen CPU-Preis-Leistungs-Orientierung(Tatsächlich bezahlt man da eher für die Treiber und vor allen offizielle Zertifizierungen usw., als für die Karte/GPU selbst. Und da spielt der Faktor mit in die Preisgestaltung rein, dass die Software die darauf läuft und der Studnensatz der Leute die damit arbeiten in der Regel nochmal Größenordnungen mehr kostet, als diese Profikarten und die damit nicht so sehr ins Gewicht fallen.)
Vergleiche einfach mal eine Quadro 6000 mit der GTX480. Die sind technisch fast identlisch (GF100), bzw. ist die GTX480 deutlich überlegen (mehr aktive Shader und höherer Takt), kostet(e) aber nur ca. ein Zehntel der Quadro.
Wobei das nicht für alle Anwendungen gilt sondern nur für einfache. Da die CPU eine viel höhere Qualität an Leistungsvielfalt hat, sind eben im vergleich zu Games viel hochwertiger Treiber nötigt.
Das ist deshalb falsch, weil AMD damals nicth auf HD 4890 und HD 6000er-verzichtet bzw. verschoben hat.Einfach nur die selben Umstände wie zu Zeiten z.B. von GTX580 oder GTX280. Und damit meine ich nicht den Yield, sondern die Konkurrenzsituation (sowohl zu AMD als auch zu den anderen eigenen Produkten).
HD 4890 wurde extra im Sommer neu aufgelegt, weil AMD damals wusste, dass HD 5000er wegen 40nm-Problemen etwas später kommt.
Jetzt ist es genau umgekehrt und AMD hält noch seine besseren Konkurrenz-Produkte zurück. Seit 4Q 2012 könen ja schon die Desgins der 9000er-Serie zu TSMC & GF geschickt werden. So 1 Jahr dauert es, bis die Produkte im Laden stehen, wenn alles nach Plan läuft.
Bisher lief in den letzten Jahren alles nach Plan. Das Problem war ja "nur" die Yield.
Aber mit einer schlechten Yield kann AMD mittlerweile viel mehr Anfangen als früher.
Denn damit können sie den FirePro-Markt mit 2000 bis 4000 $ Preise versorgen (, ober wie mit HD 7970er eben den Gamer-Markt mit 500-600$ Preisen.)
Kurz gesat: Jene die den Titan-Preis in Ordnung sehen, nehmen nur Bezug nach vorne, aber nicht zurück.
Falls tatsächlich im 1Q 2014 eine 20nm-GCN-350mm²-Karte veröffentlich wird, dann ist Nvidia schon aus diesem Grund gezwungen auf Teufel komm raus, die Karte schon im Feb 2013 zu präsentieren. Denn wenn Nvidia in diese Fall die GTX Titan erst Mitte 2013 bringen sollte, dann braucht AMD Mitte 2013 nur paar Spezis der eh bald kommenden 20nm-GCN-350mm²-Karte präsentieren, um die Nachfrage/Interesse des Titans zu zerstören. Denn wenn man schon so ewig auf die Titan gewartet hat, dann kann man wohl noch paar Monate auf die Next-Gen-20nm-Karte warten.
Nicht vergessen, sowohl Maxwell (GM104) als auch die 9000er-Serie sind neue Grundstrukturen.
Sea-Island ist nur Marketing-Mäßig eine GCN 2.0. Die echte GCN 2.0 mit veränderte Grundsturktur in der Architektur müsste nach den Rythmus der letzten 5-8 Jahre schon die 9000er sein.
Ich verstehe nicht, warum alle glauben, dass es Anfang 2014 keine 20nm-GPUs geben soll.
Warum nimmt man jetzt auf einmal ein TSMC-3-Jahres-Rythmus an?
Nvidia selbst hat Maxwell @ Tesla für 2014 angekündigt. Selbst wenn der 500mm²-K20-Nachfolger Ende 2014 kommen sollte, dann war es doch üblich, dass AMD 3-4 Quartale früher 300mm²-Dies anbieten konnte.
Dafür wirst nie Yield-Belege bekommen.Mir fehlt immer noch der Beleg, dass das Yield-Problem überhaupt existiert.
Ja meine ich, weile sie primär die 28nm-Wafer woanders brauchen oder die GK110-Game-28nmWafer sogar weniger gewinn bringen, als Wafer mit anderne Chips.Du meinst, die Titan ist so teuer, weil Nvidia sie nicht billiger verkaufen kann.
Ich meine, dass die Titan so teuer ist, weil Nvidia sie so teuer verkaufen kann.
Sie könnten Titan genauso um 2000$ mit einem persönlichen Statment & Abendessen mit Nvidia CEO verkaufen. So ein angebot wird sicher auch angenommen. Natürlich nicht so viel wie bei 1000$. Aber das ist ja genau das selben Problem wie 1000 vs. 500$.
Es sehe keine Grund, warum ich mich auf etwas falsches Einigen sollte.Ich denke, wir können uns darauf einigen, uns nicht einig zu sein.![]()
Es hat ja auch kaum einer vor 1,5 Jahren verstanden können, dass es in paar Monaten keinen 500 Euro GK100 geben wird.
Und nachdem HD 7970 nur so +30% brachte, glaubten viele, dass GK100 in paar Monaten dann ebenfalls +50% schneller sein wird als HD 7970. Ich habe mich auch nicht mit denen geeinigt und ihren Traum geträumt. Sondern ich habe mich auf die Zahlen verlassen. Aber ich mich zurückgehalten, weil ich ständig als AMD-Fanboy bewertet, weil ich das 4Q 2012 für realistisch hielt.
Wir müssen uns nach dem Meinungstausch nicht einigen. Ich habe ja grundsätzlich kein Problem an Meinungen. Nur bei Leute, die ihre Meinung (als Fakt sehen) und anderes aufs Auge drücken und bei Bedarf noch negativ bewerten bzw. beleidigen.