Hardware_Hoshi schrieb:
Ihr immer mit eurer bescheidenen Milchmädchenrechnung. Zufällig ist der 16nm FinFET Prozess teurer als die alte ausgereifte 28nm-Version. Schätzungen von 2014/2015 zufolge kostet ein 16nm-Wafer fast das Doppelte. Selbst mit kleinerer Chipfläche kommt man am Ende trotzdem nicht an die alten Preise ran. Dazu noch der beschissene Eurokurs, da kommt halt einiges zusammen.
Der werte Herr BWL-Student macht also den Fehler und setzt auf Schätzungen von 1 bis 2 Jahren, auf die er dann eine sogenannte "Argumentation" aufbaut? Lernt man denn nicht, dass die Aktualität der Quellen essentiell ist? Wenn du denn nun aktuellere Quellen anbieten könntest, würde dein Post nicht einfach nur zu einem "Ich schreib mal meine subjektiven Meinungen und Überzeugungen" verkommen.
Ein anderer Aspekt(, selbst wenn die Waferkosten doppelt so hoch wären
Yields bei einem bereits seit einem Jahr laufenden Prozess, ob aufgrund von Waferschäden oder Fertigungsproblemen sollten bei einem 300mm^2 Chip immer noch deutlich besser sein als bei einem 600mm^2-Chip in 28nm. Wenn man bereits Fat-Dies (GP100) generell fertigen kann, dann ist der Yield als wenigstens normal zu bezeichnen. nVidia hat deutlich
nach dem Erscheinen des GK104 und Tahiti in ähnlicher Größe zu GP104 angegeben, dass ein GK110 mit seinen 500mm^2 momentan selbst mit höchsten Yields
nicht fertigbar ist.
Der Eurokurs ist in der Tat momentan relativ bescheiden und spielt in die Situation ein. Dennoch sehen wir überzogene Preiserhöhungen.
Komm mir nun bitte dennoch nicht mit Aussagen, wie "nVidia kann so hohe Preise verlangen wie sie wollen", oder "Hohe Preise sind wirtschaftlich" etc. pp. blabla, für das der Allgemeinverstand ausreicht.
Hardware_Hoshi schrieb:
-offtopic-
Auf AMD warte ich dieses mal nicht mehr. Da kommen eh nur Enttäuchungen wie die Fury raus. Die ganze 300er Serie und die Fiji Chips waren reine Verarsche.
Mit dieser Aussage zeichnet sich mal wieder gut ab, welchen Einschlag des extremen AMD-Bashing deine Posts besitzen. Wo hat AMD denn ihre Kunden verarscht? Mit geteilter Speicheranbindung, schlechter Optimierung für alte Generationen, sowie Lügen hinsichtlich der Aynchronous-Shader-Unterstützung zum Beispiel?
Ach nein stimmt, man hat ja Fiji als "OCers-Dream" bezeichnet, diese Unverschämtheit. Da ist ja "Pascal is Maxwell times ten","We support Asynchronous Shaders on all our Maxwell Cards" oder "This 1080 is running on 67 degrees Celsius by 2000mhz under air" direkt harmlos dagegen