Nvidia stampft offenbar GTX 260 / 275 / 285 aufgrund der Kosten ein

Status
Für weitere Antworten geschlossen.
Stückpreise für die Waver zählen aber zu den variablen kosten. Es kommt nämlich darauf an, wann sie wie viel Waver fertigen lassen. Danach richten sich dann ggf. auch die Stückkosten der Waver.

Da Fixkosten unabhängig von der Ausbringungsmenge sind, können sie nicht verursachungsgerecht auf die Stückkosten umgelegt werden.

@Lübke:
"sie haben ja ihre tätigkeit nicht komplett eingestellt. nur beim g200 sind die stückkosten für nvidia gleich den gesamtkosten."

Das bitte mal genauer erläutern. Gesamtkosten = Fixe + Variable Kosten. G200 Stückkosten sind also nicht zwangsläufig die Gesamtkosten nVidias.

Edit:
Habe jetzt gerade deine Ergänzung gelesen. Da mal als Ergänzung: Fixe Kosten sind erstmal immer unabhängig von den Stückzahlen. Würden sie sich auf die Stückzahlen beziehen, wären wir bei den variablen Kosten. Den Deckungsbeitrag findest du in jedem Unternehmen. Auch bei nVidia. Da der G200 nun wohl nicht mehr dazu beiträgt, die fixen Kosten des Unternehmens zu decken, muss das durch andere Produkte seitens nVidia ausgeglichen werden. Somit ändern sich ihre Deckungsbeiträge bei eben jenen anderen Produkten.

Verstehe also nicht wirklich, worauf du hinaus willst. Irgendwo scheinen wir uns da misszuverstehen oder reden aneinander vorbei.
 
Zuletzt bearbeitet:
Lübke schrieb:
@GodCast: fixe kosten sind kein risiko. nvidia hat einen stückpreis je waver zu bezahlen. wenn sie keine weiteren waver mehr fertigen lassen, fallen auch keine kosten mehr für diese an.

wie gesagt, ich kenne den Ablauf bei Nvidia nicht. Aber nur mal zu den Fixkosten, die hat ein Unternehmen immer, das hat dann nichts mit dem einzelnen Produkt zu tun. Zum Beispiel 8800GT, kostet Nvidia jeden Monat noch Geld weil Treiber geschrieben werden. Selbst wenn diese nicht speziell für eine Version bestimmt sind, müssen sie getestet werden. Nur weil jetzt die GTX285 nicht mehr produziert wird, muss bzw. wird Nvidia noch lange Zeit die Treiber dazu liefern. Nvidia hat 4000 Mitarbeiter, die wollen jeden Monat Geld sehen, die Stromrechnung muss bezahlt werden etc.. Jede verkaufte 285er bezahlt einen kleinen Teil dieser Stromrechnung, wenn ich nichts verkaufen kann, kommt auch kein Geld rein.
 
@AvenDexx: fixe kosten je stück = deckungsbeitrag ;) bitte genau auf die wortwahl achten. ich hab mir dabei schon was gedacht^^
und wenn der deckungsbeitrag 0 ist, bringt auch eine erhöhung der stückzahlen immernoch 0 deckungsbeitrag. wenn der deckungsbeitrag <0 ist, dann ist das ganze sogar kontraproduktiv.

nochmal: der deckungsbeitrag ist ein faktor für produzierende unternehmen. bei handelsunternehmen ergibt sich die kostendeckung ausschließlich aus dem gewinn. bitte nicht durcheinander bringen.

@GodCast: ich hab ja geschrieben, dass nvidia ebenfalls fixkosten hat. allerdings sind diese produktionsunabhängig.
 
Zuletzt bearbeitet:
Ok, jetzt habe ich auch deine Ergänzung gelesen.

Und was spricht nun also dagegen, dass nVidia ihre Produkte nicht unter Preis verkaufen kann? Darum ging es doch. Darauf bezog sich mein Ausgangspost.

Wie wir das Kind nennen, ist dabei doch erstmal zweitrangig. Fest steht aber, dass es auch für nVidia sinnvoll sein kann, Produkte am Markt zu verkaufen, obwohl die eigenen Kosten bei diesem Produkt nicht gedeckt werden. Dafür können sie die "Verluste" über andere Produktgruppen wieder einholen.
 
Zuletzt bearbeitet:
also deckungsbeitrag ist im grunde der teil des stückpreises der die variablen stückkosten übersteigt und somit einen teil der fixen stückkosten abdeckt.
die fixen stückkosten setzen sich aus allen direkt und indirekt produktionsrelevanten fixen kosten geteilt durch die produzierte stückzahl zusammen. nvidia produziert aber nicht, sondern forscht und handelt. daher muss nvidia seine fixen kosten aus handelsgewinnen decken. handelsgewinne sind die margen zwischen ek und vk. gibt es keine margen, gibt es auch keinen deckungsbeitrag. handelsverluste sind reinverluste.
 
Zuletzt bearbeitet:
In den Margen sind aber auch die Selbstkosten enthalten. Solange diese zumindest gedeckt werden, ist es kein größeres Problem, über einen gewissen Zeitraum ohne Gewinne zu arbeiten.

Selbst wenn in dieser Produktgruppe die Selbstkosten nicht gedeckt werden, können sie über andere Produktgruppen wieder ausgeglichen werden.
 
an der stelle reden wir also aneinander vorbei...
ich zitier mich grad nochmal selbst, dann siehst du was ich meine:
handelsgewinne sind die margen zwischen ek und vk

du sprichst hier aber von gesamtkosten, also betriebskosten, forschungskosten und einkaufspreise geteilt durch die gehandelten stückzahlen. ist zwar umständlicher aber auch machbar. nur denke ich nicht, dass nvidia den g200 noch über ek absetzen kann, angesichts der zu erwartenden endpreise und absatzzahlen.
sprich:
vk - ek = deckungsbeitrag <= 0
 
Zuletzt bearbeitet:
es gibt auch noch sowas wie marktanteile und Image.

und wenn Nvidia pro gtx285 nun 10€ Reinverlust,deckungsverlust (ach nennt es wie ihr wollt) macht, so hilft das die Marktanteile zu halten. denn wer ein gutes Highend produkt hat, verkauft auch mehr low-end Produkte (image eben...)
 
Ich denke, dass niemand hier außer vielleicht Charlie :rolleyes: die Zahlen kennt. So gesehen kennen wir die Kostenstruktur nicht.

Ich hatte mal gelesen, dass der erste 200er Chip um die 100USD gekostet hat. Kommt der Rest noch dazu, liegen wir zwischen 150 und 200USD für eine GTX280. Die 285er war wohl günstiger, keine Ahnung wo dort die Herstellungskosten liegen.
 
Zuletzt bearbeitet:
hinzu kommt ja noch, dass sich die karten kaum noch bis gar nicht mehr gegenüber der konkurrenz in form der 5800 verkaufen lassen und wenn man mit dem preis zu weit runter gehen würde, auch noch einen imageverlust erleiden würde. eine gtxx85 für 120,- € z b. würde den namen der gtx385 schon nachhaltig zum mittelklasse produkt degradieren. sowas hat nvidia mit dem namen seiner highend-karte noch nie zugelassen.

und marktanteile bringen wirtschaftlich rein gar nichts, wenn sie nicht mit gewinnen verbunden sind. was nützt es, wenn ich 50% marktanteil habe und verluste einfahre, wenn ich stattdessen mit 40% marktanteil noch schwarze zahlen schreiben könnte? marktanteile ändern sich dauernd. das wird mit dem fermi alles wieder hinfällig werden...
 
Lübke schrieb:
du sprichst hier aber von gesamtkosten, also betriebskosten, forschungskosten und einkaufspreise geteilt durch die gehandelten stückzahlen. ist zwar umständlicher aber auch machbar.

Ok, alles klar. Da haben wir den Knackpunkt gehabt. Dann ist es ja geklärt. :)
 
Der G200 Nachfolger soll wohl noch dieses Jahr eingeführt werden (wenn man einer verlinkten Fudzilla News glauben schenken mag):

Nvidia GF100 "Fermi" Mainstream-Karten im März

Nvidia wird wahrscheinlich im März die ersten Mainstream-Grafikkarten auf Basis seiner neuen "Fermi"-Chips auf den Markt bringen, die auch als GF100 bezeichnet werden. Mit der Einführung der High-End-Varianten wird unterdessen noch 2009 gerechnet.

Nvidia will die neuen Fermi-Grafikkarten nach Angaben von 'Fudzilla' in drei Varianten anbieten - es wird sowohl Mainstream-Modelle, als auch eine Single-Chip High-End-Variante und eine Ausgabe mit zwei Grafikprozessoren geben, heißt es. Die Einführung der Mainstream-Versionen soll noch bis März dauern.

Angeblich dauert es einige Zeit, bis Nvidia abgespeckte Varianten des Original-Designs anbieten kann. Bis dahin kann sich ATI mit seinen schon jetzt erhältlichen DirectX11-Grafikkarten wahrscheinlich bereits umfangreiche Marktanteile sichern. Nvidia kann aber offenbar auf ein reges Interesse seiner Partner hoffen.

So hat das Unternehmen angeblich bereits zahlreiche Bestellungen für die neuen Chips erhalten, weil die Board-Fertiger hoffen, mit Fermi ein passendes Gegenstück zu ATIs neuen Produkten zu erhalten. Derzeit nimmt Nvidia zudem die aktuelle GT200-Serie nach und nach vom Markt, weshalb die Konkurrenz immer mehr Spielraum bekommt.

Quelle
 
Wenn wir davon ausgehen, daß es von Cypress zu Juniper drei Wochen gebraucht hat, scheint es mir unwahrscheinlich, daß nVidia den High-End G300 so weit vor den Mainstreamkarten launcht. Es wäre sträflich, zu lange mit dem wichtigen Mainstreamsegment zu warten - dort wird Geld verdient. Ich glaube kaum, daß mehr als ein, zwei Monate zwischen High-End und Mainstream liegen wird - zumal nVidia kein Mainstream mehr hat (EOL GTX-Serie).

Der Umkehrschluss wäre, was immer wieder im Net kursiert: G300 kommt nicht vor Q1/2010.
 
Falls dieses Jahr noch etwas kommt, wird es ein wirklicher Paperlaunch-> die paar Samples, die es gibt, bekommen die Journalisten. Hatte die Quelle im anderen Thread schon verlinkt.
 
Ich weiß nicht, ob es noch aktuell ist. Aber auf cb und tomshardware war zu lesen, dass nvidia immernoch stabilitätsprobleme mit der nachfolgergeneration hat und es deshalb sehr unwahrscheinlich wäre, dass dieses jahr noch ein nachfolger kommen würde.
Imagemäßig wäre es für nvidia ja eigentlich tödlich, die 200er Serie weiter zu produzieren, wenn die ganz klar gegen die neuen ATI-Chips extrem abloosen würden und damit die Performancekrone wieder an ATI gehen würde. Besser, man stellt die Produktion ein und sagt, wir haben kein aktuelles Modell, was der 5870 z.B. entspricht. Dann sind die Benchmark-Ergebnisse auch nicht so schlimm, weil ja nicht wirklich aktuell.
Und man kann dann ja sogar sagen, ok unsere 200er Modelle sind zwar um x Prozent langsamer, aaaaber es kommt ja im Januar der neue Superchip....
Dann freut sich die Nvidia-Gemeinde wie Bolle und bezahlt wiedermal Unsummen für nen Performance-Chip.
:-)
Ergänzung ()

Oder was denkt Ihr?
 
Imagemäßig wäre es für nvidia ja eigentlich tödlich, die 200er Serie weiter zu produzieren, wenn die ganz klar gegen die neuen ATI-Chips extrem abloosen würden

die gtx200 "loosen" sicher nicht gegen atis neue hd5k ab. ati ist immerhin eine generation vorraus und (zumindest theoretisch) hält die gtx295 derzeit die performancekrone. die gx285 liegt knapp hinter der 5850 und die gtx260 liegt vor der 5770. in anbetracht des generationsunterschiedes steht nvidia sich gar nicht mal so schlecht. allerdings könnte ati weit billger verkaufen als sie es tun, wärend nvidia seine g200 chips zu mindestpreisen verschleudern muss. und darum wird nvidia wohl mit dem verlustreichen g200 den markt räumen. ati hingegen kann momentan ordentlich gewinne einfahren.
 
Die Frage ist dann ja, was das ökonomisch für Nvidia bedeutet.
Wenn sie freiwillig den Markt komplett verlassen und ihr Kerngeschäft
dem direkten Konkurrenzen überlassen.
Sinnvoller wäre eine Änderung der Marketingstrategie hin zum Preisansatz
nach Porter. Dass es momentan zu teuer ist, kann ja kein Argument sein.
Dann muss man halt die Anstrengungen im Bereich der Kostenrechnung
intensivieren. Ich kann mir nicht vorstellen, dass ein Großkonzern wie Nvidia
es nicht auf die Reihe bekommt, ihre Chips wesentlich günstiger zu produzieren.
 
dir sollte klar sein, dass die chips ungleich größer und komplexer als die von ati sind. und produzieren tut nicht nvidia sondern tsmc. du glaubst aber nicht wirdklich, dass da noch unmengen an einsparpotential ungenutzt ist, oder^^
firmen in der größenordnung sind ständig auf kostensenkung bedacht. ist ja kein kleiner 10-mann betrieb, wo man an alten verfahren festhält...

außerdem verlassen sie nicht ihr kerngeschäft, sondern nur den highend, bzw oberen performancebereich. die gts250 wird auch weiterhin produziert und unterhalb dieser karte werden die hauptumsätze gemacht. highend ist primär fürs image wichtig, aber hier kann nvidia aktuell keinen blumentopf gewinnen.

der g92 wird somit einmal mehr der stützpfeiler von nvidias grafikmarktsegment.
 
Niemand gibt sein High-End Geschäft auf.
Der Markt wird eben nur demnächst erstmal mit Restbeständen bedient.
(Mal davon abgesehen das fast alle GTX 200 eher in Richtung Performance einzordnen sind, vor allem die kleinen schon in als Mittelklasse gelten können)

Auf diese Weise stappeln sich die Karten zum Fermi Launch nicht in den Läden. Verursacht nur unnötig Kosten. Man muss auch nicht zwingend die Preise senken.
Auf diese Weise macht man sich nicht die Preise der kleineren Karten kaputt.

Zu den Chipkosten:
Vergessen wir die Yield und das ganze Drumherum an Kosten, nehmen an die 40nm Wafer wären 40% teurer als 55nm Wafer.
-> Daraus folgt, das ein Cypress genauso teuer wie ein GT200b ist.
 
Status
Für weitere Antworten geschlossen.
Zurück
Oben