News 25 Jahre Nvidia GeForce: Fragen zu einem Viertel­jahrhundert Grafikinnovation

Nolag schrieb:
Würde TSMC die Preise halbieren gäbe es eine 4070 zum Preis der 4060. Ich könnte die Aufregung ja verstehen, wenn plötzlich Karten mit 50$ Chips für 600$ verkauft würden, aber das ist eben nicht der Fall.

Eher nicht. Nvidias Produkt- und Preispolitik ist entscheidend mit davon bestimmt, dass Gaming&Co. nur mehr ein Zubrot sind. Sie würden die Sparte natürlich nicht einfach hinwerfen, weil Technologieführerschaft. Aber wirtschaftlich rechnet es sich für sie eigentlich nur, hier (begrenzte) Ressourcen locker zu machen, wenn sie mit entsprechend angespassten Produkten passende Einnahmen generieren.

Der Rest bringt einfach viel mehr ein. Den Bedarf an ihren Produkten insgesamt können sie nicht näherungsweise decken. Deshalb würden hier auch reguläre Marktmechanismen wie Kunden, die auf Ausweichprodukte springen, nicht greifen. En masse würde das eh nicht passieren, wegen der Technologieführerschaft.
 
Zuletzt bearbeitet:
Kommando schrieb:
Um die Grafik zu verstehen: einfach mal die letzten beiden Spalten ansehen. Dann ergibt sich alles von selbst.
Das ist genau die Grafik, die keine Aussagekraft hat, denn der Preis für den Die ist entscheidend und nicht Fläche oder der Transistorcount, wenn man sehen möchte ob die Preise gestiegen sind. Man nimmt an, dass Nvidia die 8nm Wafer von Samsung für 6000$ bekommen hat. Bei den 5nm Wafern, die bei Ada verwendet werden redet man von 17000$. Für die aktuellen 3nm Wafer werden 23000$ angenommen und für die kommenden 2nm Wafer 30000$. Die Grafik beginnt mit Kepler als Wafer so zwischen 2000 und 3000$ gekostet haben.
 
Zuletzt bearbeitet:
Und dann erklärst Du jetzt auch die Logik warum der Wafer-Preis linear in den Endkundenpreis übergeht?
 
@Kommando Du meinst, warum eine Grafikkarte mit 50$ Chip 300$ kostet und eine mit 100$ Chip 600$? Das ist ja nicht neu und bei vielen anderen Produkten wie z.B. CPUs üblich. Das ist halt eine klassische Mischkalkulation, bei der die Marge bei den günstigen Produkten geringer ist, als bei teureren. Das war auch vor Ampere oder Ada so und das hat sich über die Jahre nicht geändert.
 
Da hab ich schon ein paar mal nach Quellen gefragt, aber nie eine vernünftige Antwort erhalten. 🤷‍♂️

Habe das dementsprechend als unbelegtes Fanboi-Argument abgestempelt.
Das will ich dir nicht unterstellen. Es ist halt so ein einfaches und vermeintlich logisches Argument, dem man mehrfach begegnet.
Es entspricht absolut nicht meiner Erfahrung in der Industrie.
Da wird der Preis so kalkuliert, dass man genug verkauft und Gewinn macht. Wenn man alles eh verkauft, dann geht der Preis hoch.
Keiner schaut sich da den Preis einer einzelnen Komponente an und sagt dann der Preis ist das x-fache davon. Hat ja auch nix mit dem Endpreis zu tun. Der hängt an allen Komponenten plus Herstellungskosten plus Verwaltungs-Personal-etc. kosten plus Gewinn.

Wenn Du nicht im Wettbewerb stehst, dann schaut man halt wie weit man gehen kann. Und das darf man gerne kritisieren.
 
Ich will auch nicht behaupten, dass die Preise nicht niedriger sein könnten, aber für mich ist nicht erkennbar, dass Nvidia die Preisgestaltung bei den günstigen Grafikkarten verändert hätte. Die Preis für den verbauten Chip ist in den jeweiligen Preiskategorien praktisch konstant. Es ist einfach eine Tatsache, dass der Waferpreis den größten Einfluss auf den GPU Preis hat. Was mich stört ist, dass der Eindruck erweckt wird, dass Nvidia einem heute Grafikkarten für 600$ verkaufen würde, die sie einem früher für 300$ verkauft hätten und das stimmt einfach nicht. Grafikkarten, die für 300$ verkauft werden, haben bis heute einen Chip in der 50$ Klasse.
Bei CPUs bekommt man für 300$ übrigens auch nur Dies im Wert von 40-60$. Bei GPUs ist aber in den 300$ noch Platine, VRMs, RAM, Kühler etc. enthalten.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Kommando
Ich sehe schon, wir ziehen unterschiedliche Schlüsse aus den seinen Randbedingungen.
Aber das ist ja auch in Ordnung, den Preis ändern wir letztendlich eh nicht. 😉

Danke für die ruhige Kommentierung!
 
Meine erste Graikkarte überhaupt war auch eine Riva 128, gefolgt von einer TNT2, 4MX und dann kam erstmal 3D-Prophet. Unvergessen die 8000er-Serie.
 
GeForce 2 MX
GeForce 2 ti
GeForce 4 irgendwas
RTX 2000 irgendwas
RTX 4090

Dazwischen immer mal ATI, wer halt gerade vorne lag. (Und davor natürlich Voodoo 2 + Trio 64V+ und VooDoo3)
 
Habe eit 3 Jahren das erste Mal eine Nvidia Grafikkarte verbaut.
Benutzes seit Intel Pentium 133 Zeiten immer Ati, AMD und einmal was von S3.
 
Seltsam die Umfrage mit der Geforce 256 zu starten ... meine erste war eine Riva TNT ... die war VOR der Geforce 256 ...

Tatsächlich hatte ich überwiegend AMD Grafikkarten des Preises wegen:

Afaik hatte ihc folgende Grafikkarten:

Miro 12 PD (S3)
Elsaa Winner
Riva TNT
Radeon 9700 non Pro
Radeon 4850 (ging kaputt und wurde durch eine 5750 ersetzt um Geld zu sparen)
Radeon R9 270X
Geforce 1080
Geforce 4070ti
 
Karre schrieb:
Du meinst die Riva TNT? Die gab es nur mit maximal 16 MB
Die TNT2 mit maximal 32 MB

die RIVA TNT2 mit 64 MB Ram! Ich habe leider keine Beweise mehr, war ein Fertigrechner (und mein erster). Stand aber so im Gerätemanager. Mit der Karte konnte ich damals (2000 gekauft) auf der 19" Röhre (ja die gab es tatsächlich dazu!) lange auch aktuelle Spiele zocken.
 
Geforce 2 MX 200 32MB
Geforce 4 MX 440 64MB
Geforce 6600GT 128MB
Geforce 8800GT 512MB
Geforce GTX960 2GB
Danach wurden Beruf und Familie wichtiger -> MacMini.
 
Zurück
Oben