News Verfügbarkeit der RTX 4080: Der UVP wird inzwischen konsequent unterboten

Das ist doch Blödsinn und nur der versuch von Fanboys Nvidias Preise zu legitimieren:
Preise von TSMC
2018 N7 10 000$
2020 N5 16 000$
2022 N3 20 000$

Hier gibts n Wafer Rechner: http://www.silicon-edge.co.uk/j/index.php/resources/die-per-wafer
Kanns sich jeder selbst ausrechnen was die Netto Margin eines Chips der 4090 für Nvidia sind.

Nvidia bekommt pro Wafer 90 GTX 4090 GPU Chips aus dem Wafer (Yield nicht berücksichtigt)

Um 100$ Netto zu erhalten könnte Nvidia und dessen Boardpartner eine GTX 4090 um 1000$ verkaufen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: SalatKatze, scheru und Kommando
GM206 schrieb:
Das ist doch Blödsinn und nur der versuch von Fanboys Nvidias Preise zu legitimieren:
Preise von TSMC
2018 N7 10 000$
2020 N5 16 000$
2022 N3 20 000$
Der 5nm Preis aus dem Jahr 2020, den auch Ian Cutress verwendet hat, liegt bei $17000 und dürfte inzwischen veraltet sein, weil TSMC danach die Preise um 10-20% erhöht hat (TSMC is increasing foundry prices this year. How will that play out for clients, end-users?):
Der 8nm Samsung Prozess ist ein verbesserter 10nm Prozess, den Nvidia damals zu einem guten Preis sichern konnte, weshalb man annimmt, dass der Preis etwa bei $6000 pro Wafer gelegen haben dürfte. Für Nvidia dürften sich die Waferkosten also beim Sprung von 8nm auf 4nm mehr als verdreifacht haben.
Ich habe auch nicht behauptet, dass der gesamte Preisanstieg bei der 4080 auf die Waferkosten zurückzuführen ist. Jensen hat selbst angekündigt, dass die neuen Produkte oberhalb der alten angesetzt werden, um den Abverkauf der alten Karten nicht zu behindern. Ein Preis von $799, wie von einigen gefordert, sehe ich aber für Nvidia nicht als möglich an, ohne auf einen großen Teil ihrer üblichen Marge zu verzichten.
Des weiteren habe ich angeregt sich die Preise aktueller CPUs anzusehen, die lediglich aus Dies und Substrat bestehen. Auch hier wurden die Preise von AMD beim Sprung von 7nm auf 5nm stark erhöht. Der Preisanstieg wurde aber hauptsächlich dem Chipsatz aufgeschlagen. Das ist z.B. bei einer Grafikkarte nicht möglich. Wenn man sich über die Marge bei Nvidia aufregt, sollte man sich auch über die Marge bei den AMD CPUs aufregen, die zum Lauch laut Ian Cutress beim 10-Fachen der Herstellungskosten lag. Bei gleicher Marge eines 7950X, würde allein der AD103 Die mit einem Teil des PCB mindestens $1200 kosten. Selbst beim 7700X ist die Marge nicht deutlich geringer und liegt bei etwa dem 9-Fachen der Herstellungskosten. Verglichen mit einem 7950X oder 7700X ist der Preis für eine 4080 da schon fast moderat, und dabei ist der Preisaufschlag bei AMD für den Chipsatz noch nicht berücksichtigt. Wenn diese Berechnungen also stimmen, dann sollte sich diese Bruttomarge bei AMD ja auch in zukünftigen Quartalsberichten entsprechend niederschlagen. Wenn das nicht der Fall ist, dann können alle diese Berechnungen für die Herstellungskosten von CPUs und GPUs, die auf Annahmen und Schätzungen basieren, einfach nicht stimmen.
Natürlich sind die Preise aktueller CPUs und GPUs zu hoch, aber das untere Limit wird nach den notwendigen Preisanpassungen nicht so niedrig ausfallen wie wir hoffen.
GM206 schrieb:
Um 100$ Netto zu erhalten könnte Nvidia und dessen Boardpartner eine GTX 4090 um 1000$ verkaufen.
Nvidia darf also $100 an einer 4090 verdienen, während man AMD zugesteht $630 an einem 7950X zu verdienen. Dann darf man sich auch wünschen, dass AMD den 7950X für $170 verkauft.
 
Jeder der mit tollen Preisvorschlägen daher kommt für AMD und NVIDIA könnte sich mal folgendes fragen: Würde ich wenn ich etwas zu verkaufen habe und dafür 500€ bekommen könnte es dann nur für 300€ verkaufen schlicht weil ich nicht will dass der eventuelle Käufer soviel zahlt weil ich ein guter Mensch bin? Wenn man ehrlich ist wird man diese Frage immer so beantworten dass man natürlich an denjenigen verkauft der bereit ist 500 zu zahlen, egal wie nett der mit den 300 ist oder wie bedürftig. Es gibt keine festgeschriebene %-Marge über die es "böse" ist drüberzugehen. Ich würde auch lieber unter 1000€ fürs Flaggschiff zahlen. Ist nur nicht drin. Aber weil ich butthurt bin werd ich sicher nicht auf meinen Gamingspaß mit der guten GPU verzichten. Der einzige dem ich damit schade bin ich selbst. NVIDIA wirds nen Scheiss kümmern. Die kommen zu ihrem Geld, auch ohne mich.
 
  • Gefällt mir
Reaktionen: AlphaTango und SalatKatze
Es geht den Meisten doch gar nicht darum, dass Nvidia "Böse" ist. Das Angebot wird einfach immer schlechter, auch wenn es vielen nicht in den Kopf will weil es anscheinend nur noch um die 4090 geht.
 
  • Gefällt mir
Reaktionen: da!mon und th3o
Aber welche Gründe hat das? "Profitgier" ist mir zu billig um ehrlich zu sein. Ich denke dass da einige Faktoren reinspielen.

Ein nicht unmaßgeblicher ist dass im Gaming mittlerweile viel mehr Geld steckt als noch vor 20 Jahren.
Vielleicht sind Innovationen in der Fertigungstechnologie nicht mehr so günstig wie früher, je mikroskopischer das Ganze wird desto schwieriger ist es bei gleichbleibenden oder gar reduzierten Herstellungskosten Performancezuwachs X% zu generieren, Stichwort Diminishing Returns. usw.

Dazu kommt auch natürlich dass Investoren jedes Jahr gestiegene Rendite sehen wollen und das geht nur durch Wachstum des Unternehmens und scheinbar ist NVIDIA der Meinung dass sie dieses Wachstum besser hinbekommen wenn sie die GPUs so anbieten wie sie es tun.

Natürlich spielen auch die Gamer eine Rolle, es gibt jetzt deutlich mehr davon und zwar mit ganz unterschiedlichen Geldbeuteln. Ich würde mal wagen zu behaupten dass man Ende der 1990er Jahre nicht unbedingt den 30-40 Jährigen Gamer (den gab es damals nicht wie heute, damals galt es ja als verpönt wenn man mit 20 noch Computer gespielt hat, heute kräht kein Hahn mehr nach) als Zielgruppe hatte bei einer High End GPU (wobei man da sicher auch lange nicht so ein breites Sortiment pro Generation hatte wie heute), sondern damals waren diese Gaming Karten eher was für Jugendliche oder junge Heranwachsende. Und die hatten damals nicht die Kohle die komparativ heute fürs High End abgerufen wird. Aber die 30-40 Jährigen Daddys heute haben es. Da will NVIDIA natürlich eincashen.

Da gibts ganz sicher noch mehr Faktoren aber ich bin selbst auch kein Fachmann. Ich weiß nur dass Beliebigkeit "Och machen wir mal so und so teuer und schauen was passiert" hier sicher keine Rolle spielt. Diese Preise werden mit immensem Aufwand zusammengestellt was Marktforschung, Statistiken, Projektionen etc angeht. Huang wacht nicht eines morgens auf und beschließt "so jetzt machen wir mal den nachfolger der 3080 einfach mal 500€ teuerer, ist mir grad nach."
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: mithraldur
LamaMitHut schrieb:
Das Angebot wird einfach immer schlechter, auch wenn es vielen nicht in den Kopf will weil es anscheinend nur noch um die 4090 geht.
Der Grund warum die 4080 ein so schlechtes Angebot ist, ist doch bekannt. Sie wurde preislich oberhalb der 3090 etabliert, um den Abverkauf der alten Karten zu ermöglichen. Das Problem hat die 4090 nicht, weshalb sie das bessere Angebot ist. Die Erwartung, dass Nvidia die 4080 auch problemlos für $799 verkaufen könnte, sehe ich bei den dramatisch gestiegenen Waferkosten allerdings nicht. Das unterste Limit dürfte für Nvidia bei $999 liegen. Danach macht es für Nvidia einfach keinen Sinn, die Wafer für Konsumerprodukte zu verwenden, wenn sie ihre bisherige Marge im HPC Bereich oder bei den professionellen Produkten bekommen können. Die Vorhersage sieht so aus, dass z.B. der HPC Sektor jährlich um 7,2% wächst: High-Performance Computing (HPC) Market is expected to generate a revenue of USD 65.12 Billion by 2030, Globally, at 7.20% CAGR
 
  • Gefällt mir
Reaktionen: Xaphyr, th3o, SalatKatze und eine weitere Person
Immer noch die 50-100 € mehr pro Chip aufgrund der „dramatisch gestiegenen” Waferpreise zu nennen und damit eine Verdoppelung bis Verdreifachung der Grafikkartenpreise zu relativieren. Manche kann man einfach nicht ernst nehmen.

Es ist die reine Profitmaximierung. Ob man es nun mag oder nicht: Deal with it or let it be.

🤌😂
 
  • Gefällt mir
Reaktionen: baizer, Raider_MXD, scheru und 2 andere
Kommando schrieb:
Immer noch die 50-100 €
Darauf muss man noch die Bruttomarge anwenden und landet dann, wenn man z.B. die durchschnittliche Marge der letzten Jahre von 66% veranschlagt, bei 150-300$. Das der Preis der 4080 künstlich erhöht wurde um den Abverkauf der alten Karten zu ermöglichen ist doch bekannt. Die 4080 dürfte auch noch eine Preisanpassung in Richtung $999 bekommen und dann passt das.
Kommando schrieb:
Verdoppelung bis Verdreifachung der Grafikkartenpreise zu relativieren.
Wo sehen wir eine Verdoppelung oder gar Verdreifachung?
Launchpreis 3080 vs 4080: $699 -> $1199 = 71,5%
 
Zuletzt bearbeitet:
Die Bruttomarge aufgrund der Waferpreise ist jetzt also.

Genau, wenn der Dönermann um die Ecke 1€ höhere Energiepreise hat, muss der Döner 3 € teurer werden. Endlich ergibt alles einen Sinn!

Achtung: 3080 und 4080 sind eigentlich nicht zu vergleichen. 3070 und 4080 hingegen schon, deshalb 2-3x, gerade hinsichtlich der Waferpreise. Aber da findet sich bestimmt auch noch irgendwas. Bin schon gespannt!
 

Anhänge

  • E294F179-E022-4DE2-BE8B-B0D2100C8F11.png
    E294F179-E022-4DE2-BE8B-B0D2100C8F11.png
    1,1 MB · Aufrufe: 177
  • Gefällt mir
Reaktionen: da!mon
Kommando schrieb:
Achtung: 3080 und 4080 sind eigentlich nicht zu vergleichen. 3070 und 4080 hingegen schon, deshalb 2-3x, gerade hinsichtlich der Waferpreise. Aber da findet sich bestimmt auch noch irgendwas. Bin schon gespannt!
Man kann doch nicht die Fläche vergleichen und darauf bestehen, dass die Preise gleich bleiben müssen, wenn die Herstellungskosten pro Fläche um den Faktor 3 gestiegen sind. Der Chip der 4080 ist sicher 50-70€ teurer als der Salvage Chip der 3080. Die Bruttomarge wird immer auf den gesamten Verkaufspreis des Chips angewendet und nicht nur auf den Teil, der einem gefällt. Nvidia wird sicher nicht auf die etablierte Marge verzichten, sondern die Wafer dann eher im HPC Segment verwenden. Damit ist der Verkaufspreis des Chips an die Boardpartner ca. $200 höher als bei der 3080, wenn man z.B. von 66% bei $66 Mehrkosten ausgeht.
 
Ja was denn jetzt? Geht was in Waferkosten aber nicht um Waferfläche?

Wir haben doch schon berechnet, dass die Chipfläche der 4080 ca. 50€ teurer geworden ist. Allerdings ist das nicht die Chipfläche der 3080.

Dort saß vorher nunmal eine 400-600 $ teure 3060 Ti bis 3070 Ti. 4080 16 GB: 1200 $
 
Zuletzt bearbeitet:
Kommando schrieb:
Wir haben doch schon berechnet, dass die Chipfläche der 4080 ca. 50€ teurer geworden ist. Allerdings ist das nicht die Chipfläche der 3080.
Der Preis pro Wafer hat sich verdreifacht. Von ca. $6000 auf $18000. Der kleine Chip der 4080 ist dadurch ca. $50 teurer ist als der große Chip der 3090. Den Salvage Faktor beim 3080 kann ich nicht berechnen, aber nehmen wir vereinfacht an, dass das ca. $16 ausmacht. Das sind dann $66. Dadurch allein würde der Verkaufpreis des Chips um $200 steigen. Eine 4080 dürfte allein dadurch, verglichen mit der 3080, bereits $899 kosten. Die veranschlagten $1199 sind also lediglich 33% zu hoch.
Kommando schrieb:
Dort saß vorher nunmal eine 400-600 $ teure 3060 Ti bis 3070 Ti. 4080 16 GB: 1200 $
Für die 4070 kann man nun die gleiche Rechnung aufstellen. Die Herstellungskosten des Dies der 4070 dürften etwa dem der 3080 entsprechen. Wenn wir den geplanten Verkaufspreis von $899 betrachten, kommen wir auf eine Preiserhöhung gegenüber der 3080 von 28%. Die Preise für die 4080 und 4070 sind also etwa 30% höher als bei der vorherigen Generation. Das ist weit weg von einer Verdoppelung oder Verdreifachung. Selbst wann man das alles ignoriert und einfach nur feststellt, dass die 4080, die in der Herstellung garantiert teurer ist als eine 3080, 71,5% mehr kostet, dann ist das noch keine Verdoppelung.
 
Zuletzt bearbeitet:
Hm, das kommt mir bekannt vor. Geht ja anscheinend nur noch ums recht haben.

Auf exakt diese Zahlen von Dir bin ich schon mehrfach eingegangen. Ich spare mir eine weitere Wiederholung und wünsche ein schönes Wochenende.
 
Banger schrieb:
Da fällt mir gerade noch ein, irgendwann bugt sich das dann bei mir auch auf eine feste Taktrate. 2080S läuft dann durchgehend bei 15xxMHz auf GPU und 7xxxMHz Speicher und saugt dann 40W, statt 20, laut Ausleseprogramm.

Immobilienmarkt hat so Nvidia-Preis-Vibes. :( Lokale Volksbank verkauft eine 58m² große Wohnung in Aachen für 189.000€.

Bei mir fährt es sich auf 1815 MHz im Desktopbetrieb fest und saugt ~60W mit 2 Monitoren.
Das Problem habe ich aber nur, wenn 2 Monitore jeweils unterschiedliche Hz fahren (24"@120Hz, 34"@180Hz) - G-Sync können beide, allerdings hat nur der 34" G-Sync Ultimate...

Was die Immobilienpreise angeht: das ist doch noch günstig. In Bremen 65m³ mit Balkon 3km vom HBF entfernt, 225.000€ vor 8 Jahren. Mittlerweile liegt die gleiche Wohnung bei über 300k.

Inflation ist halt überall: auch beim Wohnraum. Ich frag mich ja schon seit Jahren, wann der nächste Österreicher nach Deutschland kommt und endlich "Wohnraum im Osten" baut 💩
Ergänzung ()

juwa schrieb:
Habe ich mit meiner GTX 1080 aktuell nicht, die Lüfter stehen still im Idle Betrieb. Beim Multi-Monitor Betrieb haben alle Hersteller ihre Probleme, vor dem Kauf der 4080 FE habe ich da natürlich ein wenig recherchiert, eigentlich sollte es ja erst eine RX 6800 XT werden... im AMD-Lager gibt es sehr viel mehr Schwierigkeiten und Bugs.

Es geht ja auch nicht um die Lüfter, meine stehen auch still im desktop Betrieb.
Es geht darum, dass ich mit nvidia seit meiner GTX 980 das problem habe, dass sie auf dem Desktop nicht runter takten, wenn 2 Monitore angeschlossen sind, daher NV Inspector/Multi Display Power Saver...
 
Zuletzt bearbeitet:
Dann können die Frequenzen vom G-Sync-Monitor, sofern der mit Ultimate betroffen ist, gar nicht erst rumbuggen, wenn die Karte auf 1815MHz. geht.
 
GM206 schrieb:
Um 100$ Netto zu erhalten könnte Nvidia und dessen Boardpartner eine GTX 4090 um 1000$ verkaufen.

Ach ja es gibt keine Entwicklungskosten, Marketingkosten, ......
 
Banger schrieb:
Dann können die Frequenzen vom G-Sync-Monitor gar nicht erst rumbuggen...

Du verstehst mich falsch: die Grafikkarte taktet auf 1815 MHz während sie NICHTS macht, auf dem Desktop.
die Bildwiederholfrequenzen machen keine Probleme und G-Sync funktioniert auch einwandfrei.

Die Grafikkarte weigert sich nur einfach, unter 1815 MHz zu takten, sobald 2 oder mehr Monitore angeschlossen sind. G-Sync oder Free-Sync unabhängig - das Problem besteht auch mit 2 Monitoren, wenn keiner der beiden G- oder F-Sync hat.
 
Genau das umgeht aber den Frequenzbug. Zumindest das beim XB271HUB bei mir so. 2080S taktet zwischen 300 und 1650MHz hin und her, was den Monitor buggen lässt. Und manchmal bugt sich die Taktrate bei meiner Karte auf 1650MHz fest, wo wiederum der Bildschirm nicht bugt. Der XB271HUB ist auf 120Hz gestellt, der 27GP850-B auf 180, jetzt ist wieder die 2080S drin, keine 1060 mehr.
 
da!mon schrieb:
Du verstehst mich falsch: die Grafikkarte taktet auf 1815 MHz während sie NICHTS macht, auf dem Desktop.
Hast du im NVIDIA Control Panel das Power Management auf Normal oder auf Maximum? Bei meiner 3090 hat die im Desktopbetrieb ständig 100W gezogen weil ich das im CP auf prefer maximum performance eingestellt hatte und man konnte dann auch im Afterburner sehen dass die ständig hochtaktet, verantwortlich im Performance-Tab war dann irgendein Desktop Window Manager.
 
Zurück
Oben