News Auftragshersteller TSMC: Zwei Fabs für N2- und N1-Chips kosten über 58 Mrd. USD

iPhones bald für 4500€
Grakas für 3000€
passt

cutting edge Technologie = cutting edge Preise
 
XXX hat das Netz ausgebaut, AAA Games TSMC Fabs. Und ich war immer vorne mit dabei xD
 
  • Gefällt mir
Reaktionen: Dama und Maxminator
Mit Verlaub: Irgendwann ist der Punkt erreicht, an dem es nicht mehr wirtschaftlich ist, immer teurere Fabs aus dem Boden zu stampfen. Die Kunden zahlen nur bedingt die Aufpreise, denn selbst ein iPhone für 5.000 $ wird für die meisten Apple-Nutzer künftig nicht mehr zu stemmen sein, also zahlt auch Apple nicht jede Preiserhöhung aufgrund teurerer Fab-Kosten. Folglich wird es immer schwieriger, dass sich solch eine Großinvestition jemals amortisiert.
 
  • Gefällt mir
Reaktionen: iWeaPonZ und Maxminator
ist definitiv krass in welche Invest Kategorien sich solche High-End Fabriken bewegen.

58 Mrd. USD? Das ist mehr als der Jahreshaushalt von kleineren Staaten,
Auch für DE wäre das ein großer Batzen. Eigentlich Hammer, dass ein Unternehmen
soviel hinblättern muss und kann für 2 Fabriken.
 
wobei, wenn 75% der AAA Spiele bald mit UE5 kommen, dann haben wir durchgehend 60 FPS auch bei 4070 Karte ;)
Passt
 
  • Gefällt mir
Reaktionen: Mac_Leod
Es entwickelt sich irgendwie immer mehr in die Richtung "Fortschritt um des Fortschritts Willen".
Das kann nicht ewig so weiter gehen, denn die Produkte müssen ja auch bezahlbar bleiben. Spätestens wenn sich die aktuelle Wachstumsphase abschwächt werden die Hersteller ihre Entwicklung hin zu günstigeren Preisen bewegen müssen, um über den Preis zu konkurrieren.
 
  • Gefällt mir
Reaktionen: Schumey
SirSilent schrieb:
Die Hardwarezukunft sieht düster aus, zumindest was die Preise betrifft. Die letzten 20-30 Jahre waren ein Gamerparadies, die Zeiten sind wohl bald vorbei.

wieso, dann darf die grafik halt nicht immer besser werden sondern die spieleentwickler werden ihre Zeit wieder ins gameplay investieren müssen um zu punkten anstatt immer bessere grafik.

dann ist 4k halt erstmal die spitze und dabei bleibts bis was neues gefunden wurde um bessere Grafik zu befeuern.
 
  • Gefällt mir
Reaktionen: Maxminator
engineer123 schrieb:
56 Mrd. USD? Das ist mehr als der Jahreshaushalt von kleineren Staaten,
Das entspricht etwa dem gesamten Staatshaushalt von Chile oder Singapur 😅
 
  • Gefällt mir
Reaktionen: engineer123
TSMC ist wie ein Autohersteller, oder?

Ohne Zulieferer geht es nichts. Es werden ja die Belichtungsmaschinen (ASML) + Siliziumscheiben (?)+ Architektur (Apple, NVIDIA, AMD) von anderen zur Verfügung gestellt, oder? Wo liegt dann die eigentliche Kompetenz von TSMC genau?

RizzoSpacerat schrieb:
wieso, dann darf die grafik halt nicht immer besser werden sondern die spieleentwickler werden ihre Zeit wieder ins gameplay investieren müssen um zu punkten anstatt immer bessere grafik.

dann ist 4k halt erstmal die spitze und dabei bleibts bis was neues gefunden wurde um bessere Grafik zu befeuern.
nicht nur! Die Entwickler werden endlich für besser optimierte Codes belohnt! Wobei wegen UE5 hat man das auch schon ausgesourced
 
Weyoun schrieb:
Folglich wird es immer schwieriger, dass sich solch eine Großinvestition jemals amortisiert.
Amotisieren ist ein gutes Stichwort. Man muss nicht immer die Preise anheben, um etwas zu amortiesieren. Der einfachste Weg ist einfach die Amortisationsdauer zu verlängern. Statt alle zwei Jahre, eben nur alle 3 oder 4 Jahre ein Node-Shrink und dazwischen Node-Optmierungen, die keine Fab-Umrüstung erfordert. Und dann kommen noch Packaging-Technologien dazu. Siehe AMD, statt die Grafikkarte auf 5nm umzustellen, wird es eben ein Hybrid aus 5nm Compute-Chip und 6nm Interface-Chip, so kann der 6nm-Node länger genutzt werden und sich damit auch länger amortiesieren.
Ergänzung ()

Maxminator schrieb:
Wo liegt dann die eigentliche Kompetenz von TSMC genau?
In der Beherschung des Fertigungsprozesses und dem Service für Chip-Designer, diese mit entsprechenden Design-Rules und Bibliotheken zu versorgen, dass man aus einem Chip-Design auch tatsächlich funktionierende Chips bekommmt.

Wenn man dir und mir die teure ASML-Maschiene hinstellt und das Chipdesign von Apple auf den Computer läd, können wir damit nichts anfangen, weil wir den Prozess nicht beherschen. Sogar Intel und Samsung haben da so ihre Probleme mit TSMC mitzuhalten.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: schneeland, DiamondDragon und LamaMitHut
Irgendwie rechnen hier einige nur anhand des Wafer-Preises. Der ist die eine Sache. Aber auf den teureren Wafer passen ja auch wieder mehr Chips drauf, weil die Strukturen kleiner sind. Werden die Chips selber teurer? Wahrscheinlich. In dem Maße wie im Artikel die Wafer teurer werden? Nicht unbedingt.
 
  • Gefällt mir
Reaktionen: Schumey und epospecht
NameHere schrieb:
Wenn bei jeder Chipgeneration, etwa die hälfte der Leistungszuwächse von der Fertigung kommt dann wissen wir das zu wenig an Architekturverbesserungen raus kommt.
Kein Wunder das auch die Kosten dafür steigen. Wie oft haben wir Chips gesehen die beim selben Fertigungsverfahren 20% leistungsfähiger wurden!?
Spontan fällt mir da der Wechsel Kepler auf Maxwell ein. Beide 28nm, Maxwell trotzdem bedeutend leistungsstärker. Aber das waren zugegebenermaßen auch andere Zeiten :)
 
  • Gefällt mir
Reaktionen: NameHere
Natürlich steigen die Preise ins unendliche, wenn es auf allen Ebenen der Lieferketten nur Monopole gibt. Für ASML gibt es keine Alternativen zu Zeiss und Trumpf, für TSMC keine zu ASML und für Nvidia (AMD) keine zu TSMC.
Insofern brauchen wir uns da gar nicht wundern!
 
Convert schrieb:
Der einfachste Weg ist einfach die Amortisationsdauer zu verlängern. Statt alle zwei Jahre, eben nur alle 3 oder 4 Jahre ein Node-Shrink und dazwischen Node-Optmierungen, die keine Fab-Umrüstung erfordert.
Absolut korrekt. Wer sagt denn, dass es alle zwei Jahre eine neue GPU-Generation oder jedes Jahr ein neues SoC geben muss? Wenn wir alle ganz ehrlich sind, ist das doch mittlerweile gar nicht nötig, um zu entwickeln/spielen/arbeiten/etc.
 
  • Gefällt mir
Reaktionen: medsommer, Schumey und sha.de
ric84 schrieb:
Einsteiger PC's so im Jahre 2026: Es geht bei 3000€ los für absolute Casual Gamer und Office PC Käufer.
Wenn ich mir anschaue auf welcher Hardware W11 sauber läuft wenn mann nachhilft dann sehe ich auch 2026 kein Problem. Dann bleiben sie was Casual und Office angeht halt auf Ihren Kisten sitzen bis W12 oder 13. 😉
 
Naja, solange die Nachfrage da ist und die Preise bezahlt werden ist das ja noch kein Problem. Irgendwann muss man sich dann vielleicht überlegen, ob man als Fertiger nicht vom Tempo geht und/oder als Kunde beim Fertiger für günstigere Produkte nicht ältere und günstigere Fertigungsschritte für neue Produkte bucht. So könnte AMD z.B. Ryzen 3 in 3nm, Ryzen 5 in 2nm und Ryzen 7 in 1nm rausbringen. Oder halt Qualcomm mit seiner Snapdragon Serie, Nividia mit Geforce,... .
Ergänzung ()

Averomoe schrieb:
Absolut korrekt. Wer sagt denn, dass es alle zwei Jahre eine neue GPU-Generation oder jedes Jahr ein neues SoC geben muss? Wenn wir alle ganz ehrlich sind, ist das doch mittlerweile gar nicht nötig, um zu entwickeln/spielen/arbeiten/etc.
Naja, nur weil der Zeitraum zwischen neuen Fertigungsschritten größer werden würde, würde das ja nicht bedeuten, dass auch die Produktgenerationen den Zyklus im Gleichschritt verlängern. Denn dann würden diese Unternehmen doch arg wirtschaftlich leiden. Ohne Wachstum geht es nun mal nicht. Intel hat es ja schon vorgemacht, dass man auch X-Produkt Generationen mit einem Fertigungsschritt auf den Markt bringen kann, und dennoch Vorteile dabei bieten kann.
 
Zuletzt bearbeitet:
Alles halb so wild.
Der Preis des "Büro-PCs" ist nicht in Gefahr.

Intels Core-i gibt es seit 2008 (!), wer damals gekauft hat, hat heute je nach Anwendung noch einen passablen Büro-PC, nach 14 Jahren. Wer 2015 (vor 7 Jahren) einen Skylake gekauft hat, hat heute noch einen modernen Büro-PC, der nochmal ein paar Jahre hält.

Und beim Gaming darf man nicht vergessen, dass die Spiele auf die Hardware angepasst werden, nicht umgekehrt. Die glorreichen 3% der Enthusiasten dürfen sich über max-settings freuen (darauf werden die max-settings ausgelegt), die ambitionierte Gamer-Mittelschicht kommt auch mit 3-5 Jahre alter Mittelklasse-Hardware noch zurecht, der Gelegenheitsspieler sogar noch länger (meine GTX970 ist 8 Jahre alt...).

Und wenn die Immersion gut ist kann mir kein Spieler erzählen, dass das letzte Quäntchen Grafik überhaupt noch wahrgenommen wird (in gewissen Maßen natürlich).

Die neuen Chips sind wichtig für Leistung pro mm² bzw. Effizienz pro mm². Aber auch dort wird das Tempo langsamer, ein Mittelklasse iPhone oder Android Gerät "stirbt" heutzutage am Akku, am Display, am Update-Verhalten der Hersteller oder an der Unlust des Users. Aber meistens nicht an der Rechenleistung.
 
  • Gefällt mir
Reaktionen: Schumey und LamaMitHut
6.000 $ für 10 nm
10.000 $ für 7 nm

Die Rechnung muss man etwas differenzierter betrachten, da man ja aus demselben Wafer nun mehr Chips bekommt. Relevant ist ja der Preis pro Chip und nicht der Preis pro Wafer.

Wenn ein 7 nm Chip exakt "gleichviel" kostet wie ein 10 nm "pro Chip" würden wir eigentlich folgenden Preis erwarten: 10/7*6000 = 8.500 $.

Tatsächlich aber kostet ein 7 nm Wafer sogar 10.000$

Aber von 7 nm => 5 nm:
16.000*7/5 = 22.400

Real liegen die Kosten aber nur bei 20.000. Es wird also eigentlich sogar billiger "pro Chip" bei diesem Sprung.

Einziges Manko an der Rechnung: Man braucht eigentlich die tatsächlichen "Shrinkage"-Werte und nicht die Marketingnamen um die Waferkostenskalierung richtig zu rechnen
 
  • Gefällt mir
Reaktionen: Ganjafield, kamanu und epospecht
@Iscaran

Den tatsächlichen Yield (denn nicht jeder aus einem Wafer geschnittene Chip funktioniert ja auch) und die vertraglichen Bedingungen hierzu müsste man auch kennen. Von außen leider alles nicht so einfach zu beurteilen.
 
  • Gefällt mir
Reaktionen: epospecht
andi_sco schrieb:
Irgendwann braucht man die zusätzliche Rechenleistung kaum noch.
Ich brauche sie jetzt schon nicht mehr.
Ich will ein "High-End-Smartphone" weil dort die beste Kamera verbaut ist. Leider kriegt man aber die beste Kamera nicht mit einem älteren Soc, sondern nur mit einem High-End-Soc, denn ich eigentlich gar nicht brauche... Oder ich muss ein High-End-Smarphone im abverkauf kaufen, wenn ein neuer gerade raus kommt. Hier spielt aber wiederum die Software einem in die Querre, den kauft man sich ein altes Smartphone, hat man bald keine Updates mehr. Das Problem ist also definitiv nicht die Rechenleistung, sondern die Software-Update-Politik und das Portfolio der Smartphone-Hersteller.
 
  • Gefällt mir
Reaktionen: MiniGamer
Zurück
Oben