Maxminator
Lt. Commander
- Registriert
- Juni 2015
- Beiträge
- 1.947
iPhones bald für 4500€
Grakas für 3000€
passt
cutting edge Technologie = cutting edge Preise
Grakas für 3000€
passt
cutting edge Technologie = cutting edge Preise
Folge dem Video um zu sehen, wie unsere Website als Web-App auf dem Startbildschirm installiert werden kann.
Anmerkung: Diese Funktion ist in einigen Browsern möglicherweise nicht verfügbar.
SirSilent schrieb:Die Hardwarezukunft sieht düster aus, zumindest was die Preise betrifft. Die letzten 20-30 Jahre waren ein Gamerparadies, die Zeiten sind wohl bald vorbei.
Das entspricht etwa dem gesamten Staatshaushalt von Chile oder Singapur 😅engineer123 schrieb:56 Mrd. USD? Das ist mehr als der Jahreshaushalt von kleineren Staaten,
nicht nur! Die Entwickler werden endlich für besser optimierte Codes belohnt! Wobei wegen UE5 hat man das auch schon ausgesourcedRizzoSpacerat schrieb:wieso, dann darf die grafik halt nicht immer besser werden sondern die spieleentwickler werden ihre Zeit wieder ins gameplay investieren müssen um zu punkten anstatt immer bessere grafik.
dann ist 4k halt erstmal die spitze und dabei bleibts bis was neues gefunden wurde um bessere Grafik zu befeuern.
Amotisieren ist ein gutes Stichwort. Man muss nicht immer die Preise anheben, um etwas zu amortiesieren. Der einfachste Weg ist einfach die Amortisationsdauer zu verlängern. Statt alle zwei Jahre, eben nur alle 3 oder 4 Jahre ein Node-Shrink und dazwischen Node-Optmierungen, die keine Fab-Umrüstung erfordert. Und dann kommen noch Packaging-Technologien dazu. Siehe AMD, statt die Grafikkarte auf 5nm umzustellen, wird es eben ein Hybrid aus 5nm Compute-Chip und 6nm Interface-Chip, so kann der 6nm-Node länger genutzt werden und sich damit auch länger amortiesieren.Weyoun schrieb:Folglich wird es immer schwieriger, dass sich solch eine Großinvestition jemals amortisiert.
In der Beherschung des Fertigungsprozesses und dem Service für Chip-Designer, diese mit entsprechenden Design-Rules und Bibliotheken zu versorgen, dass man aus einem Chip-Design auch tatsächlich funktionierende Chips bekommmt.Maxminator schrieb:Wo liegt dann die eigentliche Kompetenz von TSMC genau?
Spontan fällt mir da der Wechsel Kepler auf Maxwell ein. Beide 28nm, Maxwell trotzdem bedeutend leistungsstärker. Aber das waren zugegebenermaßen auch andere ZeitenNameHere schrieb:Wenn bei jeder Chipgeneration, etwa die hälfte der Leistungszuwächse von der Fertigung kommt dann wissen wir das zu wenig an Architekturverbesserungen raus kommt.
Kein Wunder das auch die Kosten dafür steigen. Wie oft haben wir Chips gesehen die beim selben Fertigungsverfahren 20% leistungsfähiger wurden!?
Absolut korrekt. Wer sagt denn, dass es alle zwei Jahre eine neue GPU-Generation oder jedes Jahr ein neues SoC geben muss? Wenn wir alle ganz ehrlich sind, ist das doch mittlerweile gar nicht nötig, um zu entwickeln/spielen/arbeiten/etc.Convert schrieb:Der einfachste Weg ist einfach die Amortisationsdauer zu verlängern. Statt alle zwei Jahre, eben nur alle 3 oder 4 Jahre ein Node-Shrink und dazwischen Node-Optmierungen, die keine Fab-Umrüstung erfordert.
Wenn ich mir anschaue auf welcher Hardware W11 sauber läuft wenn mann nachhilft dann sehe ich auch 2026 kein Problem. Dann bleiben sie was Casual und Office angeht halt auf Ihren Kisten sitzen bis W12 oder 13. 😉ric84 schrieb:Einsteiger PC's so im Jahre 2026: Es geht bei 3000€ los für absolute Casual Gamer und Office PC Käufer.
Naja, nur weil der Zeitraum zwischen neuen Fertigungsschritten größer werden würde, würde das ja nicht bedeuten, dass auch die Produktgenerationen den Zyklus im Gleichschritt verlängern. Denn dann würden diese Unternehmen doch arg wirtschaftlich leiden. Ohne Wachstum geht es nun mal nicht. Intel hat es ja schon vorgemacht, dass man auch X-Produkt Generationen mit einem Fertigungsschritt auf den Markt bringen kann, und dennoch Vorteile dabei bieten kann.Averomoe schrieb:Absolut korrekt. Wer sagt denn, dass es alle zwei Jahre eine neue GPU-Generation oder jedes Jahr ein neues SoC geben muss? Wenn wir alle ganz ehrlich sind, ist das doch mittlerweile gar nicht nötig, um zu entwickeln/spielen/arbeiten/etc.
Ich brauche sie jetzt schon nicht mehr.andi_sco schrieb:Irgendwann braucht man die zusätzliche Rechenleistung kaum noch.