Piktogramm
Admiral
- Registriert
- Okt. 2008
- Beiträge
- 9.248
@S.Kara
Dresden hat Unis, Chipfertigung und Menschen mit denen ich Bierchen trinke. Meine Qualifikation ist also nicht sonderlich groß. Und Imho einer der besten Vorträge zum Thema:
AMDs CPU Entwicklung
https://media.ccc.de/v/32c3-7171-when_hardware_must_just_work#t=933
LibreSilicon
https://media.ccc.de/v/35c3-9410-libresilicon
Und Abschätzung zwecks Verbesserung: Die Hersteller von CPUs/GPUs sind selbst eine ihrer besten Kunden. Der Aufwand für Simulation, Verifikation und Maskenentwurf steigt stetig, die verfügbare Rechenleistung auch und aller paar Hardwaregenerationen gibt es wohl einen größeren Sprung bei der Software. Letzteres durch Wissenszuwachs und dadurch dass man mehr Speicher, mehr Rechenleistung hat und so schlicht komplexere Modelle zur Anwendung kommen können, die vorher unökonomisch waren.
Und zur Häufigkeit kann ich nicht so viel sagen, da stecke ich nicht tief genug drinnen. Wenn man sich aber anschaut, wie oft es Refreshs gibt, wie oft die 2., 3. oder 4. Revision eines Chips überhaupt erst in die Massenfertigung geht[1]. Das wird schon häufig genug der Fall sein und ausreichend viel Kosten verursachen, dass Nvidia Abnehmer finden wird.
[1]Wenn ich es richtig in Erinnerung habe, waren die RDNA3 GPUs ein bisschen ein Einhorn, weil da die erste Revision direkt in Produktion ging.
Dresden hat Unis, Chipfertigung und Menschen mit denen ich Bierchen trinke. Meine Qualifikation ist also nicht sonderlich groß. Und Imho einer der besten Vorträge zum Thema:
AMDs CPU Entwicklung
https://media.ccc.de/v/32c3-7171-when_hardware_must_just_work#t=933
LibreSilicon
https://media.ccc.de/v/35c3-9410-libresilicon
Und Abschätzung zwecks Verbesserung: Die Hersteller von CPUs/GPUs sind selbst eine ihrer besten Kunden. Der Aufwand für Simulation, Verifikation und Maskenentwurf steigt stetig, die verfügbare Rechenleistung auch und aller paar Hardwaregenerationen gibt es wohl einen größeren Sprung bei der Software. Letzteres durch Wissenszuwachs und dadurch dass man mehr Speicher, mehr Rechenleistung hat und so schlicht komplexere Modelle zur Anwendung kommen können, die vorher unökonomisch waren.
Und zur Häufigkeit kann ich nicht so viel sagen, da stecke ich nicht tief genug drinnen. Wenn man sich aber anschaut, wie oft es Refreshs gibt, wie oft die 2., 3. oder 4. Revision eines Chips überhaupt erst in die Massenfertigung geht[1]. Das wird schon häufig genug der Fall sein und ausreichend viel Kosten verursachen, dass Nvidia Abnehmer finden wird.
[1]Wenn ich es richtig in Erinnerung habe, waren die RDNA3 GPUs ein bisschen ein Einhorn, weil da die erste Revision direkt in Produktion ging.