kiffmet schrieb:Der Einsatz eines FPGA ist unnötig und Nvdia ist entweder zu gierig, oder zu faul, um ein ASIC zu designen, welches dieselbe Funktion erfüllt, und deutlich weniger kostet. Der einzige Vorteil, der sich durch den Einsatz eines FPGA ergibt, ist die Möglichkeit, nachträglich per Treiber Bugs rauszupatchen. Meiner Meinung nach ist es das aber nicht Wert, vorausgesetzt, die Hersteller sind in der Lage, von Anfang an funktionierende Produkte auf den Markt zu bringen.
Also mal abgesehen davon, dass du fürs Design eines ASIC mal eben tausende von Ingenieursstunden mehr bezahlen kannst, was ebenfalls nicht billig kommt ... die Produktion von ASICs lohnt sich prinzipiell erst so ca. ab einer Stückzahl von einer halben Million.
Kann man sich auch eigentlich recht gut mit der Fließband-Produktion erklären. Wofür meinst du zahlst du mehr, ein Auto, das genau nach deinen Vorstellungen als Unikat gebaut wird, oder der neue VW Golf, der in Serie produziert wird und den neben dir noch tausende von anderen fahren werden?
Back to topic: Momentan gibt es zwei Displays, die ein solches Modul verbaut bekommen. Ich weiß nicht wie viel Asus und Acer planen von ihren 2k+€ Gamer Displays abzusetzen, aber ich bezweifle mal dass sie die Größenordnung anstreben werden, in denen sich ein ASIC tatsächlich lohnt.
Treiber Bugs lassen sich auch bei einem ASIC rauspatchen. Hardware Bugs kann man bei einem ASIC hingegen nicht beheben. Ich bezweifle aber mal, dass das Design in diesem Stadium noch große Hardware Bugs hat. Das wäre recht peinlich für NVidia bei einem so teuren Gerät.
Alles in allem reichen die Displays gerade mal als Machbarkeitsstudie. Für HDR-Video Bearbeitung sind sie nicht geeignet, dazu fehlen ihnen die 10bit Farbtiefe und wie viele Leute bereit sein werden über 2.5k€ für 144Hz und G-Sync auszugeben, wenn es professionelle Displays mit HDR und Local Dimming für fast die Hälfte gibt, bleibt abzuwarten.