@DocWindows
So tief stecke ich auch nicht im Thema drin und es fehlt mir ehrlich gesagt auch das Fachwissen, um die genauen Hintergründe zu verstehen/zu erklären.
Aber im Grunde ist es wahrscheinlich einfach die sich aus der weit höheren Bandbreite ergebende schiere Menge an Daten, die ein G-Sync2-Modul in Echtzeit verarbeiten muss, die es so problematisch machen. Mit so was kommt ein FPGA schnell an seine Grenzen, obwohl Nvidia wohl schon ein ausgesprochen großes und teures Model verwendet. Die Dinger sind halt nicht auf optimale Leistungsfähigkeit und günstige Massenherstellung oder auch Energieeffizienz ausgelegt, sondern auf maximale Flexibilität. Ein FPGA kann einfach per Software für jede denkbare Aufgabe komplett umprogrammiert werden, während bei einem ASIC die Funktionalität quasi fest in Silizium gegossen ist.
Deshalb verwendet man FPGAs normalerweise für Prototypen oder spezielle Geräte, von denen nur ein paar einzelne Exemplare hergestellt werden sollen, und ASICs für ausgereifte Massenware.
Die große Frage ist also, warum Nvidia trotzdem auf ein FPGA setzt. Eine mögliche Erklärung wäre, dass die zu verkaufende Stückzahl für die entsprechenden Gaming-Monitore so gering wäre, dass sich die Massenherstellung eines G-Sync2-ASIC dafür einfach nicht lohnen würde. Aber das halte ich eher für unwahrscheinlich. In allen möglichen, exotischen Geräten stecken extra dafür gefertigte ASICs, und letztlich geht es bei den FreeSync-Scalern ja auch.
Ich vermute deshalb, dass G-Sync2 einfach noch nicht fertig ist, bzw. noch nicht so funktioniert, wie es eigentlich soll, und Nvidia sich deshalb die Möglichkeit offen halten muss, die Module in den schon verkauften Monitoren jederzeit per Firmwareupdate nachträglich komplett umzustricken. Es wird in den paar erhältlichen G-Sync2-Monitoren praktisch Alpha-Hardware verkauft, die erst noch ausreifen muss.
Und das, obwohl G-Sync2 eigentlich schon seit vielen Monaten marktreif sein sollte. Irgendwas ist wahrscheinlich bei der Entwicklung furchtbar schief gelaufen.