Die Synthese-Tools der Hersteller kosten ca. 3-5kEuro pro Jahr (mit Support). Wenn man kleinere FPGAs nimmt, dann sind die Tools kostenlos. Sollte man abgefahrene IP-Cores verwenden wollen, dann ist man schnell ein Paar zig Tausend Euro weg (als Beispiel 10G-Eth Core kostet ca. 20kEuro).
Aber! Möchte man z.B. die FPGAs von Amazon verwenden: AWS F1 Instanzen, dann bezahlt man nur stundenweise für EC2-Instanz, worin die komplette Xilinx Entwicklungsumgebung installiert ist (allerdings nur für einen Chip, genau den, der bei der Amazon-Instanz verwendet wird).
Langsam passiert da was. Und Intel/Altera möchten da mitmischen. Was Intel wohl vor hat ist, dass später nur ein Kompiler sowohl für CPU als auch FPGA den code rausspuckt. Das Programm wird abgespielt, wenn ein FPGA in der CPU (so wie dieser Xeon) vorhanden ist, wird dieses mit dem Bit-File geladen und so wird die Ausführung beschleunigt. Ist das FPGA nicht vorhanden, wird das in der CPU emuliert.
Da hat man dann die Wahl: eine CPU für 1000,- die 12 Stunden an einer Aufgabe rechnet oder für 5000,-, die in 10 Minuten fertig ist.
Man kann sich das so vorstellen, dass Performance/Power bei einem Arria10 FPGA etwa doppelt so gut ist, wie bei einer Titan oder ähnlichen Grafikkarten. Bei Stratix 10 wahrscheinlich sogar 5-10 Mal besser. (alles aus dem Bauch heraus, ich lese viele Papers, deshalb habe ich etwa die Übersicht). Ein FPGA braucht 5-15 Watt, eine GPU 100-250 Watt. Do the math.
-- Nachtrag
Ach so. Die Frequenzen bei so einem FPGA liegen wohl etwa bei 500-800 MHz. Ist nicht viel, aber man bedenkt, dass da drinne 3000 Multiplizierer drin sind, dann ist es schon eine Ganze Menge. Dazu noch ein Paar MByte an Speicher, der 1 Takt Latenz hat und beliebig breit konfiguriert werden kann :-o