Also, nun mal meinen Senf dazu.
Ob Intel, NV oder AMD, die Prioritäten haben sich in den letzten Jahren nunmal deutlich verändert in Richtung KI wie wir alle Wissen.
Dem kommen aber zusätzlich noch weitere "erhebliche" Faktoren hinzu die viele nicht im Kopf haben und auch nie wirklich zur Diskusion stehen.
Fangen wir mal damit an, das DX12 Games meist an sich sehr Ugly sind. Schaut man sich DX11 Games an, was diese grafisch boten im Verhältnis zum Leistungsbedarf, steht DX 12 massiv schlecht da. DX11 Grafikbomben wie zB die Battlefield / Battlefrontreihen und natürlich noch viele weitere sind Paradebeispiele die mehr als deutlich Aufzeigen wie problematisch DX12 in der Realität umgesetzt wird. Grafisch gibt es kaum Vorteile, die Overhead oder Shaderberechnungsvorteile verpuffen oft im nichts, im Gegenteil werden diese sogar so oft so schlecht umgesetzt, das diese mehr Leistungsbedarf / Vorbereitungszeit benötigen als DX11.
Außer einer Handvoll DX12 Games die wirklich auch grafisch davon profitieren und wo es auch gut optimiert ist, gibt es nicht, zumindest da wo man noch gegen DX11 vergleichen kann.
Im Gegenteil sind sogar immer mehr Games einfach nur noch Blurry mit noch schlechteren Texturen und unoptimiert die man als AAAA+X Titel den Gamern auf den Tisch rotzt.
Damit sind also nicht nur die VRam Thematiken gemeint, denn auch hier sieht man deutlich das die Spieleschmieden einen großen Anteil am kaum noch stillbarem Hardwarehunger haben.
Zu oft und gerne nimmt man die Grafikkartenhersteller in die Krtitik, statt "die Übeltäter hinter dem Spiel" was selbst auf FHD auf aktueller Hardware nicht rund läuft und die Hardware (inkl Energiekosten) schlicht völlig unnötig frisst.
Dann kommen die Anforderungen noch dazu, HDR/Dolby usw, 4K mit höheren Farbtiefen und Trillionen Herz vordern ihren Tribut, und das Expotentiell.
Das allein in Summe übersteigt schon längst den technischen Fortschritt und die Halbleitertechnik wird immer aufwändiger und damit auch teurer mit immer weniger tatsächlichen Leistungsvortschritt. Auch das gehöhrt zu Wahrheit dazu und muss bei vielen erstmal in die Köpfe.
Deswegen ist es auch nicht verwunderlich das der Weg hin zu Software und Ki gegangen wird um einen gewissen Ausgleich zu schaffen. Was natürlich auch sehr stark in die "Vergleichbarkeiten" von realen "Rohleistungswerten" einzubringen ist.
Dem steht zusätzlich als nächstes großes Problem noch die Ressurcen und Mengenabfrage (Nachfrage) im Weltmarkt gegenüber. Nicht zuletzt die Fertigungsmöglichkeiten und Konzernpolitiken, die durch Monopolisten wie zB TSMC usw auch Maßgeblich die technologische Angebotsabdeckung und Grundpreise bestimmen. Dazu gehöhren auch Landes- und Staatspolitken die mit Sanktionen, Steuern und Zöllen den Weltmarkt stark beeinflussen.
Eine Grafikkarte besteht eben weit mehr aus nur einem Teil, und nur mal ein Beispiel: Während AMD noch großzügig mit billigem GDDR6 um sich wirft, auch bei den kommenden GPUs, hatte NV ihren Karten schon teuren GDDR6x und jetzt 7 "gegönnt", der erheblich teurer und schlechter verfügbar ist. Auch sowas geht meist bei den Betrachtungen und Preisdepatten unter.
Und sicher, zu guter letzt will auch Intel, AMD und Nvidia "Verdienen", so läufts nun mal. Das soll natürlich gewisse Umstände wie NVs Powersteckerentscheidungen nicht entschludligen, keinesfalls.
In Summe findet kein "Endnutzer" diese Preisentwicklungen gut, ich auch nicht, wenn man aber mal nachschaut was eine 4090 in der Herstellung ohne GPU und GDDR6X Vram kostet (Stücklistenpreis im Netz zu finden) und dann noch die teuersten Posten für beides + Herstellungskosten, Entwicklungskosten inkl. Software, Marketting, Langzeitsupport (auch für die Spiele / Ki Entwickler) usw ist nach UVP gerechnet eigentlich keine so oft vorgeworfene "Abzocke" erkennbar, vor allem nicht wenn man obige Faktoren mit einbezieht und nicht immer gleich "Losmeckert".