ThePlayer schrieb:
Ich verstehe das aber so das jetzt alle upscaling Technologien in jedem Spiel was DirectSR unterstützt dabei sind.
Nein, das steht da aber so nicht...
Da steht, dass DirectSR die von den Entwicklern erhoffte Schnittstelle zwischen dem Featureset der Hardware und der Engine/dem Spiel ist.
Aktuell muss ein Entwickler, wenn der DLSS will, die von seitens NV geschaffene Schnittstelle für DLSS bedienen. Wenn er FSR will, die von AMD und wenn es XeSS sein soll, eben die von Intel.
Zukünftig wird es dann so laufen, dass ein Spiel, was DirectSR supportet, einfach die DirectSR Schnittstelle anspricht. Der Entwickler hat dabei weiterhin die Wahl, hinten dran DLSS, FSR oder XeSS, alles oder nur einen Teil davon zu hängen. Und weiterhin wird es so sein, dass DLSS an NV Hardware gebunden sein wird, es sei denn, sie öffnen das irgendwann mal.
Entscheidet sich also ein Entwickler, DLSS udn sagen wir XeSS zu implementieren, wird DirectSR eingebaut und hinten DLSS und XeSS angedockt. Steckt dann eine AMD GPU im PC, wird man DLSS vermutlich gar nicht wählen können. Bei einer NV GPU hingegen schon. Vielleicht verzichtet man aber auch auf einen Wahlschalter und gibt bei NV GPU direkt nur DLSS raus. Und bei AMD oder Intel dann FSR oder XeSS.
cypeak schrieb:
es sei den die entwickler setzen von vorherein darauf dass ihre engines auch unter linux laufen...
Das eine hat mit dem anderen aber wenig(er) direkt was zu tun.
Bis auf die XBox verwendet nichts DirectX. Weder Nintendo noch die PlayStation. Das OS ist dabei auch gar nicht das Problem. Der Engien ist es bumms egal ob das jetzt Windows, Linux, BSD, MacOS, Unix oder sonstwas ist. Programmcode bedient eine Schnittstelle und diese muss funktionieren.
cypeak schrieb:
es ist ja nicht so dass direct x fertig vom himmel gefallen ist - es gibt einen grund dass man nun auf dx12 ist und nicht dx6.
erfahrungsgemäß steigt auch die schlaghzahl bei api entwicklung mit der steigenden interesse an einer api...
Naja, DX12 hat ewig und fünf Tage gebraucht. Man könnte sogar sagen, dass MS das irgendwie verzögert hat anstatt kontinuierlich an DX11 weiter zu arbeiten. Noch dazu dass DX12 effektiv sich vom Umfang her komplett gewandelt hat, weil DX12 mit 11er Featureset auch DX12 fähig ist. Das warten von MS ging soweit, dass sich Entwickler und Hersteller Alternativen überlegt haben. AMD hat bspw. Zeit in Mantle gesteckt, weil sie die DX11 Nachteile ihrer Implementierung nie in den Griff bekamen.
Ob die Schlagzahl der API Entwicklung mit dessen Interesse steigt, ist mMn fraglich. Denn es hängt vielfach davon ab, was die API sein soll bzw. sein will.
Eine Schnittstelle wie DXR will nichts anderes sein als Raytracing von der Hardware Featureseitig in die Software zu bringen. Eine Schnittstelle wie DirectSR möchte Super Resolution Features der Hardware dem Entwickler öffnen. Wenn das aber einmal da ist, ist es da. Was soll da dann noch dazu kommen? Neben dem Upscaling und Zwischenbildberechnung? Mir fällt nix ein, was die sich dann noch dazu einfallen lassen können, was die API Entwicklung weiter voran treiben würde? Das Feature ist wenn es tut, doch abgehakt?
Das war früher anders. Heute ist DX12 vom Namen immernoch DX12. Aber Featureseitig hat sich viel drum rum entwickelt. Früher zu den von dir genannten DX6 Zeiten, ja eigentlich bis DX11 inkl. hätte man eher ein DX13, 14, 15 erfunden und Features exklusiv daran gekoppelt. SM4 ist dediziert erst ab DX10 zu haben. SM3 ist dediziert erst ab DX9c zu haben. Tesselation mit DX11 bspw. auch. Der R600 von 2007 konnte das schon in Hardware. Nur hat es Niemand genutzt, weil das API Konstrukt sehr starr war.