@Laphonso
hast du auch mal den inhalt deiner links gelesen? da steht nichts drin, was deine behauptungen stützt.
hier:
https://gamedev.stackexchange.com/q...icrosoft-prevent-developers-from-using-vulkan
wird nur die frage diskutiert, ob M$ über EULAS oder andere verträge das nutzen von dx12 zwingend vorschreibt. das geht hier an der diskussion vorbei, da sowas hier nie erwähnt wurde.
und hier:
https://www.reddit.com/r/linux/comments/81114g/why_do_game_companies_still_use_directx_instead/
wird auch in jede richtung argumentiert - eine eindeutige conclusio wird auch hier nicht getroffen. zumal das auch nur irgend ein reddit thread ist. das ist als quelle nicht mehr oder weniger wert als die diskussion hier im forum.
allerdings ist man sich einig, dass dx12 und vulkan sehr ähnlich sind, was ja auch so ist.
microsoft ist übrigens auch in der khronos group, d.h. die wissen genau was abgeht und haben sogar stimmrechte, und man hätte sich auch dafür einsetzen können, dx12 in einem frühen stadium mit vulkan zu fusionieren. man hätte gemeinsam an einer modernen api arbeiten können, die viele kompatibilitätsprobleme lösen würde. aber das löst für M$ garkeine probleme. die wollen ein monopol mit windows + xbox + windows store. man hat nix davon andere hersteller mit einer gemeinsamen API zu unterstützen.
wann immer vulkan einen schritt nach vorne macht, zieht microsoft mit dx12 aggressiv nach. der große startschuss für dx12 war die vulkan version von doom2016, die jede einzelne der 5 zu der zeit verfügbaren dx12 umsetzung lächerlich schlecht hat aussehen lassen. das hat mal so überhaupt nicht in die argumentation "win10 bestes gaming windows dank dx12" gepasst und war für microsoft wohl sehr unangenehm.
und jetzt die zusammenarbeit mit nvidia für DXR - hier steht für mich ganz klar dahinter, dass beide (nvidia + microsoft) die jeweilige konkurrenz (amd + intel für nvidia und vulkan für microsoft) mit diesem vorstoß technologisch ausbooten wollen. nur wenig hat vor turing darauf hingedeutet, dass real time raytracing jetzt das ding der stunde ist - viel eher sieht das danach aus, als ob microsoft & nvidia DRX/RTX pushen wollten, damit über die marktmacht der beiden ein neuer "standard" etabliert wird, bei dem die konkurrenz einen technologischen nachteil hat, da hier schlicht nichts in die richtung investiert wurde.
hier muss auch mal world of tanks erwähnt werden, denn hier hat
intel bei der raytracing umsetzung mitgeholfen - ganz ohne microsoft DXR und nvidia RTX, da DX11.
https://www.computerbase.de/2019-10/world-of-tanks-encore-rt/
hier werden nur die schatten per raytracing berechnet - das selbe gibts auch mit DXR und RTX bei shadow of the tombraider.
https://www.computerbase.de/2019-03...ing-dlss/#abschnitt_benchmarks_mit_raytracing
das kuriose ist jetzt, dass die raytracing performance der 2070 in world of tanks und shadow of the tomb raider sehr ähnlich einbricht. höchtes raytracing = ~65% der performance ohne raytracing.
jüngstes beispiel:
https://www.computerbase.de/2019-10/cod-modern-warfare-test/2/
auch hier bricht die 2070 auf 72% der performance ein - ein delta von 7% zu sotr und wot.
sicherlich kann man das jetzt nicht 1:1 übertragen, dennoch bleibt da ein gewisser beigeschmack. zumal navi das raytracing sehr gut verkraftet, obwohl die karte mit echtzeit raytracing garnichts am hut hat. nvidia hätte das nämlich gerne mit pascal in einem anderen licht:
https://www.computerbase.de/2019-04/nvidia-pascal-raytracing-treiber/
shadow of the tomb raider nutzt die rtx und tensor cores, und world of tanks anscheinend nicht (laut CB artikel). wer erinnert sich noch an die raytracing demo von crytek, die auf einer vega56 gelaufen ist? da stellt sich doch die frage: inwiefern ist DXR + nvidia RTX ein technologischer, proprietärer affenzirkus? das erinnert mittlerweile doch schon eher an die gameworks tessellation - hier wurde ebenfalls über software eine hardwarelösung für ein bis dahin nicht existentes, selbst produziertes problem nötig gemacht.