ZeroZerp schrieb:
Mantle hat sich durchgesetzt, bei den Primitive Shadern haben sies erst garnicht versucht und wie oben geschrieben haben sie deren Demonstration von RPM selbst nie veröffentlicht.
Mantle per se hat sich nie durchgesetzt, sondern Vulkan, welcher dann durch die Khronos Group als offener Standard etabliert wurde. Mantle hat nur die Grundlage für die Khronos Group geschaffen um daraus den Vulkan Standard zu basteln.
Genauso wie Nvidia bei Adaptive Sync mitgewirkt hat....NICHT. Sie haben sogar die Eier gehabt den offenen Standard in ihren Laptop als ihr exklusives G-Sync zu vermarkten, so dreist muss man erst sein.
BTW:
Der Grund, warum es Mantle überhaupt gibt ist wesentlich trauriger, schließlich kam die API in 2013 und somit zwei Jahre vor DX12 und Vulkan erst drei Jahr nach Mantle. Nach 5 Jahren DX 11 und absolutem Stillstand bei M$ auch absolut nachvollziehbar.
Genau- Und später hat sich dann herausgestellt, dass der DX12 Support deshalb fallengelassen wurde, weil man damals die API nicht berherrscht hat und sämtliche Versuche mit einer deutlich schlechteren Leistung als mit DX11 gescheitert sind......
.....
Genau- Damit hast Du genau erkannt, warum man die ersten DX12 Umsetzungen irgendwann ad Acta gelegt hat. Der Aufwand war erheblich, die Kosten hoch und der Erfolg nicht vorhanden bzw. die Geschwindigkeit entgegen der Erwartungen durchweg schlecht. Wieso Geld verbrennen?
Damals wäre gut, auch wenn AoTS nur ein "Benchmark" ist, war es eines der Beispiele was gut lief, ebenso Sniper Elite. Ein aktuelles Beispiel ist Hitman 2, es hat warum auch immer nur DX11, der Vorgänger hatte beides und Zufälligerweise läuft DX 12 bei Hitman 1 performanter als unter DX11 sowohl beim 1er und 2er.
Das 2er sieht einfach schlechter aus und hat sogar eine schlechtere Performance, egal was die da angestellt haben, dass ist der totale Blödsinn. Die Basis vom ersten Spiel hätte man sicherlich Problemlos weiter benutzen können und eben neue Assets integrieren können, dass wäre absolut im Rahmen des machbaren gewesen und hätte kaum Geld gekostet.
Ein gutes Beispiel ist auch Battlefield 5, bis RTX oder DXR integriert wurden lief die DX 11 Version besser als die DX 12 Version, als ein gewisser Hersteller plötzlich mit RTX glänzen konnte, kam urplötzlich ein Patch für das Spiel der die DX 12 Performance über die der DX 11 API steigen lies...
Dass es performante DX12 Spiele gibt lässt sich jedoch nicht abstreiten, auch dass diese immer weniger werden und von der Oberfläche verschwinden, dass ist einfach eine komplett falsche Richtung in die alles geht.
Bei der eingeschläferten DX 12 zeige ich ganz Bewusst auf die Implementierung bei ARK.
Erst hieß es die API kommt im Oktober 2016, darauf hin folgt die Ankündigung, dass Nvidia mit den Entwicklern kooperiert und voìla hat man nicht mal ein Statement mehr gehört, es wurde einfach komplett totgeschwiegen nicht mal eine Begründung hat man genannt, ich bin mir ziemlich sicher, dass es andere Gründe gab und ich bin ich mir noch viel sicherer dabei, dass es daran liegt, dass Nvidia Karten in einem Spiel was konstant CPU-limitert ist durch den geringeren Overhead in DX11 besser darstehen als in DX12...
Abgesehen davon ist die Konsequent von Fortschritt, dass man altes mal stehen lassen muss und neues entwickeln muss, DX 11 gibt es sage und schreibe schon 10 Jahre, abgesehen davon, dass sich die Entwickler immer mehr auf die API festfahren sehe ich null Fortschritt und in 5 Jahren wird es auch nicht besser aussehen
außer Nvidia hat mal lust mitzumischen.. siehe DXR, jetzt wo man plötzlich DX12 für die eigene Technik braucht, regnet es erstmal ein Battlefield, Metro und Tomb Raider mit DX12....
Der User ist doch derjenige, der auch jetzt noch fordert, dass im Grafiksektor bitte keine Fortschritte gemacht werden sollen. Man will vom alten nur in schneller und höher aufgelöst.
Da ist nunmal dann kein Platz für Innovation. Sieht man ja schon daran, wie einige hier über das RTX Featureset herziehen.
...
Sei doch froh, dass sie was neues bringen. Sonst hätten wir noch 10 Jahre Stillstand.
So Spielereien wie DLSS können die sich getrost in die Haare schmieren, dass sind soweit nur Hardware gebundene Exklusivitäten.
Da bin ich sogar ehrlich und stehe eher auf der Seite von RTX, das bringt einen ähnlichen Fortschritt wie damals die Tesselation mit DX11, nur soll sich Nvidia bloß keinen Scheiß erlauben und wie damals unnütz hohe Tesselations Faktoren verwenden um die Konkurrenz zu manipulieren....
Ich sehe es schon kommen " Neues Batman mit unsichtbaren Rays verlangsamt AMD Karten...
"
Du könntest nicht weiter daneben liegen....
Du redest von einem Benchmark, welcher absolut nicht repräsentativ für ein richtiges Spiel ist.
Vllt. hat Nvidia für dieses Szenario einen Supercomputer mit genug Leistung organisiert nur um die Szene perfekt zu analysieren und entsprechend den Algorithmus nur für den Benchmark so zu optimieren, dass der Verlust der BQ nicht aufällt.
dh. wiederum, dass jedes Spiel mit derselben Technik ein schlechteres Bild liefern wird..