blackiwid schrieb:
Solche Heuristiken zu benutzen ist halt im Zweifel aufwendiger als ein kurzes Programmname == XY, aber es ist einfach besserer Code.
Ich würde eher sagen, es ist riskanter Code. Gerade bei einem Treiber und für die Performance entscheidendem Element würde ich auch nicht auf eine Heuristik für die Erkennung setzen, wenn es mit dem Name der ausführbaren Datei und evtl. einem Hash-Wert eine ganz einfache und simple Methode gibt. Das fällt für mich unter besseren Code. Und wie schon erwähnt wurde, die Performance durch Treiberoptimierungen kommt vor allem aus dem Austausch und der Verbesserung der Shaderprogramme. Da die von jedem Entwickler für jedes Spiel individuell geschrieben und verwendet werden, wird es auch nicht viele Überschneidungen zwischen unterschiedlichen Titeln geben.
Demon_666 schrieb:
Es gibt imho nur zwei Möglichkeiten:
1. MS und Relic wollen aus verschiedenen Gründen AMD nicht vernünftig supporten (Scheint sich bei MS irgendwie abzuzeichnen)
2. Die Programmierer sind unfähig.
Andere Entwickler bekommen das deutlich besser hin. Es kann also kein systematisches Problem der HW/Treiber sein.
Es kann natürlich sein, dass Relic vor allem GPUs von Nvidia in den Rechnern stecken hat, aber das kann ich mir nicht vorstellen. Zudem liefen die vorherigen Spiele von denen auch relativ gut oder gar besser auf den Radeons, zum Beispiel Dawn of War 3.
Von daher vermute ich zum einen, dass die Essence Engine weiterhin sehr positiv auf Rechenleistung reagiert, was die Ampere-Architektur von Nvidia der RDNA2-Architektur voraus hat und auf der anderen Seite ist es die erste Implementierung von DirectX12 in der Essence Engine, evtl. haben sich dabei einige Bugs eingeschlichen, die durch den kommenden Patch beseitigt werden und evtl. erst durch Mithilfe von AMD beseitigt werden konnten.
Flare schrieb:
Ich sage: "Ampere läuft verdächtig viel besser als Turing, Pascal und alle Radeon"
Es ist sehr unwahrscheinlich, dass zufällig Alles andere so viel langsamer rechnet als Ampere.
Liegt vermutlich an der massiv gesteigerten Rechenleistung, die wie früher bei AMDs GCN in den meisten Spielen nicht durchschlagen kann. Eine 6800XT hat 18,57 TFlops, eine 3080 29,77 TFlops.
Hektor26 schrieb:
Das ist die Revanche für das von AMD gesponserte und mies optimierte Far cry 6, genau richtig so und verdient!
Wo der 3080 und sogar der ti plötzlich der Speicher nicht reichte für die HD Texturen.
Ich sehe nicht wie AMD dafür verantwortlich sein kann, dass Nvidia seit Jahren auf Kosten des Kunden am VRAM spart und dies nun mal auch abseits von Raytracing in einem Spiel mit optionalen HD-Texturen deutlich wird.
Ich finde es eher schade, dass es nicht noch mehr HD-Pakete für Spiele gibt, bei denen eine 6800 oder 3090 von dem vorhanden Speicher profitieren kann. So bleiben alle auf dem Konsolen und Last Gen Niveau hängen.