.... denn die Benchmarks in 3.840 × 2.160 zeigen eine recht schwache GCN-Generation.
Es ist dann die Frage, ob man das - wie hier - an einer angeblich schwachen GCN-Architektur festmachen will oder aber vielleicht stattdessen am Unvermögen oder mangelndem Willen auf diese Architektur als Entwickler besser zu optimieren
.
Damals hat sich (Activision-)Blizzard ganz klar zu einer besseren GPU-Unterstützung von nVidia Produkten entschieden aufgrund des GPU-Marktanteils und mit nVidia als großem BlizzCon-Sponsor.
Die Annäherung im UHD/4K-Bereich von AMD/RTG an nVidia ist doch hauptsächlich durch eine Architektur-Annäherung seitens AMD/RTG mit RDNA1 hin zu nVidia zu erklären.
Vermutlich wird man bei Cyberpunk 2077 auch eine nVidia (Gameworks-ähnliche) Optimierung sehen, die den RTX-Sponsor für diesen Vorzeigetitel natürlich klar bevorteilen dürfte, was die Optimierung angeht (ähnlich wie bei der Hairworks-Implementierung des Witcher 3).
Ergo, ist der Entwickler oft der springende Punkt und wie (einseitig) dieser optimiert (ein gutes anderes Beispiel dafür ist das aktuelle Anno, welches relativ grottig auf AMD/RTG Karten läuft im Vergleich zu denen von nVidia) und nicht welcher Grafikchip von welchem Hersteller.
Ganz auffällig wird es dann, wenn plötzlich eine Karte der kleineren Leistungsklasse (bspw. Mittelklasse) die einer höheren Leistungsklasse (bspw. Oberklasse) des anderen GPU-Entwicklers zu vergleichender Generation in der Leistung überholt.
Dadurch lässt sich auch die hohe Volatilität in den Spieletests erklären, durch bessere oder schlechtere Spiele-Entwickleroptimierung auf einen Chip-Entwickler bzw. dessen Chupsrchitektur und nicht weil ein Chip/eine Chiparchitektur unbedingt so viel besser wäre als die andere in der gleichen Leistungs-/Preisklasse.