Wadenbeisser schrieb:
Da wäre ich mir nicht so sicher denn in den sinnlos überzogenen Tesselationsfaktoren war nvidia dennoch schneller und die Tesselationsleistung wurde schon lange nicht mehr verglichen.
Muss auch nicht mehr wirklich verglichen werden. Mit der Tesselierung ist es inzwischen fast wie damals mit Anisotroper Filterung.
Ob man das nun zuschaltet oder nicht ist den heutigen Karten egal. Früher hat das richtig ins Rechenbudget geschlagen.
Die Tesselierungseinheiten sind mit Polaris deutlich aufgewertet worden. Seitdem gibt sich das nichts mehr.
Hat nur keiner weiter verfolgt.
Zuletzt hatte ich in der Erinnerung das man lediglich bis zum mittleren Bereich aufgeholt hatte. Bei der so gern gnadenlos überzogenen Tesselation, wo die Dreiecke schon kleiner als die Pixel wurden, waren sie dennoch führend.
Auch da haben die Karten schon länger einen so hohen vertex- Durchsatz, dass das nicht groß zum Tragen kommt.
Bzw. wichtiger- Die Einheiten sind sowohl bei Nvidia als AMD so stark, dass es da kein Thema mehr gibt.
Würde man irrsinnige Faktoren fahren, verlieren beide gleich viel-> Sinnlos.
Hatte ja weiter vorne ein par Videos dazu verlinkt.
Bei den Gameworks Spielchen waren dann auch noch so Geschichten drin wie das bestimmte Berechnungen anfangs nur auf gforce GPUs beschleunigt und bei der Konkurrenz auf die CPU ausgelagert wurden (z.B. einige Physik Berechnungen)
Genau- Aber da war GPU PhysX die Ausnahme. Das war hardwarebeschleunigt. Alle anderen Bibliotheken sind mit der gleichen Performance auch auf den Konkurrenzprodukten auszuführen.
was heute oftmals anders ist aber nach meinem letzten Wissensstand herrscht da dennoch nicht Gleichheit.
Kannst Du mit Assassins Creed Unity testen. Da ist PCS, HBAO+ und noch einige andere Gameworks- Dinge am Laufen. Da gibts keine Unterschiede mehr.
Es hat schon seinen Grund warum gerade bei den Gameworks Titeln die Geforce Karten gern mal besser abschnitten und die Radeons trotz Konsolen Versionen (ohne Gameworks...) erstaunlich schlecht liefen.
Spiele die allgemein nutzbare AMD Features nutzten liefen da meist deutlich neutraler.
Wie gesagt- Das war, weil AMD bei 2 Generationen an Karten einfach schwächere Recheneinheiten für bestimmte Zwecke hatte.
In Gameworks stecken aber keine "künstlichen" Bremsen. Ich hab die Bibliotheken mal auseinandergenommen.
Richtig performant geht anders, allerdings ist aber auch die Güte bzw. Berechnungsqualität recht hoch.
Dennoch wird da keine Karte bzw. kein Hersteller "ausgebremst", sondern es wurden die unterschiedlichen Stärken der Recheneinheiten herausgestellt.
Keine Vendor- Abfrage, keine Codepfad- Pfuscherei und keine proprietären Aufrufe...
Die Situation ist ein bißchen vergleichbar jetzt mit RTRT. Da hängt AMD einfach ein bisserl nach.
Und die Stimmen, die da Manipulation wittern bleiben natürlich nicht aus. Da tut man nvidia aber auf Softwareseite einfach unrecht.
Schon damals bei Witcher 3, wo es CDPR einfach versäumt hat, den Default- Wert bei Hairworks zu ändern.
Das war diese unsägliche Bremse, die sowohl nvidia- Karten und überproportional AMD Karten unnötig in die Knie gezwungen haben.
Danach hat AMD im Treiber einen Hotfix integriert und kurz darauf kam auch schon der Patch im Spiel selbst, wo man einen Regler für die Hairworks- Qualität hatte.
Da gabs im Forum schonmal eine sehr ausgedehnte Diskussion dazu, wo sich nachweislich keine der involvierten Firmen (nvidia, amd, cdpr) mit Ruhm bekleckert hat. Das war eher ein blöder Unfall bzw. Bug, wo sich die Firmen und die User anschließend gegenseitig mit Dreck beworfen haben.
Das bleibt nunmal im Gedächtnis hängen.
Genauso wie ich jetzt einem AMD nicht unterstelle bewusst die RTRT Werte in Watchdogs Legion zu manipulieren um sich in Benchmark- Messungen einen Vorteil zu verschaffen.
Da werden ein großteil der RT- Spiegelungen nicht berechnet und dementsprechend scheint die Performance deutlich zu Gunsten der AMD Karten auszufallen.
Inzwischen ist das Zeug alles so transparent und die Hersteller liefern einem so viele Hilfsmittel durch Profiler an die Hand, dass da ein Schwindel oder ein gezieltes Benachteiligen sofort ans Licht käme und einen Shitstorm epischen Ausmaßes nach sich ziehen würde.
Da ist es aber halt auch immer so eine Sache, auf was ich optimiere. Dirt 5 z.B. ist so ein Kandidat, der ganz auffällig viele Berechnungen über INT32 durchführt (war bei den vorhergehenden TIteln nicht so).
Und zufällig kann dann Ampere seine Vorteile nicht ausspielen. Ein Schelm, wer Böses dabei denkt.
Ich denke, da nehmen sich die Firmen gegenseitig nicht so viel, wie es oftmals den Anschein hat.