duskstalker
Admiral
- Registriert
- Jan. 2012
- Beiträge
- 7.990
Wolfgang schrieb:Warum machst du da so ein einseitiges "Wünsch dir was" drauß. Ich könnte auch sagen, dass Spiele, die auf AMD überdurchschnittlich gut laufen, schlecht optimiert sind und deswegen hier nix zu suchen haben. Darauf gehst du nur irgendwie nicht ein. Bei dir heißt es nur: Nvidia besser, schlecht optimiert. AMD besser, richtig so. Das das so nicht aufgehen kann, sollte dir auch selber klar sein.
du weißt selber, dass "pro amd" spiele in den meisten fällen eben nicht "schlecht" optimiert sind. wolfenstein läuft top auf nvidia, doom läuft top auf nvidia, forza horizon läuft top auf nvidia. der einzige unterschied ist, dass amd hier nicht läuft wie ein sack nüsse.
ich habe daten, die dafür sprechen, dass "pro amd" spiele in der überwiegenden mehrheit der fälle für nvidia genau so gut sind, aber pro nvidia spiele für amd und nvidia schlecht sind, nur für nvidia viel weniger schlecht als für amd.
für folgendes liegen folgende thesen zugrunde:
nvidia spiele skalieren schlecht über verschiedene performanceklassen, d.h. starke karten können sich weniger weit von den schwachen absetzen, das gilt für amd und nvidia, aber besonders für amd.
amd spiele haben in der regel eine viel gesündere performance-staffelung für nvidia UND amd. d.h. hier liegen unterschiedliche performanceklassen nicht innerhalb von 10-15%.
schlechte skalierung = schlechte optimierung.
das mal als einstimmung aufs thema.
ich bin jetzt hergegangen und habe anhand von kriterien ausgewählt, ob ein spiel "pro nv" oder "pro amd" oder "neutral ist".
neutrale spiele sind weiß hinterlegt, grüne für nvidia, rot für amd.
ich habe den abstand zwischen v56 und gtx 1070 als anhaltspunkt dafür genommen, welches spiel in welche kategorie gehört. da das schon eine weile her ist, weiß ich das nicht mehr genau, aber ich meine es waren jeweils 10%.
also vega 56 >10% schneller als gtx 1070 -> amd spiel
vega 56 und gtx 1070 +/- 5% = neutral
gtx 1070 >10% schneller als 1070 -> nvidia spiel
man möge mir verzeihen, wenn ich mit den zahlen hier nen fehler gemacht habe. es ist im prinzip auch wurst. es geht nur darum zu zeigen, nach welchem prinzip ich die spiele eingeteilt habe.
in folgendem graph habe ich die skalierung der grafikkarten zueinander vergleichen, jeweils "amd vs nvidia" und "amd vs amd" vs "nvidia vs nvidia".
zur erinnerung: grün hinterlegt: pro nv. rot hinterlegt: pro amd. weiß hinterlegt: neutral. wer meint das ist biased, kann ja mal abzählen, wie viele spiele jeweils in eine kategorie fallen.
man sieht bei den graphen in rot, wie groß der abstand von rx580 auf vega 64 ist und in grün, wie groß der abstand von gtx 1060 auf gtx 1080 ist. je länger der balken, desto weiter liegen die karten auseinander.
wir sehen hier, dass bspw assassins creed die schlechteste skalierung für nvidia hat. und wir sehen ebenfalls, dass nvidia in amd spielen (bis auf eine ausnahme) unglaublich gut skaliert, d.h. sich die gtx 1080 weit von der 1060 absetzen kann. was für amd in nvidia titeln eher nicht der fall ist.
1060 vs 1080 in nvidia spielen, durchn. abstand: 63,5%
1060 vs 1080 in amd spielen, durchn. abstand: 65,6%
rx580 vs vega 64 in nvidia spielen, durchn. abstand: 57,3%
rx580 vs vega 64 in amd spielen, durchn. abstand: 65,2%
und jetzt will ich mal wissen, wieso "nvidia spiele" fair sind, und "amd spiele" nicht, wenn nvidia in amd spielen besser skaliert als in nvidia spielen, aber amd in nvidia spielen schlechter skaliert.
auch steve von hardware unboxed hat sich in der richtung schon geäußert, aber ich finde das video auf die schnelle nicht. kernaussage ist: amd spiele laufen generell besser, nvidia spiele laufen schlechter.