Jesterfox schrieb:
Die Vega ist aber grad mal so schnell wie die 1080.
*in spielen, die die architektur nicht
richtig auslasten. das ist ein problem von GCN als gesamtes, amds marktanteilen und den spieleentwicklern, und nicht der generellen "leistungsfähigkeit". vega ist ein gutes stück mehr hardware als die 1080, natürlich braucht die mehr saft. dein vergleich würde stimmen, wenn vega mit den 500mm² chipfläche nur 8 tflops hinbekommen würde, tut sie aber nicht.
der vergleich mit der 1080 hinkt deshalb auch - der eigentliche gegner in hardware, verbrauch und tflops ist die 1080 ti.
jetzt ist es halt so, dass die leistung in vielen spielen bei vega nicht in fps umgesetzt wird, in manchen aber schon:
in wolfenstein und battlefront 2, sowie BF5 bspw. performen die beiden karten (vega 64 vs 1080 ti) recht ähnlich. so einen gleichstand von tflop zu fps gabs in den letzten jahren im duell nvidia vs amd selten, so gesehen ist vega sogar relativ gut. natürlich ist unterm strich die 1080 ti die bessere gaming karte, und es ist keine schande für vega hier öfters zu verlieren, aber der abstand ist, je nach spiel, nicht groß oder seltenst auch mal nicht vorhanden.
vega performt in diesen spielen nicht so gut, weil gerade eine günstige mondphase ist, oder aus glück, sondern weil vega doch tatsächlich auch mal gut performen kann, wenn die
puzzleteile software und
hardware ineinanderpassen. und dann stellt sich die frage: wieso ist das in den anderen spielen
nicht so. ist hier vega auf einmal schlecht geworden und geschimmelt? oder passt schlicht puzzleteil A nicht zu puzzleteil B?
und was hat eigentlich nvidia damit zu tun? dazu weiter unten mehr.
v_ossi schrieb:
Ach komm, jetzt machst du dich aber schon ein wenig lächerlich.
Wenn AMD an der Taktschraube dreht und dabei den absoluten und relativen Verbrauch (teilweise deutlich) steigert, ist das definitiv anderes zu bewerten, als wenn NVidia von Maxwell zu Pascal den Takt steigert aber der Verbrauch gleich bleibt und die Leistung massiv zunimmt.
maxwell zu pascal war ein shrink von 28nm tsmc auf 16nm tsmc.
fiji zu vega war ein shrink 28nm tsmc auf 14nm glofo/samsung low power plus, ein prozess, den samsung (von glofo adaptiert und "verbessert") für mobilprozessoren benutzt.
und jetzt die preisfrage: was macht vega mit niedrigem takt? sehr effizient sein - hat man hier wieder gesehen: die ewig gescholtene vega 56 braucht mit mehr performance und doppelt so großem die weniger als die rx590. das problem an vega ist, dass mit niedrigerem effizienten takt einfach nicht genug gaming performance für nvidia rauskommt (
puzzleteil+architektur). also wird vega hoch getaktet, was wiederum in der kombination von GCN 5 vollausbau und 14nm low power plus in dem verbrauch gipfelt, für den vega so gerne gescholten wird.
dazu noch folgendes nostalgisches - geschichte wiederholt sich:
https://www.tomshw.de/2016/01/11/ra...afterburner-untervolting-effizienzsteigerung/
die fury nitro läuft mit stock takt (so wie meine) auch mit 96mV zuviel auf der vcore - das ist unnötiger bonusverbrauch. es ist absolut möglich die fury mit stock performance auf das niveau einer 980 zu bringen. damit sind fury und gtx 980 gleich schnell und gleich effizient. hier nutzen amd und nvidia den selben prozess - aber eine andere architektur. (maxwell lässt sich besser übertakten und dürfte wohl die gpu "sandybridge" sein. meine fury lässt sich mit
stock vcore allerdings auch auf 1150mhz übertakten, was einem taktplus von 15% zur referenz entspricht - quasi aus der luft.)
aber in der performance fängt das dilemma für fury schon an: GCN ist auch hier, wie bei vega, zu breit, und dazu noch der mehr als untaugliche aufbau vom frontend - fury bringt unter FHD sogar nur etwa 90% der performance.
und jetzt gehen wir mal in der geschichte zurück und schauen uns an, was vor dem fury release 2015 mit den marktanteilen von amd passiert ist:
2011 kam bulldozer - 2011 kam ebenfalls sandy bridge - forschungs und entwicklungsgelder dann so:
da braucht man sich nicht wundern, dass fiji mit dem frontend einer midrange karte, anstatt einem eigenen passenden, kommt.
was hat jetzt nvidia damit zu tun? heise titelte 2013:
AMD Radeon R9 290X: Titan-Killer zum halben Preis
https://www.heise.de/newsticker/mel...0X-Titan-Killer-zum-halben-Preis-1984374.html
die schnellste single gpu karte der welt (R9 290x) wurde im darauffolgenden jahr mit dem maxwell release von nvidia mit einem marktanteil von 80% für nvidia quittiert. und dann wars aus.
seit hawaii hat amd nie wieder die performance von nvidia in der selben chipklasse erreichen können - man muss sich doch mal fragen, was dieses explosionsartige wachstum von nvidia ausgelöst hat - maxwell war im prinzip wie terascale RV770/870, nur mit big chip high end karte - die marktanteile von amd zu zeiten des "königs" 5870 sind dagegen ein huster - release ende 2009.
ja was hat denn nun nvidia damit zu tun? die marktführerschaft. nvidia hat gut vorgesorgt und letztlich mit den 80% marktanteilen die eigenen puzzleteile auf den tisch gelegt und alle haben mit nvidia gepuzzled - was amd gemacht hat, war damals wie heute eigentlich irrelevant. das hat natürlich zur folge, dass sämtliche spiele aus dem zeitraum für nvidia optimiert wurden, dazu partnerprogramme wie "the way its meant to be played", gameworks mit ganz harten bandagen, partnerschaften mit bspw. epic und crytek usw usf.
der bekannteste gameworks eklat der letzten zeit betrifft the witcher 3 - zu dem vorfall sagte ein CD Red mitarbeiter:
"Many of you have asked us if AMD Radeon GPUs would be able to run NVIDIA’s HairWorks technology—the answer is yes! However, unsatisfactory performance may be experienced, as the code of this feature cannot be optimized for AMD products.
https://arstechnica.com/gaming/2015...s-completely-sabotaged-witcher-3-performance/
jetzt wirft man gerne amd karten vor, dass sie schlicht eine schlechte tessellationsleistung hätten - das ist aber nicht der fall.
viel eher trifft das zu:
ah da fällt mir ein - wer sieht eine ähnlichkeit zum worst case aus der amd folie?
crysis 2 tessellation wireframe.
aber weiter mit hairworks:
und dann gibts noch tessellation, die nicht von nvidia kommt - das sieht so aus:
sub pixel tessellation verstopft effektiv die renderpipeline von GCN - hairworks in the witcher 3 läuft mit faktor 64, obwohl faktor 8 oder 16 schon ausreichend wären - sniper elite 3 verliert durch gute technische umsetzung auf hawaii nicht mehr leistung als auf kepler, zufall?
softwareseitig wäre also vorgesorgt, dass kein puzzleteil von amd mehr ins fast fertige puzzle passt.
zukünftig wird also jede radeonkarte durch das krebsartige auswuchern von nvidia in die spielestudios zu großen teilen auf nvidia spielen gebencht werden - das hat zwar einerseits eine ganz natürliche dynamik - das nachhelfen mit gameworks darf allerdings durchaus als kritisch betrachtet werden.
sprung: 2017 - vega release:
(ich habe übrigens damals schon gesagt: "wenn cb den parkour für vega nicht umstellt, wirds ein totaler verriss" - haben sie nicht gemacht - das ergebnis kennt jeder. damals dachte ich noch, dass ein gutes abschneiden von vega im interesse aller wäre, habe mich getäuscht.)
9/19 spielen - 47% vom ganzen parkours - wissen offenbar nicht mehr, was eine radeon gpu ist, und spucken so eine performance aus:
https://www.computerbase.de/artikel.../seite-4#diagramm-performancerating-2560-1440
der abstand von fury zur 1080 beträgt hier im schnitt von
9 von 19 spielen 69%.
zum gtx 1060 test in 2016 sah das noch anders aus:
https://www.computerbase.de/artikel...hnitt_benchmarks_in_1920__1080_und_2560__1440
beachtet dabei, dass die fury und die rx480 in genau diesen spielen nur 10% trennen.
um hier den selben abstand von r9 fury x zur 1080 zu schaffen, kann man nicht mehr als 5 absolut grottige spiele cherrypicken - alles andere
verbessert den abstand zugunsten von fury zur 1080 im vergleich zum vega test.
das bedeutet, der parkour hat sich von grottiger performance für radeon aus 20% des parkours auf grottige performance für radeons aus 47% erhöht - d.h. die 20% nvidia cherrypick von damals sind jetzt die hälfte vom parkour.
schauen wir uns den rx590 test an: hier müssen wir uns der rx580 annehmen, aber da die rx580 und fury hier ohnehin nur 5% trennen, lässt sich das relativ einfach skizzieren.
hier stellen schon 10 von 16 spielen,
63%, die selbe schlechte performance im verhältnis zur 1080 wie die schlechtesten 20% vor 2 jahren.
das ist das zahlenspiel, das auch navi verliert.
solange die presse genau diesen bullshit mitmacht und nvidia immer fein mehr und mehr mit dem eigenen spieleportfolio den hintern pudert, isses nur ne frage der zeit, bis amd die aussichtslosigkeit einsieht und nvidia im gaming das feld überlässt.
gustlegga schrieb:
Wirst du wohl endlich still sein...
ich will auch mal noch ne neue gpu nach der fury - bleibt die frage, obs uns vergönnt ist.