@Moriendor
FFXV ist ein gameworks bugfest:
https://www.gamersnexus.net/game-be...ous-misleading-benchmark-tool-gameworks-tests
und hellblade ist zwar ein tolles spiel, aber technisch für radeon eine absolute katastrophe. und das liegt nicht an den gerne gescholtenen amd treibern, sondern an den entwicklern (indie) und der UE4. das spiel ist als benchmark ungeeignet.
http://bfy.tw/LDDU
ich habs durchgespielt und von den letzten 60 minuten nichts mehr mitbekommen, die fps sind im letzten drittel des spiels immer weiter eingebrochen mit heftiger werdenden rucklern, bis zum endfight mit 8 fps und regelmäßigen 1 sekunde langen hängern und einem abspann, in dem der ton eine minute schneller war, als die ingame cutscene, weil das ding nur noch vor sich hingeruckelt hat. und ich habs nach dem sogenannten "amd fix" gespielt.
und mit "alt" meine ich folgendes: das spiel wurde mitte 2017 released, das ist schon eineinhalb jahre her - wieso jetzt plötzlich als benchmark? in dem spiel kann man nicht mal selber savegames laden - das ist ein lineares ding von vorne bis hinten, in dem man nur "weiterspielen" kann. super tolles spielkonzept aber einfach kein benchmarktitel.
wie wärs mit strange brigade? vulkan+ dx12 - oder forza horizon? erster exklusiver dx12 titel. nein, man nimmt ein buggy UE4 titel aus 2017 und eine nvidia techdemo. dafür hab ich kein verständnis.
und generell zur UE4:
https://www.computerbase.de/artikel...end.62822/seite-2#diagramm-fortnite-2560-1440
sogar von Epic Games selbst. die performance auf radeonkarten in dem titel für die optik ist einfach lächerlich.
und dazu kann man lesen:
"Epic developed Unreal Engine 4 on NVIDIA hardware, and it looks and runs best on GeForce."
Tim Sweeney, founder, CEO and technical director of Epic Games.
https://developer.nvidia.com/unrealengine
man sieht, dass es "best on GeForce" ist - ist halt meiner meinung nach ne ziemliche schweinerei von Epic - ich weiß ja nicht, was andere für ne meinung dazu haben, aber ich finde: wenn man die am meisten lizensierte engine entwickelt, sollte auch fair auf beide gpu hersteller optimiert werden - und das ist eben offensichtlich nicht der fall. hier lässt sich epic ganz schön von nvidia schmieren. oder glaubst du ernsthaft, amd würde nicht gerne eine bessere performance im meist gespielt spiel aller zeiten haben und es hängt nur an der inkompetenz vom amd treiber team?
wenn du glaubst, dass das zufall ist, kannst ja mal hier die liste durchgehen:
https://en.wikipedia.org/wiki/List_of_Unreal_Engine_games
und UE4 spiele suchen, die auf amd karten gut laufen, d.h. rx 580 > 1060, v56 > 1070 und v64 > 1080. ich hab die liste stichprobenweise durchgearbeitet und so viel sei gesagt: mehr als einen finger zum abzählen brauchst du wohl eher nicht - und den einen finger brauchst du für gears of war 4.
dem ganzen alten krempel steht dann sowas entgegen:
http://www.pcgameshardware.de/Forza...za-Horizon-4-Technik-Test-Benchmarks-1265758/
dann kann man behaupten, dass vega 64 auf 1080 FE niveau gut bedient sei und alles andere nur cherrypicks wären, oder man fängt mal an fragen zu stellen, wo die performance in den betreffenden titeln herkommt. offenbar schüttet da nämlich keiner vorm benchmark bissl elfenstaub ins gehäuse, damit v64 +30% performance bekommt. also muss vega auch irgendwie im stande sein eine 1080 ti ähnliche leistung abzuliefern. und weil man nicht magisch performance dazuzaubern kann, liegt der schluss nahe, dass in den anderen spielen einfach performance fehlt. und die antwort ist meistens: optimierung, gameworks, unreal engine 4.
playthestation schrieb:
Bist du nicht der Typ der in anderen Threads pausenlos behauptet AMD sei am Ende und bei GPUs hätten die nie wieder eine Chance?
Komisch... jedenfalls lässt dich das total unglaubwürdig erscheinen.
wieso unglaubwürdig? weil ich sagte, dass high performance radeon gaming gpus im aktuellen trend der lage eine aussterbende art seien und navi, meiner meinung nach, komplett überhyped wird, darf ich mir keine radeon gpu mehr kaufen?
nvidia bietet amd derzeit mit turing eine irgendwie ziemlich kuriose schwachstelle. das liegt aber nicht an amd, sondern das bein hat sich nvidia selber gestellt. nvidia könnte auch einfach die preise senken, freesync zulassen oder karten ohne raytracing bringen. gegen eine Gtx 2080/2070 mit freesync support für 550€/420€ geht vega einfach nur chancenlos unter. nvidia machts halt nicht - das liegt aber nicht daran, dass sies nicht könnten.
dank turing ist vega sogar ein extrem guter kauf zum aktuellen kurs - ist schon eine kuriose situation. bei vega vs. pascal wurde häufig pascal gekauft - gegen die neue generation von nvidia ist vega auf einmal der preis/leistungs hammer und die empfehlung in ihrem preisbereich - ohne, dass sich bei vega großartig etwas getan hat.
navi muss das ruder für amd herumreissen, die müssen aus der kurzen zeit an der sonne marktanteile und mindshare herausholen wie sau. die haben nicht lange zeit einen knaller abzuliefern, weil nvidia selbst ein 7nm süppchen kocht.
der knaller ist mir mit vega 64+15% mit nur 40 CUs in einem 150w tdp korsett aber ne ecke zu bunt. wo solls herkommen? wäre natürlich top, damit wäre das "ende" erstmal abgewendet - ein knallhartes comeback. aber ganz ehrlich? irgendwo ist da ein haken. entweder die performance oder die tdp und ich tippe auf die performance. für mich passen die puzzlestücke der geleakten daten nicht zusammen - mir fehlt die hardwaretechnische rechtfertigung für diese brutale performance. kann sein, das ergibt sich dann aus weiteren leaks zur architektur. aber stand jetzt ist das ding für mich so eher kategorie wintermärchen.
zudem ist navi eine radeon gpu, es ist eine GCN gpu. navi hat genau die selben schwächen wie polaris und vega und navi wird wie vega und polaris in gameworks spielen gegen die unmöglichsten nvidia karten verlieren. so wie fury x gegen die 1060 in shadow warrior 2 verliert, oder vega 64 gegen die gtx 1070 in ghost recon wildlands, so wird auch navi gegen irgendeinen blödsinn in irgendeinem blödsinn untergehen. und hier müsste die presse mal aufklärend einschreiten - das betrifft dann meinen beitrag weiter oben auf dieser seite. wie gut kann navi werden, wenn navi in FFXV, ghost recon wildlands, hellblade, destiny 2 und den ganzen anderen grünen kamellen gegen nvidia antreten muss? und das ist der kernpunkt. nicht die hardware.
navi wird sicher ne gute gpu - aber gut genug? noch keine amd gpu hatte es so schwer wie navi: nie war das ökosystem feindlicher gegenüber radeon karten: extremes ungleichgewicht der marktanteile, große verbreitung von gameworks, man hat die unreal engine übernommen, der unglaubliche einfluss von nvidias mindshare - speziell auch über influencer. siehe die rtx titan, die nvidia hat bei sämtlichen youtubern mal eben anteasern lassen.
nvidia knotet schon eine weile am strick für die branche, und mittlerweile hängt die branche schon am galgen, und der schemel ist angesägt. nvidia ist so kurz davor endgültig den sack zuzumachen. dann ist der pc die nvidia konsole - das ist ziel von nvidia. alle anderen aussperren. physx, gsync, unreal engine, gameworks, rtx - alles die selbe suppe.
und hier ist navi quasi die letzte chance für die ganze branche. falls navi scheitert und nvidia mit 7nm nachlegt ist der deckel drauf. da ändert dann auch intel nichts mehr dran.