KlaraElfer schrieb:
Auf dem Basis wie duskstalker arbeitest du auch. Einfach aus Unwissenheit und Vergrämtheit und mangels Bereitschaft die objektive Wahrheit zu akzeptieren, unbestätigte Gerüchte oder Unterstellungen zu verbreiten.
du hast das zitat gelesen, oder?
geh doch mal bitte unreal engine 4 benchmarks durch, bevor du mir unwissenheit vorwirfst - ich habs gemacht. mir ist genau ein spiel bekannt, in denen radeon karten normal performen (gears of war 4). und das ist eben in der absolut überwiegenden mehrheit der titel nicht der fall. das problem ist die einseitige optimierung der engine (runs best on geforce). nur sekundär die amd hardware, oder auf was man das sonst noch schieben will.
in der fair optimierten frostbite engine performen sogar unter dx11 amd gpus sehr gut. man kann auch GCN so ansprechen, dass unter dx11 sehr gute fps rauskommen. offenbar ist das möglich. wenns hier geht, wieso gehts nicht auch wo anders? und dann fällt einem gears of war 4 ein - auch hier bekommt man akzeptable performance zusammen, wenn man will. das game kommt aber nicht von epic sondern black tusk studios.
es klemmt am
software support seitens des studios und der engine, und nicht an der architektur.
sicherlich, eine bessere (gaming) architektur könnte besser performen. aber auch eine andere (amd) architektur als GCN braucht optimierungen. das werdet ihr in gewissem rahmen bei navi (GCN mit anpassungen) und vorallem bei arcturus (next gen) schon noch selber feststellen. hier wird sich das problem nämlich nicht von geisterhand im nichts auflösen.
und dann alle wieder so "oohhh typisch amd, haben sies wieder vergeigt, architektur XY ist voll schlecht, ineffizient".... ich frag mich, wieviele gpu releases man hier noch braucht, damit sich endlich mal ein lerneffekt einstellt. kann man wirklich so blind durchs leben laufen um hier kein muster zu erkennen?
und intel hat das selbe problem. die kommen nämlich auch nicht einfach daher und stoßen nvidia vom thron. die werden mit ihrer ersten generation mit neuer architektur und komplett ohne optimierungen schön am tabellenboden rumkrebsen, desseidenn raja macht hier gcn 2.0 und profitert von den amd-optimierungen.
auch ryzen brauchte software anpassungen, und das obwohl intel bis auf so compiler-schweinereien keinen einfluss auf das software ökosystem hat - nvidia bei gpus aber ganz massiv - wie man an gameworks, UE4, physx und rtx sehen kann.
RTX + DLSS gibts nicht deshalb, weil nvidia es nicht weiter ertragen kann, dass die armen gamer ohne raytracing auskommen müssen, sondern die wollen sich intel (und amd) mit einer software mauer vom hals halten. nvidia hat nur gpus, intel und amd haben beide noch cpus - das ist eine relativ unangenehme tatsache für nvidia - und die werden alles dafür tun ihre stellung zu erhalten und auch dedizierte gpus (ihr einziges geschäft) relevant zu halten.
KlaraElfer schrieb:
Der Redakteur hat zu der Unterstellung Nvidia-Spiele zu bevorzugen schon ausreichend Stellung bezogen und mit seiner Erfahrung die Aussagen von duskstalker bereits widerlegt.
wolfgang kann mit seiner meinung nichts widerlegen, er hat sich in den meisten aussagen selbst widersprochen. den status eines igor wallossek oder ian cutress hat wolfgang lange nicht. wolfgang hats bis jetzt nicht geschafft mit einem undervolt extra performance aus einer vega 64 zu ziehen. und volker bencht in einem gpu bottleneck einen i3 an die tabellenspitze. eine weitere sternstunde war das ryzen review mit der "nicht austricksbaren physik", die hinterher doch ein temperaturoffset war. die zwei würden bei mir höchstens reviews für mousepads schreiben.
KlaraElfer schrieb:
Wem sollte ich also mehr glauben? Wolfang Andermahr, der seit Jahren seine Tests macht, oder euch?
les mal mehrere verschiedene publikationen und bilde dir selber ne meinung. anandtech und tomshw.de sind zwei gute adressen. das rundet man perfekt mit hardcore-oc ikonen wie the stilt, buildzoid, der8auer oder 1usmus ab. und dann kannst du dir selber die frage beantworten "sollte ich wolfgang glauben?".