Gschwenni schrieb:
Das hab i dir letztes mal scho widerlegt. Von 2015 sind nur 3 Spiele, zudem wird drauf geachtet dass Gameworks nicht aktiv ist.
was hast du widerlegt? du hast unbelegte behauptungen aufgestellt. die anzahl der spiele ändert nichts am argument: 2015er titel in einem gpu roundup 3 wochen vor 2018 - das muss jeder für sich selbst entscheiden. das ist so als würde man far cry oder half life 2 (2004) und crysis (2007) zusammen benchen und von der relevanz her auf eine stufe stellen.
zudem wird nur in witcher 3 explizit auf hairworks verzichtet.
gameworks wird ein ewiger streitpunkt bleiben. ich bin absolut der meinung, dass ein nvidia gesponsorter titel mit tesselliertem wasser nicht sonderlich weit von "waveworks" entfernt ist, auch wenn hier nicht "gameworks" drei mal beim start beworben wird. und wie weit dann unsinnig stark tesselliertes gelände (siehe andromeda/wild lands) von gameworks entfernt ist, wenn tesselliertes wasser gameworks ist, kann sich jeder selber mal überlegen. hinterher besteht das aktiv für gaming relevante gameworks programm hauptsächlich aus tessellationseffekten - hier dann in einem nvidia "optimierten"/"gesponsorten" titel tessellation von gameworks zu trennen ist 1. als außenstehender kaum leistbar 2. irgendwie an der praxis vorbei. deine beurteilung von "ist gameworks / ist kein gameworks" basiert doch rein darauf, dass sich jemand erbarmt hat das von seiten nvidia/entwickler auch öffentlich kund zu tun - was wirklich hinter der technik in einem spiel steckt, kann nur das entwicklerstudio offenlegen.
wer dann aber auf amd entsprechend schlecht performende titel + tessellation/nvidia in google eingibt, bekommt zu 90% die info, dass der titel nvidia gesponsort und tessellationverseucht ist.
ich weiß, selber weiterbilden ist manchmal schwer, deshalb:
http://lmgtfy.com/?q=anno+2205+tessellation
http://lmgtfy.com/?q=call+of+duty+infinite+warfare+tessellation
http://lmgtfy.com/?q=dishonored+2+tessellation
http://lmgtfy.com/?q=for+honor+gameworks
http://lmgtfy.com/?q=ghost+recon+wildlands+tessellation
http://lmgtfy.com/?q=mafia+3+tessellation
http://lmgtfy.com/?q=mass+effect+andromeda+tessellation
http://lmgtfy.com/?q=mirrors+edge+catalyst+nvidia+spiel
http://lmgtfy.com/?q=rise+of+the+tomb+raider+geforce+tessellation
http://lmgtfy.com/?q=shadow+warrior+2+geforce
http://lmgtfy.com/?q=watch+dogs+2+waveworks
ob gameworks hier wirklich der entscheidende aufhänger oder nur potentiell inkonsistente marketing nomenklatur ist, kann jeder mal mit sich selber ausmachen; das ändert aber nix daran, dass die kombination nvidia + tessellation in den allermeisten fällen dazu führt, dass das spiel auf amd bescheiden läuft. ob das jetzt "waveworks" ist oder "einfach nur tesselliertes wasser", ist haarspalterei.
Gschwenni schrieb:
Nvidia unterstützt mehr Spiele als AMD unterstützt, also gibt's auch mehr davon.
Gibt ja kaum was andres als Directx11 am Markt.
"unterstützen" ist n sehr neutrales wort für das, was nvidia macht, um sich im markt festzubeißen. die optimierung auf nvidia ist hier dann natürlich die logische folge von 70-80% marktanteilen über die dauer von mehreren jahren.
durch die verbreitung ist auch nvidia dementsprechend in der position die entwicklung zu bremsen.
Nvidia’s Distinguished Engineer Tom Petersen
“We don’t know much about Mantle, we are not part of Mantle. And clearly if they [AMD] see value there they should go for it. And if they can convince game developers to go for it, go for it. It’s not an Nvidia thing. The key thing is to develop great technologies that deliver benefits to gamers. Now in the case of Mantle it’s not so clear to me that there is a lot of obvious benefits there.”
http://www.dsogaming.com/news/nvidi...will-not-support-it-no-real-benefit-using-it/
keine bindung an microsoft wäre mal n anfang - aber dann würde man ja alle vorteile von schon geleisteten DX optimierungen aufgeben.
haben sie bei dx9 gemacht, bei dx10 und jetzt bei dx11 - weil nvidia immer nach hinten optimiert und amd/ati ihre hardware nach vorne ausrichtet.
When Valve and ATI came together to show us the first inklings of Half Life 2 performance last year, it did not look pretty for NVIDIA. NVIDIA’s highest end card at the time, the GeForce FX 5900 Ultra, could not even outperform a Radeon 9600 Pro in most tests – much less anything from ATI at its price point. Even though we haven’t shown it here (that’s coming in Part II), the situation has not changed for NVIDIA’s NV3x line of GPUs – they still must be treated as DirectX 8 hardware, otherwise they suffer extreme performance penalties when running Half Life 2 using the DirectX 9 codepath.
https://www.anandtech.com/show/1546/14
prominentestes beispiel ist das entfernen des dx10.1 supports für assassins creed, der amd/ati einen performancesprung verschafft hat (20% mit AA), nvidia aber nicht das nötige hardware level supportete - und da ubisoft und nvidia verheiratet sind, ist der dx10.1 support eben ersatzlos gestrichen worden - mit einem folgepatch entfernt und nicht wieder eingefügt worden.
https://www.bit-tech.net/news/tech/ubisoft-caught-in-assassin-s-creed-marketing-war/1/
Gschwenni schrieb:
Auf den andern Seiten is die Leistung von Vega auch leicht unter ner 1080, kanns also ralle sein welche Spiele du da nimmst. Im Großen und ganzen ists überall dasselbe.
Du suchst nur nen Sündenbock fürs maue Abschneiden der VEGA.
zwei dinge:
1. ist die aussage kompletter blödsinn. wer mal über den grünen tellerrand schaut wird feststellen, dass im schnitt selbst stock vega64 schon einen sehr soliden vorsprung vor der 1080 hat, nur ist der nvidia parkour auf CB nicht wirklich neutral.
2. verwurstet CB alle daten aus dem nvidia gpu parkour in alle möglichen graphen. solange anno und konsorten in die gesamtwertung einfließen (preis-leistung, watt-performance) und 2/3 aller spiele nvidia gesponsorte titel sind, kannst den ganzen krempel in den rauch pfeifen. es bleibt auch die frage, wieso immer nur fps in % und nicht fps in fps angegeben werden. ich würde gerne wissen, welche fps ich mit gpu X rausbekomme anstelle von "70% einer 1080 ti".
naja, wie auch immer, ich fahre fort:
1080 fe vs vega 64 referenz.
titel in denen vega in wqhd schneller ist, mit % angabe
Aots: 13%
BF1: 8%
DE:MD: 1%
DOOM: 12%
F1 2016: 7%
GoW4: 2%
TW3: 9%
titanfall 2: 6%
https://www.computerbase.de/artikel...te.2487/#diagramm-performancerating-2560-1440
wer bis hier her aufmerksam mitgelesen hat, wird festgestellt haben, dass wir jetzt alle CB gpu parkour titel durchexerziert haben, und alle titel, die nvidia sponsoring bei der googlesuche ausspucken, auch gleichzeitig die einzigen titel sind, in denen vega gegen die 1080 verliert.
oder andersherum formuliert - bei den titeln ist keiner dabei, der gpu hersteller neutral entwickelt wurde und gleichzeitig auf amd schlechter läuft.
eine große positive ausnahme gibts allerdings: titan fall 2. desweiteren bleibt zu erwähnen, dass the witcher 3, wie bekannt, ohne hairworks gebencht wurde und cod iw einzig in wqhd einen positiven ausschlag der vega zeigt - ansonsten auch hier gewohnt durchwachsenes bild - die zahlen gehen hier zwischen den unterschiedlichen auflösungen aber so weit durcheinander, dass man sich mal überlegen sollte, ob das spiel wirklich als performance index titel geeignet ist.
wolfenstein nc: 27%
https://www.computerbase.de/artikel...-compute-2560-1440-anspruchsvolle-testsequenz
battlefront 2: 15%
https://www.computerbase.de/artikel...-2#diagramm-star-wars-battlefront-2-2560-1440
hitman: 15%
https://www.hardwareluxx.de/index.p...-vega-64-und-rx-vega-56-im-test.html?start=18
hier gibts leider nur fps:
https://www.techspot.com/review/1476-amd-radeon-vega-64/
vega 64 im schnitt etwas langsamer? ja in nvidia spielen im kleinen CB gpu parkour kosmos. aber ich weiß doch, jeder kauft sich ne 500€ gpu um anno0815 zu spielen, wen interessieren schon moderne spiele mit moderner technik
Gschwenni schrieb:
Nö, für Performance/watt wird Witcher 3, Doom, BF1 und Rise of Tombraider genommen.
BF1 und Doom liegen AMD super, Witcher 3 ohne Gameworks auch, Tombraider bissl schlechter.
danke für den hinweis, dass es scheinbar (!) nur die 4 spiele sind - daraufhin habe ich mir mal die daten genau angeschaut, die CB hier erhebt:
die gtx 1080 in doom @4k im gpu bottleneck mit 148W verbrauch ist schon eher was fürs kuriositätenkabinett. nvidias tdp für die 1080 sind 180w - und dann soll die im größtmöglichen lastszenario 150w verbrauchen? das glaube ich nicht, tim.
ich habe deshalb bei toms hardware nachgeschaut, was die hier für eine leistungsaufnahme gemessen haben - und im zweifelsfall bin ich eher auf der seite von TH.
https://www.tomshardware.de/vega-be...ahme-temperaturen,testberichte-242382-16.html
https://www.tomshardware.de/nvidia-...fikkarten-roundup,testberichte-242137-20.html
https://www.computerbase.de/artikel....60541/seite-6#abschnitt_performance_pro_watt
https://www.tomshardware.de/vega56-...izienz-lautstarke,testberichte-242384-15.html (nicht in der grafik)
-16w für 1080FE, -19w 1080 gaming, +15w für vega 64, +10w für vega 56.
die abweichung nach unten + oben gibt n ordentliches delta von 26w für 1080fe vs v56 und 34w für 1080 oc vs vega 64 - nur "messungenauigkeit" oder messfehler oder wie man das nennen will.
das ist dann die basis für amd bashing auf CB - 60W mehrverbrauch bei gleicher leistung sind dann "welten" - aber wie siehts hier denn dann mit 35w delta aus dem nichts aus? auch welten? oder egal?
bei den daten gibts wohl kein richtig oder falsch, aber man sollte wirklich langsam mal aufhören die ergebnisse auf CB für bare münze zu nehmen.