KlaraElfer schrieb:
Man kann es schon als Marketingentscheidung sehen, wenn man aber prinzipiell neutral eingestellt ist - also ohne Unterstellungen arbeitet, Unterstellungen, wie man es von dir gewohnt ist nicht belegt, dann ist die Öffnung von Raytracing für ältere Karten genau das was es ist - eine Pflege der Userbase und eine Erweiterung der Nutzerbasis, auch das dann langsamer laufen wird, so kann man mal reinschnuppern und schauen ob es sich optisch lohnt oder eben nicht lohnt.
ich habe die letzten 20 jahre nicht gepennt oder leide an amnesie. für solche äußerungen, wie du sie tätigst, muss man für "neutralität", wie du sie forderst, schon auf 1-2 augen blind sein.
in der geschichte von nvidia und nvidia exklusiven technologien ging es nie darum, die branche nach vorne zu bringen - es ging nvidia immer nur darum, entsprechende technologien für den eigenen zweck zu missbrauchen, und hier gehts um marktmacht und schädigung der konkurrenz - nicht um fortschritt.
ageia physX war eine selbstständige firma & technologie, die jeder nutzen konnte, wenn er sich einen physx beschleuniger in den rechner gesteckt hat - hardware beschleunigte physik für jeden. nvidia hat hier die chance gerochen das ganze auszubeuten, hat ageia gekauft, die technologie in geforce karten integriert und radeon nutzer ausgesperrt:
https://www.hardwareluxx.de/index.p...physx-if-second-gpu-is-from-a-competitor.html
die nächste evolutionsstufe ist gameworks mit tessellation. tessellation ist eine schöne technologie, aber nicht so, wie nvidia diese technik ausnutzt, um amd zu schaden. die sub-pixel tessellation mit abartig hohen tessellationsfaktoren zielt nur darauf ab, die pipeline von radeonkarten zu verstopfen, während nvidia selbst in der hardware vorsorgt, bei diesen absolut wahnwitzigen tessellationsfaktoren nicht einzubrechen.
Nach vielen Jahren mehr oder weniger erfolgreicher Versuche ist die Tesselation auf dem PC endlich ausgereift. Spannende Spiele wie Metro 2033 zeigen bereits das Potential der Tesselation. In absehbarer Zeit dürfte Tesselation so wichtig und unerlässlich sein wie heute bereits das Pixelshading. NVIDIA hat dieses Potential früh erkannt und fördert die Entwicklung der Tesselation, indem wir von vornherein eine parallele Tesselations-Architektur zur Verfügung stellen. Das Ergebnis: Die Grafikprozessoren der GeForce GTX 400 Serie — für realistische Geometrie und Tesselationsleistung auf völlig neuem Niveau.
https://www.nvidia.de/object/tessellation_de.html
und das sagt die fachpresse dazu:
The first three scenes of the benchmark in Arkham Origins hammer tessellation. AMD’s driver allows us to manually define the tessellation level — changing that setting to x4 improves performance in the first three scenes of the test by 11%, from 134fps to 150fps. Total test performance improves by 7%, from 148fps to 158fps. AMD attempted to provide Warner Bros. Montreal with code to improve Arkham Origins performance in tessellation, as well as to fix certain multi-GPU problems with the game. The studio turned down both. Is this explicitly the fault of GameWorks? No, but it’s a splendid illustration of how developer bias, combined with unfair treatment, creates a sub-optimal consumer experience.
Under ordinary circumstances, the consumer sees none of this. The typical takeaway from these results would be “Man, AMD builds great hardware, but their driver support sucks.”
https://www.extremetech.com/extreme/173511-nvidias-gameworks-program-usurps-power-from-developers-
end-users-and-amd/2
hier ein screenshot aus batman und dem unnötig stark tessellierten cape.
und jetzt erklärt amd, wo die performance einbrüche bei radeon-karten bei starker tessellationslast herkommen.
und jetzt machts auf einmal sinn, solche meshdichten zu fahren. ich habe selbst als 3d artist in der spiele-entwicklung gearbeitet - und ich kann dir versichern, dass da niemand auf die idee kommen würde, eine solche menge an polies für sowas zu verschwenden - das batman cape würde auch gut mit 20% der polygone funktionieren.
crysis 2:
diese barrikade ist ein einfaches prop-modell - das ding ist mit 500 polies eigentlich gut bedient - nvidias tessellation bläst das teil total unnötigerweise auf ein paar millionen auf.
hier mal zum vergleich, wie das mesh (in quads) von einem qualitativ relativ hochwertigen 3d modell für einen hauptcharakter aussieht:
wer hier mal die augen aufmacht, wird feststellen, dass nvidia für ein absolut irrelevantes prop-modell das vielfache des budgets für ein sehr hochwertiges charaktermodell verschwendet.
die tessellationsleistung von radeonkarten ist seit jeher für eine angemessene nutzung absolut ausreichend. angemessen heißt, dass man tessellation nur da und in einem solchen maß einsetzt, wie es nützlich ist.
hier das erste spiel mit dx11 tessellation - ein "gaming evolved" titel - also von amd.
dx11 ist mit tessellation, dx9 ohne - bitte mal drauf achten, ob die radeonkarten "typisch" einbrechen:
ist schon eine weile her - ok, nehmen wir mal was aktuelleres. sniper elite 3 mit einer selbst programmierten tessellation, die nur an objektkanten genutzt wird, um objekte abzurunden, absolut genialer usecase - nicht um den polycount künstlich aufzublasen. bitte mal anschauen, wie hier die r9 290 gegen die gtx 780 abschneidet:
und dann gameworks tessellation:
wie der geneigte user weiß, nutzt the witcher 3 tess-faktor 64 für die haare von geralt - wir erinnern uns nochmal an die folie von amd und der sub-pixel tessellation - die ganz nebenbei keinen optischen gewinnn mehr bringt, sondern einfach nur leistung kostet.
dazu passt dann auch folgendes statement:
Auf Hardware des Chip-Herstellers AMD läuft The Witcher 3: Wild Hunt längst nicht so performant wie auf die des Konkurrenten Nvidia. Unterschiede bei der Bildrate machen sich insbesondere mit zugeschalteter Hairworks-Technologie von Nvidia bemerkbar. Für AMD ist der Sachverhalt klar: Im Gespräch mit Arstechnica beschuldigt AMDs Chief Gaming Scientist Richard Huddy Nvidia, die Performance absichtlich sabotiert zu haben. "Wir haben von Beginn an mit CD Projekt Red gearbeitet und ihnen durchgehend detailliertes Feedback gegeben. Rund zwei Monate vor Release [von The Witcher 3], fand der neue Gameworks-Code zusammen mit Hairworks Einzug in das Spiel - und es hat unsere Performance komplett sabotiert", erläutert Huddy.
http://www.pcgames.de/The-Witcher-3...ft-Nvidia-mit-Gameworks-Sabotage-vor-1159707/
als weiteres beispiel möchte ich noch ghost recon wildlands anbringen - das ding strotzt nur so vor gameworks-tessellation. tessellation godrays, tessellation turf, gelände-tessellation. was sagt die performance von amd gpus in dem titel?
http://www.pcgameshardware.de/Tom-C...55716/Specials/Benchmark-Test-Review-1222520/
ist doch ne recht einseitig geschichte - aber amd macht doch bestimmt das selbe, oder? hairworks vs. tress fx:
Daher verlieren beide Grafikkartenhersteller im Durchschnitt etwa gleich viel FPS, wenn TressFX hinzugeschaltet wird. Bei unseren Kollegen von
PCGH verlor die AMD Radeon HD 7970 GHz 28 Prozent an Leistung. Die NVIDIA GeForce GTX Titan verlor genauso viel, blieb vom allgemeinen FPS-Level aber hinter der Radeon.
[...]
Die große Kontroverse ist nun, dass AMD-Grafikkarten im Vergleich zu NVIDIA-Grafikkarten überproportional an Leistung verlieren, sollte man HairWorks aktivieren. In unserem
eigenen Benchmark zeigte sich, dass eine GTX 980 mit HairWorks von durschnittlich 82 fps auf 59 fps fällt. Eine Radeon R9 290X hingegen fällt von durschnittlich 65 fps auf nahezu unspielbare gemittelte 26 fps.
https://www.hardwareluxx.de/index.p...d-tressfx-und-nvidia-hairworks-im-detail.html
Jetzt kommt nach Gsync, das einfach nur unnötig teuer und proprietär ist, da nvidia typisch verkompliziert, und dem geforce partner program, nvidia mit raytracing an. und die leute feiern den technologischen fortschritt von nvidia. überlegt mal, wo wir sein könnten, wenn nvidia und amd die selbe adaptive sync technologie nutzen würden - wir hätten vor jahren schon eine flächendeckende verbreitung von adaptive sync monitoren gehabt - und jetzt, in 2019, muss man vereinzelt immer noch lesen "lohnt sich adaptive sync?".
nvidia ist teil der khronos group, die vulkan verwaltet - wieso wird hier nicht in kooperation mit den anderen auf vulkan für raytracing gesetzt? jeder würde davon profitiern, wenn vulkan dx12 ablösen würde - aber man kann sicher sein, dass microsoft und nvidia hier ein gemeinsames süppchen kochen.
seht ihr eigentlich nicht das muster? seht ihr nicht, was hier passiert? nvidia nutzt raytracing mit eigens dafür optimierter hardware nur dafür aus, andere damit auszusperren. die wollen sich intel und amd mit einer weiten verbreitung von RTX vom hals halten - keiner der anderen hat bis dato eine hardware, die das kann, was nvidia hier macht, weil das eigentlich absoluter wahnsinn ist. und nvidia hat hier mal wieder absichtlich den "tessellations"weg gewählt, in den man unmengen an leistung und spezielle hardware buttern muss.
die herangehensweise von crytek auf voxel-basis ist offenbar um einiges resourcensparender und läuft auch auf jeder hardware - so wie nvidia sich raytracing vorstellt, braucht man abartig große chips, mit einheiten, die nur die strahlenberechnung machen, und einem denoiser, der die immernoch viel zu niedrige sample-rate entrauscht.
es ist nett, dass nvidia 2018 realtime raytracing berechnen kann, und die methode, die sie nutzen ist faszinierend und kreativ - aber das ist kein dienst an der allgemeinheit - das ist ein werkzeug. jensen hat sich nicht mittags hingesetzt und hat sich gedacht "mensch, die lieben gamer müssen sich mit "fake beleuchtung" zufriedengeben, das müssen wir ändern" - sondern "wie können wir mit unserem know how intel und amd aus dem markt drängen".
letztendlich wird sich RTX wie jede andere proprietäre nvidia lösung irgendwann im sande verlaufen, aber einen schaden am konsumenten, dem technologischen fortschritt und der konkurrenz hat noch jede aktion von nvidia hinterlassen.
raytracing ja - gerne - aber nicht von nvidia.