• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

Test Wolfenstein 2: Neuester Patch beschleunigt RX Vega um bis zu 22 Prozent

Nee noch mal klar gibt's x tausende PC HW und SW genau deswegen macht MS nur DX12 win10 only. Der rest halt NV GW und schon hast du ein paar Systeme weniger. Ach noch was die PS4 hat GNC 1,0 und die Pro GNC 1,3 soviel zur gleichen Architektur und bei der Xbox ist es noch Krasser GNC 1.0 eSRAM und GDDR5 auf GNC 1,4. Plus mehr CPU LC2. Also viel bon der Gleichen HW bleibt nicht mehr übrig wenn du dass Maximale auf der Xbox one X haben möchtest must du dafür extra optimieren.
Ergänzung ()

Die NV Treiber sind auch Schrott einer hat mal meine GPU geröstet mh soviel dazu herr cruse. ;-)
Selbst NV baut scheiße nur sagt da keiner was wie bei Intel.

Deswegen macht Intel jetzt zusammen mit AMD der Feind meines Feindes, tja da wird die Lederjacke ganz schön eng. 😁
 
Iscaran schrieb:
Hast du überhaupt verstanden was Vulkan ist ?

Im Gegensatz zu dir schon.

Iscaran schrieb:
Was kann AMD dafür dass es eine Architektur hat die Vulkan eben gut kann ?

S.o. Hat nämlich mit Vulkan nichts zu tun. Proprietär ist hier das Stichwort!
Ergänzung ()

Mcr-King schrieb:
Ach noch was PC Games mit GW sind optimiert aber halt auf Pascal und Maxxwell.

GW ist reiner D3D-Code, der als solcher keine proprietären HW-Features nutzen kann und deshalb auch nicht für irgendwelche GPUs optimiert ist. Der läuft auf AMD genauso gut wie auf NV (was übrigens schon vielfach durch Benchmarks bewiesen wurde).
Ergänzung ()

Gschwenni schrieb:
Bei dir klingts so als ob ne starke Tesselationseinheit was schlechtes wäre.

Ja definitiv macht das ab nem gewissen Punkt keinen Sinn mehr.

Das "Gesetz des abnehmenden Ertrages" gilt generell für alle qualitätsverbesernde Maßnahmen, z.B. auch für AF und AA. Keiner hat bis heute z.B 32xAF umgesetzt, weil der Mehrwert ggü.16xAF nahezu Null ist. Auch 16xAA bringt kaum noch mehr Quali als 8xAA. Dennoch sind solche Features nicht per se nutzlos oder unsinnig.
 
Zuletzt bearbeitet:
duskstalker schrieb:
ich erzähl dir jetzt mal ein offenes geheimnis: nvidia karten sind von der hardware her darauf ausgelegt lächerlich hohe polygonzahlen durch tessellation berechnen zu können.


http://www.nvidia.de/object/tessellation_de.html

als ehem. spieleentwickler, der sich mit der gesamten pipeline in der source engine auskennt und vorallem im bereich model / textur / shadersetup, kann ich dir sagen, dass es aufgabe nr.1 ist, den polycount von meshes so niedrig wie möglich und so hoch wie nötig anzusetzen. um polys zu sparen werden shader und texturen eingesetz (normal / bumpmapping, parallax mapping) die die plastizität und komplexität vom modell künstlich (ohne einsatz von geometrie) erhöhen.
ab einem gewissen punkt macht es KEINEN sinn mehr den polycount zu erhöhen, weil das modell ab menge X schon nahezu perfekt dargestellt wird.

2508803-5198764076-polygo.jpeg


bevor ein modell in eine spiele-engine importiert wird, sollte das modell auf den einsatz hin optimiert werden:

oKpIfrx.jpg


oben: ursprungsmodell, hauptsächlich in quads (polygone) mit insg. 105,549 dreiecken.

unten: triangulierte, optimierte version des selben modells in fast identischer "qualität" mit insg. 16,625 dreiecken.

das ist eine ersparnis um den faktor 6,5 für "die selbe" optik ingame.
http://polycount.com/discussion/153481/weapon-optimization

und jetzt kommt nvidia mit tessellation ins spiel: tessellation erhöht dynamisch den polycount nach einem vorher festgelegten muster. ansich eine gute technik - hatte amd ursprünglich auch als "trueform" als eigene technologie - das problem ist die umsetzung. die bläst nämlich auch gerne mal komplett irrelevante meshes auf.

das prominenteste beispiel ist crysis 2:

links mit tessellation, rechts ohne:

c2_tess2ypxjq.jpg


rechts sieht das mesh etwa so aus - grob geschätzt vielleicht 300-600 dreiecke:

concretebarrier_model_wire.jpg


und das ist das tatsächliche mesh der barriere mit tessellation:

crysis2-tesselated-mesh-barrier.png


geschätzt mehrere millionen dreiecke vs weit unter 1000 für minimalste optische unterschiede. die "high poly" barrikade hätte sich übrigens auf regulärem weg auch locker mit unter 2000 dreiecken bauen lassen.

wir haben hier eine verschwendung von rechenleistung der allerersten güte - hier wird der polycount um das tausendfache aufgeblasen - für NICHTS.

und wieso wird das so im spiel gelassen? weil nvidia karten von der hardware her dafür ausgelegt sind, das zu berechnen und daher weit weniger einbrechen als radeon karten.

hier noch etwas mehr tessellation zum kopfschütteln:

https://www.youtube.com/watch?v=IYL07c74Jr4

man sieht, wie der rechner ins schlucken gerät, wenn durch annähren der kamera an die geometrie durch gameworks tessellation der polycount aufgeblasen wird.

aber weil man anscheinend nägel mit köpfen machen wollte, hat man sich dazu entschieden, unter die gesamte map von crysis 2 tesselliertes wasser zu platzieren - das ist unter dem asphalt und verbraucht einfach nur rechenleistung, während man NIX davon sieht:

crysis2-tesselated-water-hidden.png


ABER es ist gut möglich, dass das bei nvidia nichtmal in die renderpilepine geht, sondern direkt verworfen wird, da nicht sichtbar:


https://developer.nvidia.com/content/life-triangle-nvidias-logical-pipeline

d.h. es wäre durchaus möglich, dass nvidia karten (ab fermi) das wasser nichtmals mehr berechnen, während amd karten erst ab vega gpu culling (backface culling) beherrschen und daher sämtliche geometrie in der szene berechnen.

nochmal zurück zur ursprungsfage - wieso ist bei crysis 2 wasser unter dem asphalt?

das einzige, was das wasser da macht, ist im prinzip rechenleistung kosten, und das vornehmlich auf amd karten. zufall? schlamperei? oder absicht? gegenfrage - hat schonmal jemand aus versehen einen schrank gebaut oder ein brot aufgeschnitten? genau so ist unter der map "aus versehen" wasser.

was sagt eigentlich CB zu tessellation? mass effect andromeda:



kurioserweise hat man sich aber dazu entschlossen:



https://www.computerbase.de/2017-03/mass-effect-andromeda-benchmark/

so küsst man nvidia auch die füße.

witcher 3 will tessellations level 64x, obwohl 16 praktisch die selbe optik bietet:

https://forums.geforce.com/default/topic/834905/real-reason-why-witcher-3-hairworks-reduces-fps/


https://www.golem.de/news/sabotagevorwurf-witcher-3-streit-zwischen-amd-und-nvidia-1505-114195.html

"ABER AMD HAT DOCH SELBST AUCH TRESS FX, IST DAS SELBE IN ROT!!!1"




https://www.hardwareluxx.de/index.p...d-tressfx-und-nvidia-hairworks-im-detail.html



die geometrieleistung von amd karten ist niedriger - aber ausreichend - deseidenn es ist allgemeiner konsens, dass man in jedem spiel straßenbarrikaden mit mehreren millionen polys braucht - ein vielfaches mehr als jedes andere objekt in der szene. die eine tessellierte barrikade hat so einen absurden polycount, dass es für alle modelle in half-life 2 reichen würde, möglicherweise zwei oder drei mal.



nein, weil amd gesponserte titel immer auf nvidia auch sehr gut laufen. nvidia gesponsorte titel fast nie gut auf amd. doom@vulkan ist DER amd titel schlechthin (zumindest wenn man nvidia fans fragt). und was ist mit doom? läuft auf beiden marken hervorragend. gameworkstitel? eher weniger!

trolololvrs6o.jpg

einer der interessanteren Beiträge nach langer Zeit. danke dafür
 
Wenn AMD-Karten bei GameWorks Titeln schlechter laufen sollen als NVIDIA-Karten, warum laufen die AMD-Karten dann in dem neuen AC schlechter, obwohl das kein GameWorks Titel ist?

Und warum laufen die AMD-Karten dann in The Evil Within 2 besser als NVIDIA-Karten, obwohl es kein GameWorks-Titel ist?
 
Zuletzt bearbeitet:
Seit wann funktioniert GW auf AMD also bei mir geht dass nicht weiß ja nicht was du für eine AMD karte hast GSync geht auch nicht auf AMD genauso PX.
 
Die Diskussion um unnötig hohe Tessellation und Gameworks ist ja durchaus valide, wäre aber zb erstes der mega über Flaschenhals hätte wohl AMD besser ihre 60% mehr Transistoren gegenüber GP104 in eine Über Tessellations Engine gesteckt. Nicht erst heute, schon damals. Hat man aber nicht, weil es wichtigeres gibt.

Ganz nebenbei ist es sicher nicht Gameworks in Crysis 2 was direkt teils unnötig hohe Tessellation setzt. Damals war das Feature noch neu, könnte mir durchaus vorstellen dass heute intelligenter damit gewirtschaftet wird. Das mag nach totalem Mesh aussehen aber können wir das überhaupt richtig deuten? Wenn man Teils Mio Polygone in ner Szene berechnet, was machen dann ein paar 1000 Triangles aus die hier im Video schon abgefahren aussehen? Es kann sein dass 95% der Polygone an ganz anderer Stelle sitzen. Is Crysis 2 10x schneller wenn man Tessellation deaktiviert?

Für mich als Consumer ist das doch eh total Banane. Jedes Studio hat Entwickler Maschinen, mal mit AMD, mal mit Nvidia GPU. Allein deswegen gibts schon Unterschiede. Genauso bieten AMD wie Nvidia entsprechende Programme an, agieren auch als Sponsor. Und wenn es nur das Intrologo oder ein Effekt im Game ist. Da kann man sich jetzt viel drüber auslassen und wie gesagt, normal dass Nvidia hier öfters vertreten sein wird da sie den größeren Anteil haben und zudem vergleichsweise in Geld schwimmen.

Mir ist ein ausgeglichener Markt auch lieber. Wenns defakto keinen wirklichen Unterschied macht ob Nvidia oder AMD Modell greif ich lieber zum Underdog. Problem ist aber dass der Unterschied teilweise nicht so klein ist wie er schon war. Vor allem die ganzen letzten 2 Jahre war Nvidia lange Zeit konkurrenzlos am oberen Ende vertreten. Da ist es absolut valide auch die entsprechenden Modelle zu kaufen, wieso auch nicht.

@duskstalker

Wenn du dir schon die Mühe machst, wieso wählst du dann nicht alle Gameworks Titel aus sondern nur ein Teil davon? Muss man das verstehen?

Eklatante Unterschiede sehen in meinen Augen anders aus:
2017-11-13 08_35_53-Greenshot Editor.png2017-11-13 08_37_31-Greenshot Editor.png

In 1440p gewinnen die Vegas ~4%, die 56 schiebt sich deswegen im Gesamtrating vor die 1070 Gaming.

Auch die anderen AMD Karten legen 2-4% zu. Krallt man sich jetzt nur Vulkan / DX 12 Titel raus (sind aber zugleich auch meist genau die Titel die AMD sponsored sind) wird AMD sicher nochmal ne ganze Ecke stärker sein, zumindest mehr als das Gameworks im CB Rating was ausmachen würde . Vorausgesetzt deine Gameworks Recherche zu den einzelnen Titeln passt.

Edit: auf absehbare Zeit dürfte eh wieder eine Erneuerung des CB Parcours anstehen, ggf dann mit Titeln wie ACO, Wolfenstein, COD, Battlefront 2. Da dürfte AMD dann auch wieder besser dastehen.
 
Zuletzt bearbeitet:
Freut mich für AMD, hoffe sie können den Erfolg in anderen Spielen fortsetzen. :)

War ja schon bei vergangenen Generationen so, dass die Karte erst reifen musste.
 
kisser schrieb:
Im Gegensatz zu dir schon.
S.o. Hat nämlich mit Vulkan nichts zu tun. Proprietär ist hier das Stichwort!
Lol ? Erklär mal was dein "proprietär" stichwort hier für eine Bedeutung hat. Stichwort bingo kann ich auch - aber ich habe LINKS geliefert die meine Stichworte belegen und untermauern und die Hintergründe darlegen.

Von dir kommt nur heisse Luft und das auch noch garniert mit falschen Aussagen und "fake news".

Ergänzung ()

GW ist reiner D3D-Code, der als solcher keine proprietären HW-Features nutzen kann und deshalb auch nicht für irgendwelche GPUs optimiert ist. Der läuft auf AMD genauso gut wie auf NV (was übrigens schon vielfach durch Benchmarks bewiesen wurde).
Dann bring doch den open source game works code ? Beleg das mal ? Auch die "Beweis" Benchmarks bleibst du schuldig.

Das "Gesetz des abnehmenden Ertrages" gilt generell für alle qualitätsverbesernde Maßnahmen, z.B. auch für AF und AA. Keiner hat bis heute z.B 32xAF umgesetzt, weil der Mehrwert ggü.16xAF nahezu Null ist. Auch 16xAA bringt kaum noch mehr Quali als 8xAA. Dennoch sind solche Features nicht per se nutzlos oder unsinnig.

Das hat auch niemand behauptet - auch duskstalker nicht. Vielleicht solltest du nochmal seine ganzen Argumentationskette lesen und verstehen.

@Krautmaster:
Die Diskussion um unnötig hohe Tessellation und Gameworks ist ja durchaus valide, wäre aber zb erstes der mega über Flaschenhals hätte wohl AMD besser ihre 60% mehr Transistoren gegenüber GP104 in eine Über Tessellations Engine gesteckt. Nicht erst heute, schon damals. Hat man aber nicht, weil es wichtigeres gibt.
Genau - siehe oben und wie auch von duskstalker ausgeführt.

10 Polygone = schlechtes Mesh
x100 = 1000 Polygone = geht so
x1000 = 1 Mio Polygone = fast realistische darstellung
x1000 = 1 Mrd Poylgone = kein Unterschied zu oben 1 Mio Polygone sichtbar - aber Rechenaufwand um Faktor 1000 erhöht.

Is Crysis 2 10x schneller wenn man Tessellation deaktiviert?
Ja 10x vielleicht nicht - aber deutlich schneller (vor allem bei derart über-tesselierten Arealen). Bei AMD kann man das ja zum Glück im Treiber einstellen.
In Crysis 2 z.B. ist der Performance Einbruch wegen des Massiven Tesselation non-sense auf Geforce KArten ca 20%. Auf AMD-Karten ca. 40%.
http://techreport.com/review/21404/crysis-2-tessellation-too-much-of-a-good-thing/6
http://www.hardware.fr/articles/838-7/influence-tessellation-son-niveau.html
Natürlich hat man bei der Tesselation ein Limit gewählt das nVidia Karten dank ihrer vielen fast unnütz idelnden Tesselation units noch gut bewältigen, aber bei AMD-Karten mit ihren etwas knapper ausgelegten Tesselation units ist man "knapp" vor totalem Performancezusammenbruch.

Das wirft schon ein bisschen die Frage auf: Zufall ? Oder vielleicht "Gameworks inspiriert" ?

Warum sollte AMD wie du verlangst unnütze Tesselation units einbauen wenn man wie duskstalker schon zeigt mit einem "BRUCHTEIL" der Polygone die identische Qualität abbilden kann ?

Baust du auch 5 Reifen an dein Auto, weils mehr bringt als 4 Reifen zu haben ?
 
"The downloadable file or page you have requested, requires membership of the NVIDIA Developer Program."

Meinst du als user@AMD.com erhalte ich membership beim nVidia Developer program ? :)
Hast du die EULA auch gelesen ?
 
@Iscaran: Die Behauptung, bzw. die Implikation war, dass man keinen Zugang zum Sourcecode bekommt, und das ist schlichtweg falsch. Die D3D-basierenden Gameworkseffekte sind OpenSource und werden auf GitHub gehostet.

Spielehersteller sind eingeladen sich dort zu registrieren, den Code zu verwenden, ihn zu ändern und auch durch Commits zu verbessern. Ob oder wie sie ihn zum Spielrelease auf die stärken verschiedener Hardwarearchitekturen optimieren bleibt ihnen überlassen. Hängt natörlich auch von der Kommunikation mit dem Hardwarehersteller ab wie gut man für eine Releaseversion optimieren kann.

Inwieweit AMD da Zugriff bräuchte um irgendwas zu optimieren wäre dann die nächste Frage. Ich würde mal vermuten, dass es genügt wenn sie die fertigen Routinen des Spieleherstellers durch ihren Profiler schicken und die Bottlennecks beseitigen, bzw. dem Spielehersteller Feedback geben was er tun muss um Probleme zu vermeiden. Schließlich können die Spielehersteller, wie bereits geschrieben, den Code auch verändern. Dann nutzt eine quellcodebasierte Optimierung basierend auf dem Github-Code wahrscheinlich auch nicht mehr so viel.
 
Zuletzt bearbeitet:
Die Behauptung, bzw. die Implikation war, dass man keinen Zugang zum Sourcecode bekommt, und das ist schlichtweg falsch.

Nein ist sie nicht...registrier dich auf Github (bin ich) und versuche die Daten einzusehen.
Nur weil die Daten via Github in der Cloud liegen heisst das nicht dass diese OPEN SOURCE sind.

Du musst die Barriere des nVidia Developer Programs eingehen bevor du auch nur die EULA lesen kannst.

Einzig die Bereiche die als "public" gekennzeichnet sind - sind open source. Das ist z.B. der Vulkan Teil. Korrigiere mich wenn ich mit obigem Statement falsch liege. Ich bekomme jedenfalls keinen Zugang zu den Sachen und was in der EULA steht ist mir auch unbekannt.
Das alles ist also nicht wirklich open source.

EDIT: ebenso sind alle "extra" Effekte geschützt. HBAO+, Hairworks...etc.
Es gibt nur eine handvoll D3D Samples für public.

EDIT: Hier ist übrigens Vulkan@Github und wie man sieht ist es 100% open source:
https://github.com/KhronosGroup
 
Zuletzt bearbeitet:
Iscaran schrieb:
Warum sollte AMD wie du verlangst unnütze Tesselation units einbauen wenn man wie duskstalker schon zeigt mit einem "BRUCHTEIL" der Polygone die identische Qualität abbilden kann ?

Baust du auch 5 Reifen an dein Auto, weils mehr bringt als 4 Reifen zu haben ?

das nicht, aber die Frage ist doch ob bei der Gameentwicklung hier jedes mal spezifisch optimiert wird. Da gilt oftmals viel hilft viel. Gerade damals in Crysis 2 als es vielleicht noch keine gute Sandbox im Hinblick auf Tessellation gab die intelligenter vorgegangen ist.

Dass in Effekten wie Hairworks vermutlich übertrieben viel Tesselliert wird mag sein, aber wenns kaum Leistung kostet setzt man das eben so um und achtet dabei nicht noch auf andere.

Das Thema gibt es vermutlich an 100 anderen Ecken genauso. Nicht immer arbeitet man so gründlich und verfolgt immer das "so viel wie nötig, so wenig wie möglich" Prinzip. Und sicher, hier und da mag es auch bewusst sein zb grad wenn es um Gameworks Effekte wie Hairworks geht (was ja eh suckt).
Finds jetzt aber weit hergeholt prinzipiell mit Gameworks = unnötig viel Tessellation gleich zu setzen. Irgendwie schafft es Nvidia auch die Tessellationsleistung sparsam anzubieten. (über schon einige Gens hinweg)

Ich finds amüsant wie man heute an jeder Ecke Verschwörungen riecht. Mit Gameworks kann Nvidia auch einfach Studios und Kunden binden wollen ohne gleich bewusst durch übertriebene Tessellation dem Konkurrenten zu schaden. Und da is n Crysis Video oder Bildervergleiche mit 8x vs 32 einfach quatsch.

@Nvidia Developer Programm

Da muss man sich eig immer für lau anmelden, auch wenn man Cuda Examples und API leechen will. ggf kannst dich sogar mim Gefore Experience Account anmelden.

Ich bin übrigens nicht immer Fan von Open Source. Da kommt oft genug auch Bockmist bei raus. Bei sowas wie diesen APIs aber sicher kein Fehler, aber auch hier logisch dass AMD in der Rolle David gegen Goliath auf die offene Variante Setzen muss. Das is kein Gutmenschending bei AMD sondern schlicht der einzige wirtschaftliche Weg bleibt. Die Community arbeiten lassen. Wenn das ankommt und immer mehr mit machen kann man ggf was gegen Nvidias recht etabliertes CUDA / Gameworks usw was ausrichten.
 
Zuletzt bearbeitet:
Finds jetzt aber weit hergeholt prinzipiell mit Gameworks = unnötig viel Tessellation gleich zu setzen.
Du bist der erste hier der das so macht.

Es wurde nur festgehalten dass es genug beispiele von unnötig viel Tesselation gibt. Und das speziell in Gameworks-Effekten und bevorzugt in Gameworks-Spiele-Titeln.

Ich behaupte nicht dass es hier eine Verschwörung gibt, aber eine "Schlamperei" bzw. durchaus bewusste De-Sensibilisierung scheint es hier schon zu geben, wenn erst die User die Entwickler von Games (siehe Crysis2) darauf aufmerksam machen müssen dass deren "schlampige" Arbeit sehr gezielt zu lasten der User-Gruppe mit AMD-Karten geht. Erscheint mir zumindest so.

Da muss man sich eig immer für lau anmelden, auch wenn man Cuda Examples und API leechen will. ggf kannst dich sogar mim Gefore Experience Account anmelden.

Ob man als AMD-User Geforce Experience benutzen kann weiss ich gar nicht. Braucht man dafür nicht einen nVidia-Treiber ?
Die Anmeldung mag ja für lau sein - aber der Account wird doch womöglich nach e-Mail adresse gescannt und wie gesagt was in der EULA steht kann ich dir nicht sagen da nichteinmal DIESE öffentlich einsehbar ist....open source ist wirklich "anders konzipiert".

Ich will hier auch eigentlich gar nicht diese OpenSource vs ClosedSource Debatte aufmischen.
der lieber Kisser hat ja damit angefangen und hatt dann auch Un- und Halbwahrheiten darüber verbreitet.
Das ganze hat jetzt mit dem aktuellen Wolfenstein II thema nur bedingt zu tun.

Fakt ist W II ist jedenfalls kein AMD Evolved Titel und die Nutzung von Vulkan-API als "AMD" optimiert auszulegen ist mehr als fadenscheinig.

Gaming Evolved wurde sowieso komplette eingestellt zugunsten von GPUOpen:
http://www.gamestar.de/artikel/amd-...ool-wird-nicht-mehr-unterstuetzt,3303845.html
https://gpuopen.com/games-cgi/
 
Gschwenni schrieb:
Hoher Polycount kann für manche Anwendungen sehr sinnvoll sein, vor professioneller Natur.

im gaming segment gibts genau eine andwendung für high poly modelle - und das ist das "backen" von shader maps wie normal maps und static ambient occlusion und das herunterrechnen des high poly modells auf das "ingame low poly".

http://www.zbrushcentral.com/showthread.php?90155-Sylvanas-Windrunner-(Next-Gen-Low-Poly-Model)

hier kann man sich mal ansehen, aus welchen teilen ein ingame modell besteht und wie der workflow in etwa aussieht.

Gschwenni schrieb:
Ich hab doch nach Beweisen gefragt gehabt. Bei dir klingts so als ob ne starke Tesselationseinheit was schlechtes wäre.

http://techreport.com/review/21404/crysis-2-tessellation-too-much-of-a-good-thing

ich kann dir ja doch alles vorlegen, und du wirst es ablehnen. ein statement von nvidia wirst du dazu wohl kaum finden - aber mal soviel: intel hat mehrere hundert millionen dollar pro quartal an dell gezahlt, damit die keine amd hardware verbauen - teilweise war das schmiergeld von intel der größte posten bei denen in der bilanz. und jetzt hält man sich hier augen und ohren zu, wenns darum geht, dass nvidia durch gameworks die leistung von amd karten drücken will?
nvidia ist immer wieder dadurch aufgefallen, durch softwaremanipulation (treiber, benchmark) ihre karten in ein besseres licht zu rücken. und jetzt haben sie gameworks - die effekte sind offensichtlich und trotzdem wird das noch bestritten? :freak: und dabei ist gameworks nicht nur proprietäre technologie, sondern auch noch der zugang von nvidia zu den entwicklerstudios. prominentes beispiel ist assassins creed, bei dem der entwickler den dx 10.1 support wieder zurückgezogen hat, weil amd dadurch einen vorteil bekommen hat.

die beweise bzw. schlagende indizien sind da - man muss nur, wie in dem artikel oben, die punkte miteinander verbinden. simple math.

und ja - eine so übertrieben aufgebohrte tessellationseinheit in den nvidia gpus ist für nix anderes da als missbrauch. man muss sich schon sehr sicher dabei sein, wenn man entsprechend viel chipfläche in ein einzelnes feature buttert.

Gschwenni schrieb:
Hat man zuviel tesseliert aber es ist auch aufwendig den Grad der Tesselierung immer einzustellen und da hängts in Crysis.
Aber was hat Nvidia damit zu tun?

nvidia sitzt bei crytek im studio und sagt, wie was gemacht werden soll. das ist der gameworks entwickler support von nvidia. und was soll bitte daran aufwendig sein, den grad der tessellation einzustellen? das ist keine raketenwissenschaft und gameworks ist auch kein eigenständiger organismus oder eine Ai - das ding macht genau das, was es vorgeschrieben bekommt. jeder entwickler kennt sein spiel auf mesh basis auswendig - ich kann dir versprechen, dass sich bei einigen crytek entwicklern bei den meshes/polycount in einer finalen szene die fußnägel hochgerollt haben.


Gschwenni schrieb:
Straßenbarrikaden vielleicht jetzt nicht aber Berge, Haare oder NPCs.

nein, auch da nicht. ich weiß, die dimensionen von polycounts kann man als "nicht" entwickler nicht einschätzen. aber wenn man keine ahnung hat, muss man auch nicht permanent widersprechen.

noch kurz zur erklärung: ein polygon ist ein "mehreck" - oft aber ein dreieck oder ein viereck, selten auch ein fünfeck. ein dreieck ist hier die kleinste einheit - also ein polygon ist immer ein oder mehrere dreiecke. es gibt mehrere arten den "polycount" anzugeben - entweder in polygonen - wobei hier die tatsächliche menge an dreiecken unbekannt ist, oder direkt in dreiecken. je nachdem wie die topologie des modells ist, ist polygon =< dreieckanzahl. oft hat man in einem fertig optimierten mesh 20-30% mehr dreiecke als polys. das unten gezeigte modell besteht hauptsächlich aus quads, deshalb ist die anzahl der dreiecke hier eher höher.

hier mal im vergleich eine arbeit aus dem polycount forum:

soldat lowpoly mesh mit 25.400 dreiecken ohne

nOgoeL7.jpg


und mit shadermaps (normalmaps aus dem high poly, ao) ohne textur. hier gibts absolut nichts am detailgrad auszusetzen, obwohl das modell sehr sparsam umgesetzt ist, man könnte hier auch ohne bauchschmerzen ein komplexeres mesh nutzen - aber man sieht schon, dass hier der nutzen kaum mehr vorhanden wäre. am meisten sinn macht ein hoher polycount im gesicht (vorallem bei motion capture animationen).

CYVO5jS.jpg


und hier normal die crysis 2 barrikade:

newbarrier-mesh.jpg


und hier mal beides zusammen:

soldatvsbarriere7ruzo.jpg


wenn man will, kann das mesh des soldaten auch mit der doppelten anzahl an polys anlegen, aber da ist dann auch ende. und selbst dann wäre das mesh vom soldaten gegen die barrikade ein witz. also was da an polycount verballert wird ist wirklich absurd.

Gschwenni schrieb:
Was fürn Quatsch, sry tut mir leid aber da hab ich ganz anderes gsehen und gehört.

einfachstes mittel sind die CB benches. man muss halt die augen aufmachen.


Krautmaster schrieb:
Ganz nebenbei ist es sicher nicht Gameworks in Crysis 2 was direkt teils unnötig hohe Tessellation setzt. Damals war das Feature noch neu, könnte mir durchaus vorstellen dass heute intelligenter damit gewirtschaftet wird.

polycount war schon immer wichtig - und jeder, der einmal mit 3D engines gearbeitet hat, sieht, dass das, was da vebrochen wurde, einfach nur verschwendung sondersgleichen ist. dieses tessellationslevel wäre für mich als chefentwickler, wäre es wirklich "gezwungenermaßen so", ein grund gewesen das ding aus der entwicklung rauszuschmeißen.


Krautmaster schrieb:
Das mag nach totalem Mesh aussehen aber können wir das überhaupt richtig deuten? Wenn man Teils Mio Polygone in ner Szene berechnet, was machen dann ein paar 1000 Triangles aus die hier im Video schon abgefahren aussehen? Es kann sein dass 95% der Polygone an ganz anderer Stelle sitzen.

als reiner gamer hat man davon keine ahnung - aber, wie gesagt, jeder der schonmal damit gearbeitet hat, bekommt schnappatmung, bei dem, was einem da geboten wird. die summe machts einfach.

normalerweise wird so gewirtschaftet: das was am nahesten an der kamera ist (waffe, arme, hauptcharakter) ist am höchsten detailliert (wird schon beim modeling festgelegt) - das was am weitesten weg ist, weniger. nun hast du aber eine barrikade irgendwo in der nähe herumstehen und das ding frisst so viel leistung (geometrie) wie die spielerhände (25.000 polys) + waffe (25.000polys) + 10 gegner (10x 30.000 polys). und dann hast du ja aber nicht nur eine barrikade, sondern vielleicht 5. d.h. locker 50% der geometrielast in der szene geht allein auf irgendein popeliges prop-modell, das ordentlich umgesetzt nichtmals 1% kosten dürfte.

im youtube video sieht man ja, wie dicht so manches mesh im vergleich zum rest ist. das problem sind die objekte, die schon "schwarz" erscheinen, weil das mesh so dicht ist. da sind die polys hinterher kleiner als die pixel.

sowas passiert nicht aus versehen - dafür könnte man leute aus dem entwicklerteam schmeißen.


Krautmaster schrieb:
@duskstalker

Wenn du dir schon die Mühe machst, wieso wählst du dann nicht alle Gameworks Titel aus sondern nur ein Teil davon? Muss man das verstehen?

mein kriterium für "gameworks" war, dass gameworks effekte im spiel sind - das ist aber nicht nur tessellation, sondern auch mal das harmlose hbao oder HDR.
es gibt auch spiele die trotz gameworks ganz gut laufen, die aber in der mehrheit der fälle keine tessellation nutzen.
meine auswahl der spiele war so gesehen ein "worst case" (der ja auf CB legitim ist) des parkours. die schlechtesten amd spiele sind immer nvidia spiele, sehr oft mit tessellation.
das einzige spiel mit tessellation / hairworks, das ich aus dem parkour genommen habe, war the witcher 3. und hier ist es auch so, dass sehr viele seiten the witcher OHNE hairworks benchen.

es muss aber nicht zwingend ein titel mit tessellation sein, damit für amd hinterher eine generation schlechtere performance herausspringt - es reicht manchmal schon die kooperation mit nvidia ohne irgendwelche gameworks dinger - einfach nur über die reine optimierung für nvidia hardware. amd hält derzeit einen marktanteil zwischen 10% und 20%, es muss nichtmals böse absicht sein, wenn nicht auf amd optimiert wird, sondern ein kostenfaktor. doppelter aufwand für die letzten 15% gamer.

derzeit isses so, dass nvidia mit ihrem gameworks gegimpe das erreicht hat, was sie wollen: und zwar amd von entwicklerseite ausbooten. um die gängelungen von nvidia durch die entwicklerstudios auszugleichen, braucht amd eine generation vorsprung. das ist ein vorsprung, den amd eigentlich nicht einholen kann.

deshalb kann man in dieser spielelandschaft auch nicht erwarten, dass amd einfach so nvidia schlägt.
 
  • Gefällt mir
Reaktionen: Pleasedontkill und Chillaholic
naja das Wolfenstein 2 schon sehr ein AMD Vorzeige Titel ist ist doch offensichtlich, auch ganz fern von irgendwelchen Benches nun. Genauso wie Doom. Geht ja auch Hand in Hand. So den riesen Unterschied zu diversen Gameworks Titeln gibts jetzt nicht. Hitman genauso.

So Titel gibts auf beiden Seiten.

@duskstalker

Joa wie gesagt man kann auch Gameworks einbauen schlicht um nachher eine schnelle gute Kantenverdeckung / Schatten zu bekommen, oder Physik. Machts dem Studio halt einfach. HBAO is mitunter das einzige was ich wirklich als Mehrwert empfinde und die Grafik aufwertet.
Auch kann man diese integrierten Effekte oft abschalten.

Was das jetzt sonst für die Engine bedeutet? Nun, vermutlich am ehesten dass die Entwickler auch Nvidia Karten hatten und darauf entwickelt haben. Dürfte sich selten für NV nachteilig auf die Engine auswirken.
Ergänzung ()

duskstalker schrieb:
deshalb kann man in dieser spielelandschaft auch nicht erwarten, dass amd einfach so nvidia schlägt.

Muss man nicht... aber so neu is die Situation jetzt auch nicht. AMD war schon deutlich näher dran, hat oft aus kleineren Chips mehr Power gezogen (zb HD5XXX) Serie. MIt GCN hat AMD versucht in der Computing Sache Nvidia die Stirn zu bieten aber nie so wirklich Fuß gefasst. Seither haut Nvidia 2 Serien raus, Consumer / Gaming + eben die Teslas.

AMD versucht nach wie vor auf beiden Hochzeiten zu tanzen, mit einem Chip - was aktuell wirklich mäßig gut gelingt. Gameworks hin oder her, oft skaliert AMDs Architektur weit unter soll, sind Vega 56 und 64 fast gleich auf zB. Auch fragt man sich mit was AMD diesen großen Chip so aufgeblasen hat.
 
Zuletzt bearbeitet:
Iscaran schrieb:
Du musst die Barriere des nVidia Developer Programs eingehen bevor du auch nur die EULA lesen kannst.

Wenn es eine Barriere für dich ist dich mit einer beliebigen E-Mail Adresse beim Developer Programm anzumelden, dann tuts mir leid.
Dann ist es für dich speziell eben nicht Open Source. Ändert aber nichts daran dass jeder der will sich den Code anschauen kann.

Ich bin mit meiner GMX-Adresse dort seit 2 Jahren angemeldet, kann den Code auf GitHub sehen und das einzige was ich auf meiner Mailadresse bekomme sind Newsletter für Entwickler.
 
Zuletzt bearbeitet:
Krautmaster schrieb:
naja das Wolfenstein 2 schon sehr ein AMD Vorzeige Titel ist ist doch offensichtlich, auch ganz fern von irgendwelchen Benches nun. Genauso wie Doom. Geht ja auch Hand in Hand. So den riesen Unterschied zu diversen Gameworks Titeln gibts jetzt nicht. Hitman genauso.

So Titel gibts auf beiden Seiten.

Der Unterschied ist aber, dass Wofenstein und Doom einfach nur das nutzen, was in der API Standard ist. Niemand hindert Nvidia daran, diese Dinge zu nutzen. Bei Gameworks Titeln sieht das schon anders aus.
 
Zurück
Oben