News Nvidia GameWorks: Quellcode für HBAO+ und weitere Effekte veröffentlicht

strex schrieb:
Jetzt kann AMD gerne die Code-Stellen zeigen wo sie eindeutig benachteiligt wurden. Auf anhieb findet man in github aber keine passenden ifdefs.
:rolleyes: Ja, weil man ja auch sowas veröffentlichen würde ohne dieses zu entfernen, falls vorhanden.

@Thema
Ehrlich gesagt ist das ein zweischneidiges Schwert. Keine Ahnung ob nvidia die Felle davon schwimmen sieht, ob es nur PR ist, beides o.ä.
 
strex schrieb:
Macht deine Aussage aber auch nicht richtig, dass die UE dieselben Effekte komplett ohne Leistungsverlust erzeugen kann.

Hab ich nicht so geschrieben, ich schrieb ohne entsprechenden Leistungsverlust. Entsprechend = Leistungsdifferenz im negativen Sinne, wie oben erklärt - die verkrüppelnden Tessellationsstufen ;)

Lektüre:
https://www.reddit.com/r/pcmasterrace/comments/36j2qh/nvidia_abuse_excessive_tessellation_for_years/

Nachstellen kann man dies übrigens mit AMD und Kepler Karten, indem man die Tessellationsstufen via Treiber bzw. externen Tools overrided.

mfg,
Max
 
Zuletzt bearbeitet:
Conceptions schrieb:
:rolleyes: Ja, weil man ja auch sowas veröffentlichen würde ohne dieses zu entfernen, falls vorhanden.

Da könnte AMD oder jeder andere NV als Lüger darstellen. Der braucht ja nur beide Versionen benchen.
 
pipip schrieb:
the division:
wurde nachgetestet und schon haben die AMD wieder aufgeholt im Game
Wo ist das her?
Und nach welchen Neuerungen wurde da getestet? Neuester Crimson-Treiber oder nach neuester Division-Version?
 
strex schrieb:
Da könnte AMD oder jeder andere NV als Lüger darstellen. Der braucht ja nur beide Versionen benchen.
Es wurde der Quellcode einer Hand voll Gameworks Effekte veröffentlicht, nicht die gesamte Gameworks Bibliothek.

Wenn ich aus dem Brockhaus 3 Seiten rausreiße, habe ich immer noch keine zusammenhängende Enzyklopädie.
 
max_1234 schrieb:
@Suddi

@strex
GameMurks Effekte nutzen unmengen an Tessellationsstufen, mit denen derzeit nur aktuelle Pascal Karten gut umgehen können. Selbst die Nvidia-eigenen Kepler Karten brechen unter teilweise 64x Tessellationsstufen übelst ein. Jeder GameMurks Effekt nutzt dieses Gimmick, sofern möglich - nicht sofern sinnvoll.

mfg,
Max

Wie du weißt schon was die Pascal leißten?? Dann hau mal raus.


Ich könnte mir denken, dass Nvidia langsam die Studios, die mit gameworks arbeiten wollen, abspringen. Und zu anderen Mitteln greifen (GpuOpen vielleicht, aber da kann man noch keine genaue Aussage zu treffen, da es zu kurz draußen ist).
vxao können ja nur nvidia karten (läuft nur unter DX 11) (basiert auf voxel, was mich wundert, ich dachte das hätte man mit Outcast begraben (outcast war klasse)) und async computing die GCN karten von AMD. Und desshalb ist async (das nur bei dx12 funzt) beliebter, da es auch die konsolen benutzen. Das könnte dazu geführt haben, dass die meisten Entwickler von Nvidia ein offeneres System fordern, damit sie ähnlich wie bei AMD weniger auffang betreiben müssen.
 
Conceptions schrieb:
:rolleyes: Ja, weil man ja auch sowas veröffentlichen würde ohne dieses zu entfernen, falls vorhanden.
bei den Effekten wie HBAO+ is ja hinsichtlich bekannt dass beide Seiten etwa gleich viel Leistung einbüßen... von daher natürlich die logischste Wahl das von NV mit als erstes offen zulegen. Wird aber wohl auch am häufigsten eingesetzt.
 
strex schrieb:
Da könnte AMD oder jeder andere NV als Lüger darstellen. Der braucht ja nur beide Versionen benchen.

Machen sie doch?
Capsaicin Event nicht gekuckt? Dort wurde GameMurks kurz in den Dreck gezogen :D
Nicolas Thibieroz schrieb:
SIXTEEN is 'not' the number of games titles that got ruined by gameworks integration

mfg,
Max
 
Ab sofort steht der Code für die Effekte Volumetric Lighting sowie FaceWorks auf GitHub zur Verfügung. Der für HBAO+, HairWorks sowie WaveWorks soll „bald“ folgen.
Sehr schön & besonders WaveWorks ist stark im Kommen & in Summe ist das doch erfreulich. Erfreulich ist auch, wie sich max_1234, sich an "gewisse Spitzen" erfreuen kann.^^
 
max_1234 schrieb:
Hab ich nicht so geschrieben, ich schrieb ohne entsprechenden Leistungsverlust. Entsprechend = Leistungsdifferenz im negativen Sinne, wie oben erklärt - die verkrüppelnden Tessellationsstufen ;)

Wenn man natürlich in einem technischen Forum, die Sprache wie Politiker verwendet und mit dem Füllwort "entsprechend" alles oder auch gar nichts adressiert kann man natürlich auch das meinen. Wie bei Politiker, viele Worte aber null Inhalt und keine genaue Spezifikation. So das man das später als was ganz anderes darstellen kann, als es erst gedacht war.

Conceptions schrieb:
Es wurde der Quellcode einer Hand voll Gameworks Effekte veröffentlicht, nicht die gesamte Gameworks Bibliothek.

Und? Für die Hand voll Effekte kann ich ganz genau nachweisen ob AMD extra beeinflusst (verlangsamt wird) wie immer behauptet. Schon in Github geschaut, man braucht nur die Version aus Gameworks und die von Github. Bastelt sich aus dem Sample mit beiden ein bench und kann exakt für jeden einzelnen Effekt der öffentlich ist nachweisen ob die Gameworks Version AMD schlechter darstellt.

Conceptions schrieb:
Wenn ich aus dem Brockhaus 3 Seiten rausreiße, habe ich immer noch keine zusammenhängende Enzyklopädie.

Die drei Seiten kann ich aber absolut vergleichen und Unterschiede exakt aufschlüsseln. Jetzt heißt es auf einmal wieder, AMD wird nur behindert bei Effekten die jetzt nicht öffentlich sind. Vorher waren es noch alle im Gameworks Framework. Na, wenn es nur bei den jetzt nicht öffentlichen Effekten der Fall ist, kann ja Gameworks gar nicht so schlecht sein..

Hier wird von einigen Seiten immer wieder schön Geschichten (etwa Gameworks wurde extra so programmiert das auf AMD-Karten extra schlecht läuft) erfunden, die dann später wenn Fakten auf dem Tisch liegen (jetzt der Quellcode), als falsch entpuppen. Dann wird wieder gesagt man habe es ganz anders gemeint. Wie jetzt von dir, jetzt soll nur noch die nicht öffentlichen Effekte betroffen sein. Sehr lustig.

max_1234 schrieb:
Machen sie doch?
Capsaicin Event nicht gekuckt? Dort wurde GameMurks kurz in den Dreck gezogen :D

Wo ist da der Nachweis das Gameworks extra so gebaut wurde bzw. absichtlich extra schlecht auf AMD arbeitet. Ich sehe da kein Nachweis, der wäre jetzt aber absolut möglich. Da würde sich AMD schnell stürzen, wenn das der Fall wäre. Ist ja nicht so als würden die nicht an das Gameworks Framework kommen. Der Benchmark ist schnell gebaut.
 
Zuletzt bearbeitet:
SuddenDeathStgt schrieb:
Übrigens, ich find es immer wieder herrlich, wenn sich immer wieder die gleichen Stimmen, bei gewissen Themen, zu Wort melden ...^^

^^ ... Ja das ist in der Tat herrlich ;-) "Vor allem" wenn es darum geht, trollige und seltsame "Kommentare" abzugeben oder darum wie geil die GTX970 eigentlich ist & gar nicht verkrüppelt :evillol:


@Thema: eigentlich braucht Nvidia ihren Gamemurks gar nicht öffentlich zu machen, sie arbeiten doch seit Jahren an ihrem eigenen Ökosystem mit Gsync, Physx, Cuda etc. pp. Was soll also plötzlich dieser Schritt? Es würde genügen, ihre Effekte einfach nur mit Nvidia einschaltbar zu machen. Dann müsste man nicht mehr rätseln, ob zB der Witcher 3 Benchmark mit oder ohne Hairworks entstanden ist.
 
Wo ist da der Nachweis das Gameworks extra so gebaut wurde bzw. absichtlich extra schlecht auf AMD arbeitet. Ich sehe da kein Nachweis...
Von einer PR darf man auch keinen Nachweis erwarten, sondern idR nur Stimmungsmache. Renomierte Portale haben das schon überprüft & CB hat das auch schon mehrfach angesprochen und ein "extra schlecht" konnte nicht nachgewiesen werden.
Für eine gewisse "Hardliner-Fraktion" ist das aber unerheblich & es wird weiterhin "bewusst geschossen" ...;-)
 
strex schrieb:
Und? Für die Hand voll Effekte kann ich ganz genau nachweisen ob AMD extra beeinflusst (verlangsamt wird) wie immer behauptet. Schon in Github geschaut, man braucht nur die Version aus Gameworks und die von Github. Bastelt sich aus dem Sample mit beiden ein bench und kann exakt für jeden einzelnen Effekt der öffentlich ist nachweisen ob die Gameworks Version AMD schlechter darstellt.
Das nützt dir aber nichts wenn die Manipulation eben nicht im veröffentlichten Quelltext ist, sondern in den nicht zugänglichen Bereichen.
 
@Conceptions

Dir fehlt wohl voll kommen das technische Verständnis. Ich baue mit dem Gameworks Framework und einem Effekt einen Bench. Darin sind dann alle deine super heimlichen Optimierungen und AMD verlangsamten Funktionen schon eingebaut.

Jetzt baue ich denselben Effekt mit der öffentlichen Version. Die ist auch alleine lauffähig (ohne weiteren geheimen nicht einsehbaren Code) für den jeweiligen Effekt, siehe github zu Submodule.

Wo sollen da jetzt die geheimen Operationen gegen AMD in der öffentlichen Version stecken? Der wird jetzt heimlich aus der Intel CPU geladen, weil ja NV und Intel sich gegen AMD verbündet haben..Also ehrlich das ist schon nicht mehr schön.

Kleines Beispiel, FaceWorks völlig offen und ohne das Gameworks Framework laufbar. Der gesamte Code für das Sample ist einsehbar und lässt komplett ohne Gameworks Framework in die eigene Engine integrieren. Scheinbar noch nicht auf github geschaut: https://github.com/NVIDIAGameWorks/FaceWorks

--

Also so langsam werden die Lügenkonstrukte ja immer wirrer.
 
Zuletzt bearbeitet:
SuddenDeathStgt schrieb:
Renomierte Portale haben das schon überprüft & CB hat das auch schon mehrfach angesprochen und ein "extra schlecht" konnte nicht nachgewiesen werden.
Für eine gewisse "Hardliner-Fraktion" ist das aber unerheblich & es wird weiterhin "bewusst geschossen" ...;-)

Aber natürlich... ;-) Der absurd übertriebene Einsatz von Tessellation wie zB in Witcher 3 war natürlich in Wirklichkeit sinnvoll und überhaupt nicht merkwürdig. Gameworks ist mittlerweile höchst umstritten, für eine gewisse Hardliner-Fraktion ist das aber unerheblich & es wird weiterhin ignoriert & schön geredet so gut es nur geht ;-)
 
Zuletzt bearbeitet: (vertippt)
@Wolfgang @CB
Wäre sehr interessant, wenn ihr mal wieder einen Vergleichtstest diverser gameworks und Gaming Envolved Titel der letzten, sag ich mal 3 Jahre mit dem release “game ready“ Treiber beider Anbieter und einer aktuellen Version von 6-12 Monate später vergleicht und diese Testprozedere auch in Zukunft weiterführt. Evtl Intel HD 4600... mit einbeziehen als neutralen dritten und deren Treiberfortschritt.
Gerne auch über Karten / Generationsgrenzen hinweg.
So kann doch gut gezeigt werden, was der “nicht“ Partner für Arbeit leistet oder ob eine Karte der letzten Generation benachtwiligt wird. Auch ob es eonen messbaren Effekt durch diese Offenlegung in Zukunft durch neuere Treiber gibt. Gleiche Basis Win 7 64, eingefrorenes system und die Grafiktreiber und benches durchtesten.

Incl workaround wie Tesellationsstufen anpassen ect. Das sogt zum einen für fakten in dieser Diskussion mit Anschuldigungen wwegen blackbox und Benachteiligung und stiftet frieden im Glaubenskrieg.

Wäre mal ein Vorschlag als Langzeitstudie oder ein user aus der Community macht sowas und erscheint auf der Titelseite bzw Redaktionsempfehlung.
 
Krautmaster schrieb:
Was heißt der letzte Dreck? HBAO+ bingt in vielen Fällen doch deutlich bessere Optik. Insgesamt is der Effekt wichtiger als Hairworks oder FressFX in meinen Augen.

Ist Geschmackssache mMn. Ich z.B. finde HBAO+ als Effekt schrecklich, in allen Titeln, in denen das bisher drinne war, habe ich es deaktiviert und auf SSAO geschaltet (oder HDAO, wenn es denn mal vorhanden ist), was in meinen Augen besser ist. HBAO+ mag vllt "realistischer" wirken, aber das allgemeine Bild dunkelt durch die Schattenwürfe einfach zu extrem ab.

Mir sind da Effekte wie Hairworks/TressFX lieber, wobei ersteres einfach zu viel Leistung frisst in The Witcher 3 (außer man schaltet bei AMD Karten die Tesselation runter, dann läufts selbst auf meiner HD 7950 noch gut).


Aber schön, wenn NV einen Teil der Effekte nun offen legt. Mal sehen ob es uns Kunden etwas bringen wird.
 
Man sollte das ganze etwas differenzierter sehen: Kein Unternehmen ist die Wohlfahrt. Sowohl AMD als auch NVIDIA veröffentlichen dementsprechend primär Middleware, wo sie irgendwie ihre Stärken gegenüber der Konkurrenz zeigen können, um indirekt ihre Hardwareverkäufe zu pushen. Diese "verzerrenden" Effekte treten weiterhin auch bei offener Software auf: Das kann entweder sein, dass der Hersteller den Quelltext spezifisch auf die Eigenheiten seiner GPU-Architekturen optimiert, natürlich nur Features verwendet, die auf seinen GPUs lauffähig sind (z.B. Async Compute bei AMDs vs. ROV bei NVIDIA) und zudem die Algorithmen, Anwendungen und Eingabeparameter so wählt, dass seine eigenen GPUs bevorteilt sind. Das "Spielerwohl" kommt bei beiden erst an zweiter Stelle.
 
strex

Strex, weißt du was das Problem im Forum ist, dass ein Wort mehrere Bedeutung haben können.

Du verstehst unter ausbremsen offensichtlich etwas aktives, was im Code steht. Doch es gibt genauso die gewollten passive Effekte. NV profitiert doch in erster Linie nicht davon, dass AMD Karten dauerhaft langsamer laufen, sondern dass sie beim Release Probleme haben, sprich nicht so optimiert sind, sodass NV Karten bei den wichtigen benches vorne steht.
Wirklich beschränken haben sie bisher die eigenen Kepler Karten mit den Tesselations-Stufen.

Ich bin mir sicher, dass du weißt, worum es den meisten geht, auch wenn einige vllt behauptet haben, es könnte ja sogar bewusst ifs geben.
Beispiel Gears of Wars, dass ich mal gepostet hatte. Hier hatte ich bewusst einen Link gezeigt, der Probleme gezeigt hatte, weil es Gameworks Effekte gab, die nicht als solche benannt wurde und zum Release einfach nicht auf AMD Karten lief.

Siehe meinen Post mit the Division, welcher 1 Woche später nach Release gemacht wurde und AMD Karten aufgeholt hatten. Bis auf den Tests sehen aber die meisten Leute nur jenen von CB, wo die AMD Karten deutlich besser laufen.

Somit ist das "ausbremsen" keine Lüge, speziell, selbst die Features die NV freigibt, nicht viel ändert. Wirklich ändern wird sich etwas, wenn NV das ganze Prgramm open macht. Was bringen die Standards, wenn in Zukünftige Titel bsp VXAO statt HBAO+ integriert wird ?
Nichts, außer dass AMD wie bisher, schauen muss, so schnell wie möglich Treiber für unbekannten Code zu entwickeln.
Sprich, es ist ausbremsen, auch wenn es nicht etwas "aktives" ist, wie du es offensichtlich versucht zu reduzieren.


Nai
Ich sehe das auch so, dass es legitim ist, dass Unternehmen die Stärken ihrer Grafikkarten ausnützten soll. Aber trotzdem ist es ein Unterschied, ob ein Konkurrent seine Hardware anpassen/optimieren kann oder eben nicht, aus diversen Gründen.
Es macht einen Unterschied, weil so kann man zumindestens Zeitnahe zum Release einen passenden Treiber anbieten.
Schon kann man nicht mehr von "ausbremsen" ect sprechen, wie es durchaus immer wieder vorgeworfen wird.

Aber es hat alles Vor und Nachteile, denn indem AMD immer wieder alles open macht und zugänglich macht, haben sie sich eigentlich in den letzten Dingen was Standards angeht, immer wieder durchsetzten können.
Adaptiv Sync, HBM, Low-Level API. Auch wenn für diese Aussage noch bei einigen Gegenwind bekommen dürfte. Adaptiv Sync wird von Intel unterstützt und es kommen immer mehr Modelle, speziell günstige Monitore mit der Technik auf den Markt.
HBM wird auch von NV genützt. Low-Level API => AMD war nun mal der erste (okay, gab vor Jahrzenten schon andere) und es folgten ein Jahr später DX12 und dann Vulcan.

Gut, das alles kann man jetzt mit GameWorks nicht vergleichen. Da wäre ein Vergleich mit TressFX oder ähnliches sinnvoller, aber eventuell ist da OpenGPU doch für NV eine Gefahr, wenn Studios plötzlich auf OpenGPU Features setzten. In der Präsentation hatten paar EntwicklerStudios-Vertreter auch betont, der Vorteil ist, dass die komplette Entwickler Comunity hinter einer Technik stecken könnte und man somit nicht alleine für alles aufkommen müsste.
PhysX hatte NV vor Jahren auch freigegeben, als es klar wurde, dass man mit Asnc Compute und DX12 mächtig Gegenwind kommen könnte.
 
Zuletzt bearbeitet:
Zurück
Oben