News AMD stellt TressFX 3.0 gegen Nvidia HairWorks

calluna schrieb:
Und was hat das mit AC:U und FC4 zu tun? Diese Spiele sind nicht verbuggt weil Effekte aus dem Gameworks Programm eingebunden wurden.

Und die grausame performance, das AMD GraKas in den Games nicht richtig ausgelwstet werden Crashes
Und andere Probleme und das zufällig alles in GameWorks Titeln sind jetzt keine Bugs oder wie?

Mittlerweile wird von einem Klarem Zusammenhang ausgegangen.
 
II n II d II schrieb:
NVIDIA muss sich aufgrund seiner marktbeherrschenden Position nicht nach den Wünschen seiner Kunden richten.

Erstmal hat nVidia keine marktbeherrschende Position und dann muss ich sagen dass ich Kunde bin und sich nVidia ziemlich genau nach meinen Wünschen richtet.
Gute Hardware, tolle Treiber, viele Features und die Games die das alles unterstützen gefallen mir praktischerweise auch noch. Ich war selten so zufrieden beim Thema Grafikakrten. Das letzte Mal wahrscheinlich mit der Voodoo Banshee. Die war IMO extrem super.
 
Ganz einfach, weil sich Nvidia meiner Meinung nach momentan den anschein macht als wäre alles super, aber langfristig daran "arbeitet" den PC Spielemarkt kaputt zu machen mit ihrem properitären Scheiß
 
Da kann NVIDIA nix für, das liegt an den Fertigern. Meine Asus fiept z.B. garnicht. Wenn man billige Bauteile verbeut fiept das Ding halt.
 
calluna schrieb:
Und was hat das mit AC:U und FC4 zu tun? Diese Spiele sind nicht verbuggt weil Effekte aus dem Gameworks Programm eingebunden wurden.

TressFX bei Tomb Raider führte bei NV-Karten zu Problemen auch in der Performance. Die Haaranimation kann ich aber problemlos abschalten und habe damit nur geringe Einbußen auf NV-Karten was die Bildqualität angeht.
Wenn ich aber sehe dass bei Spielen wie FC4, die mit/für GameWorks optimiert sind, bei quasi gleich leistungsfähiger Hardware massiv schlechter Performancewerte bei AMD-Karten auftreten, dann stinkt das gewaltig.

Das erinnert mich stark an den Intelcompiler, der Optimierungen im Code nicht aktiviert wenn keine CPU von Intel eingestzt wird. Als bei einem Test die ID der intelfremden CPU durch einen Trick auf Intel gesetzt wurde, stieg die Performance des Codes deutlich an. Und das ohne das Fehler aufgetreten wären.

Ich frage mich nur wieviel NV den Gameentwicklern dafür zahlt, den Teil der Kunden, aus meiner Sicht bewußt, zu benachteiligen, der AMD-Karten einsetzt. Es muss sich aber wohl rechnen.

Ob das allerdings für uns als Kunden wünschenswert ist, wage ich mal zu bezweifeln.

Cunhell
 
InteGralFormat schrieb:
Ich finde es auch lobsam, dass AMD auf Open Source setzt. Nur was nützt es, wenn die Konkurrenz das aus Prinzip nicht nutzt?
Wir müssen das hier auch mal etwas objektiver sehen.
Es ist nicht so, als ob HairWorks nicht Open Source wäre. Das ist es sehr wohl. Jeder Spieleentwickler kann Einsicht in den Code nehmen und auch daraufhin optimieren. Die Einzigen, die keine Einsicht in den Code nehmen dürfen sind AMD und die sind natürlich beleidigt. Die sprechen natürlich davon, dass es Closed Source ist.

Es ist also weder vollkommen offen noch vollkommen geschlossen sondern unterliegt einer speziellen Lizenz, die Spieleentwicklern die Einsicht gewährt und AMD die Einsicht verbietet.
 
Whoozy schrieb:
Wenn die Hardware soooo toll wäre würde es das Spulenfiepenproblem nicht geben

Ja, das ist etwas ärgerlich, aber man kann ja bei Tests schauen welche Karten zum Fiepen neigen und welche nicht.

Manchmal hilft aber auch das nicht. Meine olle GTX 670 fiept mittlerweile auch. Komischerweise aber nur wenn ich Introvideos von Spielen anschaue (ich glaube bei denen die mit Bink-Video abgespielt werden), und bei Lego Batman 3. Bei allen anderen Dingen nicht. Ich schiebe das aber mal auf Alterserscheinung, denn das war nicht von Anfang an so.
 
noxon schrieb:
Wir müssen das hier auch mal etwas objektiver sehen.
Es ist nicht so, als ob HairWorks nicht Open Source wäre. Das ist es sehr wohl. Jeder Spieleentwickler kann Einsicht in den Code nehmen und auch daraufhin optimieren. Die Einzigen, die keine Einsicht in den Code nehmen dürfen sind AMD und die sind natürlich beleidigt. Die sprechen natürlich davon, dass es Closed Source ist.

Es ist also weder vollkommen offen noch vollkommen geschlossen sondern unterliegt einer speziellen Lizenz, die Spieleentwicklern die Einsicht gewährt und AMD die Einsicht verbietet.

Also ist es KEIN Open Source :)
 
Ich persönlich finde es toll das sich die Entwickler immer mehr auf sowas spezialisieren. Die Atmosphäre im Spiel wird dadurch gleich viel besser, immer dieses eintönige in den meisten Spielen. mal sehen wie es 2025 nachher alles ist :D aber schaut man ein paar Jahre zurück, also ich finde die machen schon ganz gute Arbeit ob nun AMD oder NVIDIA. Toll immer weiter so :king:
 
engineer123 schrieb:
AMD muss sich so verhalten und "viel Wirbel" machen, auch bekannt als Publicity :)

Davon abgesehen sind sie gegen Nvidias Gameworks Effekte weit im Hintertreffen - AMD hat nur einen Spezialeffekt (die TressFX) während Nvidia mittlerweile fast ein Dutzend davon vorweisen kann (Glassplitter, HBAO+, TXAA etc.) und selbst beim neuen "Felleffekt" von TressFX 3.0 läuft AMD schon wieder hinterher...

Nvidia hatte den Felleffekt schon fast ein ganzes Jahr bei CoD Ghosts für den Hund im Einsatz, mit Far Cry 4 haben sie dann nochmal eine deutlich höhere Qualitätsstufe erreicht und dutzende Tiere mit dem Fur-Effekt ausgestattet.

Man könnte glatt meinen du würdest glauben, dass Nvidia als erstes eine Haar oder Fellsimulations Technik in Spielen eingeführt hat ::lol: Tomb Raider ist dir ein Begriff oder?
 
Jesterfox schrieb:
Felldarstellung hatte ich mir ja schon als Anwendung beim ersten TressFX gewünscht... jetzt fehlt nur noch das passende Spiel ;-)

Rise of Tombraider hat es 101% .

Der Bär und Lara sehen soo gut aus :)



Gameworks in WOW, und MSAA ist wieder da.
Wow-64_2015_02_25_CPU.jpg
 
Zuletzt bearbeitet:
Seit wann wird der Code denn in der Anzahl der geschriebenen Zeilen gemessen ?
Nicht gemessen, sondern eher der Umfang abgeschätzt. Siehe
http://en.wikipedia.org/wiki/Source_lines_of_code
Erst nachdenken bzw. informieren, dann reden. Lies mal ein paar wissenschaftliche Veröffentlichungen zum Thema Haarsimulation oder schau einfach nur in den Quellcode:
Eventuell mal etwas besser aufpassen, bevor man andere Leute der Unwissenheit bezichtigt ;). Schau dir einfach mal das Paper für die physikalische Simulation des Haares an, was die in Tess-FX verwendet haben:
http://www.potentialmotion.com/home/hairsimulation
Die Algorithmen sind nicht so komplex, dass man das jetzt nicht mit einer beliebigen GPGPU API in kürzerer Zeit programmieren könnte.
Alternativ den Quellcode, wie du mir vorgeschlagen hast. Ignoriert man beim Zählen mal die Ansteuerung von dem Ganzen und schaue man nur die hlsl Dateien an, so besitzt die physikalische Simulation 900 Zeilen Quelltext. Andere Echtzeitsimulationsansätze, die ich bislang so in Paper gesehen habe, sind ähnlich komplex. Somit finde ich den Umfang von den Ganzen weiterhin relativ gering.

Man könnte glatt meinen du würdest glauben, dass Nvidia als erstes eine Haar oder Fellsimulations Technik in Spielen eingeführt hat : Tomb Raider ist dir ein Begriff oder?

Die Grundlegenden Techniken gibt es mehr oder weniger schon seit Jahren wenn nicht sogar Jahrzehnten, von daher weniger spektakulär. In letzter Zeit wird nur GPGPU etwas umfangreicher und mächtiger, so dass man komplexere Algorithmen damit und in Echtzeit simulieren kann. Die Simulation finde ich allerdings auch dort bei NVIDIA weniger spektakulär.
 
Zuletzt bearbeitet:
Das ist mal ne Grafikentwicklung die richtig was bringt im Bezug auf Atmosphäre. Dieses ewig gleich wiegende Gras hat mich schon immer aufgeregt. Am besten noch als 2D Sprites. ist zwar nur ein kleines Detail aber verdammt wichtig für das Gesamtprodukt.
 
Zurück
Oben