Die Zerstörung der Objekte ist ja auch in Mafia II mitnichten physikalisch korrekt: Man sieht das klar an der Glaswand oder am Tisch. Die Kugelnd durchschlagen die Objekte nicht, sondern reissen etwa Fussballgrosse (noch dazu eckige) Stücke raus. Die wiederum zersplittern in so viele Teile, dass damit ein Mehrfaches der Fläche belegt werden könnte. Das ist auch das was bei den Säulen wunderlich aussieht. Letztlich ist es sehr ähnlich wie bei Bad Company 2, wenn auch etwas ausgereifter.
Der Grund weshalb viele Entwickler zu PhysX greifen liegt in meinen Augen nur zum Teil an der besseren Dokumentation. Diese führt vielleicht dazu, dass PhysX als API benutzt wird (wie in Metro 2033), aber exzessive GPU-PhysX ist und da bin ich fast 100% sicher, ein Produkt der TWIMTBP-Abteilung von NVidia.
Das ist auch der Grund weshalb ich als ATi-Nutzer immer noch starke Vorbehalte gegen PhysX habe. Ich gönne den NVidia-Nutzern die Effekte sehr wohl und finde sie teilweise auch schick, mein Problem liegt echt bei der Art der Implementierung.
Ich möchte das mal am oft zitierten und hochgelobten Arkham Asylum erläutern.
Der Rauch in Arkham Asylum sieht auf NVidia-Karten echt schick aus.
Und auf ATi-Karten? Da fehlt er an den betreffenden Stellen schlicht! Warum ist das so? Kann eine Grafikkarte 2009 kein Rauch mehr darstellen? Mitnichten! Simulierter Rauch gabs schon bei World in Conflict (notabene auch von NVidia implementiert, aber damals noch in DX10), hier ein schönes Video:
http://www.gametrailers.com/video/directx-10-world-in/22700
(Die Effekte von WiC, obwohl physikalisch nicht immer 100% korrekt, sind immer noch Weltklasse und können selbst neben PhysX-Spielen bestehen).
Ein weiterer Effekt, der in Arkham Asylum fehlte war AA.
Aber nur auf ATi-Karten, auf NVidia-Karten lief das tadellos.
Spätestens hier fragt man sich, weshalb der Entwickler das nicht auch ATi-Nutzern ermöglicht hat. Das Verfahren dazu ist bei NVidia und ATi-Karten nämlich exakt dasselbe. Etwas später kam dann raus, dass auf ATi-Karten AA-zwar nicht fertig berechnet, der dafür nötige Z-Buffer trotzdem aber belegt wurde. Eine Device-Abfrage verhinderte allerdings die weiteren Schritte.
Weshalb würde Rochsteady so was tun? Antwort: Würden sie nicht, oder besser gesagt, haben sie auch gar nicht.
Diese Features wurden alle von NVidia implementiert. Aus rechtlichen (oder praktikablen) Gründen, änder Rocksteady den von NVidia geschriebenen Code nicht. Also wird der von NVidia implementierte Rauch ersatzlos gestrichen und die Fehler im AA Code bleiben ungepatcht bestehen.
Das ist für mich der Grund, weshalb ich als ATi-Nutzer was gegen PhysX habe. Warum werden PhysX-Effekte nicht auf die CPU ausgelagert? Die Leistungsfähigkeit dürfte nur die halbe Wahrheit sein. milamber! hat vollkommen Recht: Es soll ein Alleinstellungsmerkmal sein und auch bleiben! Die Effekte werden von NVidia geschrieben und da NVidia ein Grafikkartenhersteller ist, wird die CPU-Variante bestimmt auch ein wenig stiefmütterlich behandelt.
Ob sich die PhysX-Effekte derart Lohnen, dass dadurch die Kaufentscheidung beeinflusst werden sollte, muss jeder für sich selbst entscheiden. Ich kann nur sagen, dass ich im Moment deswegen sicher nicht zu einer NVidia-Karte greifen würde. Zu schwer wiegen die Nachteile(Preis/Leistung, Hitzeentwicklung im Sommer, Stromhunger) und die schnellste Lösung findet sich momentan immernoch bei ATi. Unter anderen Umständen sind sie allerdings sicher ein nettes Gimmick..
@C3rone
Ob die Effekte vorgefertigt oder physikalisch korrekt sind, ist ja im Endeffekt schnuppe. Es spielt nur eine Rolle, ob es dem Spieler letztlich auffällt oder nicht. Du musst zugeben, dass solche Effekte als "Ersatz" für nicht PhysX Nutzer eine ganz valable Alternative wären. Warum das nicht so gemacht wird? Siehe oben in meinem Post.