News Drei ansehnliche PhysX-Techdemos zur Wasserdarstellung

mich würde die musik im ersten film interessieren... alles andere ist mir wurscht, kommt eh die nächsten 2-3 Jahre nicht in spielen vor...
 
GraNak schrieb:
soweit ich weiß wurde gesagt, dass die PS4 PhysiX kompatibel sein soll (trotz AMD hardware ..), daher gibt es unter Umstände die Chance das etwas davon (möglicherweise etwas einfacher) wirklich in Spiele umgesetzt wird

Das hat eigentlich überhaupt nichts zu bedeuten, denn wenn sie wollen können sie PhysX über altertümliche x87-Befehle von jeder x86 CPU berechnen lassen, ganz egal welche GPU verbaut ist. So wird PhysX auch ganz offiziell von Wii, PlayStation 3, Xbox 360 "unterstützt".

Und solange PhysX proprietär bleibt, wird diese PS4 Kompatibilität niemand was nützen, ohne volle GPU Beschleunigung das ist nichts weiter als ein Gimmick.
 
Das ist ja schon wieder ein schönes Thema.

Ich selber kann auf PhysX nicht verzichten,gibt Spiele für mich wo es sich lohnt eine Nvidia zu haben.

Batman, Borderlands, Cryostasis und Metro sind einfach mit PhysX schicker.

Bei Batman und Cryostasis ist es wirklich ein derber Unterschied, wenn die PhysX aus ist.

Und was später nach der Konsole kommt ist mir egal,biss dahin brauch ich so oder so wieder eine neue Grafikkarte.

Und wen da nichts mehr tolles von Nvidia kommt,wird es eben AMD sein die in meinen PC wandern.

Aber ich kann es mir schlecht vorstellen das Nvidia damit untergeht.

Und bis dahin muss jeder für sich entscheiden,welche der beiden Firmen besser zu einem Passt.
 
noxon schrieb:
Allerdings hat AMD anscheinend keine Absichten eine nVidia API bei sich in den Treiber zu integrieren.
Das ist auch völlig in Ordnung. Dann sollten sie sich aber auch Anstrengen und eine OpenCL basierte Engine auf den Weg bringen und sich nicht auf die Faule haut legen.
Wozu auch? AMD ist eine Hardwareschmiede -> x86, GPUs und ARM. Aus welchem Grund sollte AMD eine Physikengine programmieren? Mit Bullet (läuft mit OpenCL) und Havok (Havok Cloth für OpenCL) gibt es schon zwei Physikengines, die auf der GPU laufen können. Wenn keine Entwicklerschmiede sie nutzen wollen, ist es nun mal ihr Pech und hat mit AMD nichts am Hut. Außerdem wird PhysX ja für nichts wirklich physisches genutzt - ich seh immer wieder nur Bling Bling in Spielen. Abplatzende Splitter beim Auftreffen einer Kugel (Mafia 2), wehende Vorhänge (Mirrors Edge), Rauch/Nebel (Batman) und dieses eine Spiel aus der ISO-Ansicht, wo bei Zaubern bunte Pixel ganz wild über den Bildschirm fliegen (Name vergessen), zähl ich nicht wirklich zur Physikengine.

Und Physik-Engines gibt es zu genüge.
 
ich_nicht schrieb:
2 Mio Partikel mit 15 FPS auf einer 680, für eine winzige Szene?

Das ist schon verdammt gut. Bei mir hat allein die Oberflächenrekonstruktion von 2Mio Partikeln schon 1,75 Sekunden pro frame gedauert. Wobei der Algorithmus jedoch fast nicht für die GPU optimiert wurde. :D
 
Mal davon abgesehen was hätten AMD davon wenn sie PhysX Software in die Treiber der PS4 Hardware implementieren dürfen? Mal ganz einfach gefragt?

Hm lass mich mal überlegen, sie fördern PhysX damit anschließend die Spiele auf dem PC nur mit Geforce Karten ordentlich laufen, das macht natürlich schon Sinn sich ins eigene Bein zuschießen. :rolleyes:
 
D3Spieler schrieb:
Richtig, in den nächsten Konsolen Generation ist AMD Hardware verbaut, von daher werden diese PhysX Tech Videos auch weiterhin nichts weiter als Wunschträume der Nvidia Besitzer bleiben.

Soweit ich informiert bin wurde für die PS4 wie auch für die XBOX720 PhysX lizensiert.
 
PhysX wird sich nicht durchsetzen,ist eben nur was wo nvidia ein klein wenig auf sich aufmerksam machen kann. Mit gleich drei techdemos?! Die kann man sich dann stundenlang reinpfeifen und froh sein das man nvidia gekauft hat, und nicht AMD die einem zur Graka noch mehrere Top Games schenken mit denen man naturlich keinen Spass hat ;-)
 
BlubbsDE schrieb:
Immer wenn ich nVidia PhysX API lese, stellen sich meine Nackenhaare auf.

Soll sie die Manpower abziehen und statt dessen warme Mahlzeiten an Bedürftige verteilen. Oder Alternativ mit einer offenen Physik Api weiter basteln. Oder noch besser, die non nVidia GPU und CPU Unterstützung von PhysX mal in Angriff nehmen.

Und warum sollten sie das tun? ^^
Apple gibt auch nicht seinen App Store frei wie google als Beispiel oder Samsungs Treiber für dessen SOC sind auch alles nur nich offen usw...
Jede Firma hat ihre Produkte in die sie entweder viel Geld oder viel Zeit reingesteckt haben und die werden dann natürlich an die Welt verschenkt, wo sind wir denn?! Stell dir vor du erfindest ne wirkliche bahnbrechende neue Software und weil sie so bahnbrechend ist kannst nur du diese Software herstellen und somit auch Gerät die diese Software nutzen. Du hast 10 Jahre entwickelt und warst dazwischen 2x pleite, dann hast du es endlich geschafft und es kommt jemand der meint du müsstest deine Software doch bitte öffnen und allen Mitbewerbern zur Verfügung stellen als eine Art Software Caritas.

AMD hat sein Stream das sich im HSA Modell sicher wiederspiegelt (bin bei weitem kein AMD Experte!) und auch das ist etwas das eben nur AMD kann und Nvidia nicht, genauso Eyefinity, niemand würde auf die Idee kommen das AMD Eyefinity mit Nvidia "teilen" müsse. Das ist eine Funktion oder ein Produkt das AMD entwickelt hat und dementsprechend wird AMD damit auch Geld verdienen, so einfach ist das. Und das selbe gilt auch für den grünen Konkurrenten!
 
Yuuri schrieb:
Wozu auch? AMD ist eine Hardwareschmiede -> x86, GPUs und ARM. Aus welchem Grund sollte AMD eine Physikengine programmieren? Mit Bullet (läuft mit OpenCL) und Havok (Havok Cloth für OpenCL) gibt es schon zwei Physikengines, die auf der GPU laufen können. Wenn keine Entwicklerschmiede sie nutzen wollen, ist es nun mal ihr Pech und hat mit AMD nichts am Hut.
Die sollen nciht zwangsläufig eine eigene programmieren, aber die sollen sich an der Entwicklung einer Engine beteiligen und so wie nVidia hier auch solche Konzepte entwerfen, wie man zum Beispiel Wasser besser berechnet und solche Dinge.
Forschung betreiben. So etwas. Initiative ergreifen und die Bullet Engine verbessern.
Aber was machen sie? Auf der faulen Haut liegen.


Außerdem wird PhysX ja für nichts wirklich physisches genutzt - ich seh immer wieder nur Bling Bling in Spielen. Abplatzende Splitter beim Auftreffen einer Kugel (Mafia 2), wehende Vorhänge (Mirrors Edge), Rauch/Nebel (Batman) und dieses eine Spiel aus der ISO-Ansicht, wo bei Zaubern bunte Pixel ganz wild über den Bildschirm fliegen (Name vergessen), zähl ich nicht wirklich zur Physikengine.
Das liegt ja eben daran, dass es keine vernünftige allgemeingültige Lösung für alle Plattformen gibt. Du kannst nunmal kein Spiel entwickeln, dass du nur an nVidia Kunden verkaufen kannst, weil die Physik ein so integraler Bestandteil des Spielprinzips ist, dass es auf AMD Karten nicht funktionieren würde.


Tja, und anscheinend sind die alle großer Käse, sonst würde die ja jemand verwenden. Ich spreche hier auch nicht nur von den Engines an sich. Was viele immer vergessen ist zum Beispiel auch die Doku. Die ist bei der PhysX-Engine sehr gut. Guckst du dir dann aber mal die Doku der Bullet Engine an, dann bekommst du als Programmierer echt Probleme.
Da muss man sich nicht wundern, warum die Leute lieber die PhysX-Engine verwenden.
Das Gleiche gilt für gute Development-Tools. Für CUDA gibt es so geile Sachen, während es für OpenCL nur einen einzigen Haufen zusammengewürfelten Mist gibt.

nVidia steckt hier richtig Arbeit und Energie rein um die Entwickler zu unterstützen und das ist nicht zu unterschätzen.
AMD tut in der Richtung rein gar nichts und das ist als GPU Hersteller sehr wohl ihre Aufgabe, wenn sie hardwarebeschleunigte Physik und GPGPU-Programmierung voranbringen wollen.

Was ist aus AMDs Beteiligung an der Bullet-Engine geworden? Da hat man nie wieder etwas von gehört. Stattdessen höre ich immer wieder nur davon, dass AMD Softwareentwickler entlässt und Softwareprojekte einstellt.

Wer keine eigene Energie in die Weiterentwicklung von Techniken steckt, der darf auch nicht meckern, wenn andere propriätäte APIs entwickeln. Dann wäre ich schon eher dafür, dass sie CUDA in ihre Treiber integrieren würden.

Das sie fremde Befehlssätze unterstützen ist ja nichts Neues. Ihre CPUs unterstützen ja auch Intel Befehlssätze. Warum also nicht auch bei den GPUs?
 
Das stimmt nicht CUDA ist proprietär und läuft nur auf NVIDIA Hardware. Nvidia würde niemals erlauben, dass AMD es auf ihre Hardware umschreibt, das ist einfach ausgeschlossen, NVIDIA würde nicht freiwillig ihr "Monopol" auf CUDA mit AMD teilen, was hätten sie denn davon? Da müsste schon der Staat eingreifen damit das passiert. Wird es aber nicht, also ist CUDA mit AMD Hardware eine Utopie.
 
@noxon

auf der faulen Haut liegen. Ohja. Mir ist es egal, welcher Hersteller meine GPU gebaut hat. Aber was mir nicht egal ist, mit proprietären und dabei auch nahezu nutzlosen vermeintlichen Alleinstellungsmerkmalen groß die Werbetrommel rühren.

Es gibt eine aktuelles Beispiel, was in diesem Kontext interessant ist. Lara Croft und ihre TressFX Haare. Das lief und läuft auf nV Karten schlecht, weil nV der Tesselation wohl zu wenig Aufmerksamkeit geschenkt hat. Eine Technik, ohne proprietäre Api für alle GPU Hersteller gleichermaßen in vollem Umfang nutzbar.
 
noxon schrieb:
Die sollen nciht zwangsläufig eine eigene programmieren, aber die sollen sich an der Entwicklung einer Engine beteiligen und so wie nVidia hier auch solche Konzepte entwerfen, wie man zum Beispiel Wasser besser berechnet und solche Dinge.
Forschung betreiben. So etwas. Initiative ergreifen und die Bullet Engine verbessern.
Aber was machen sie? Auf der faulen Haut liegen.


Mhh .. wenn man sich ein wenig auf AMDs Developer Central umschaut findet man ohne Probleme ein Beispiel wie man z.B. Wasser mittels Smoothed Particle Hydrodynamics in OpenCl umsetzt das ganze stammt aus dem Jahr 2010.

Ich seh schon, AMD liegt auf der faulen Haut. :rolleyes:
 
also mal gibts huebsche haare...mal is das wasser toll...ui was sehen die baeume toll aus...
und "jedes" model wird aus dreiecken zusammengesetzt...und sieht mehr oder weniger gleich schlecht aus.
ka wie der fortschritt aussieht...so in meinen augen nicht
 
...jap, sieht klasse aus. Wird wohl aber trotzdem noch ein paar Jahre dauern, bis wir sowas in einem PC-Game sehen werden. Aber auf jeden Fall ein Schritt in die richtige Richtung. Allerdings hoffe ich, daß zukünftig etwas mehr Energie in die Weiterentwicklung von Spiele-KI investiert wird. Dumme NPCs z.B. treiben mich viel mehr in den Wahnsinn als eine nicht perfekte Grafik. ;)

noxon schrieb:
Hab ihr es nicht verstanden?
[...]
Ein Teil der Leser offenbar nicht, wenn man sich so manche Kommentare durchliest. Bei einigen schlägt einfach immer wieder banales Fanboytum durch, sobald nur bestimmte Begriffe in einem Artikel genannt werden. Ein Trauerspiel...
 
D3Spieler schrieb:
Hier mal ein Techvideo von nvidia anno 2010 die eine realistische Haarsimulation zeigt:

Schade dass dies bisher nur in keinem Spiel Einzug gefunden hat. Hm obowhl lasst mich mal überlegen, achja AMD ist einfach mal mit TressFX um die Ecke gekommen. Whoops.

PhysX als Kaufargument? Gilt das heute noch so wie früher?

Zu den Haarvergleich muss man aber sagen das Nvidia ein echtes Haarsystem verbaut hat und AMD "nur" Mesh mit Alphamaps. Die Echten Haare sind wesentlich komplizierter, sehen aber auch besser aus.

210258vniujjpv7w8ppgv5.jpg

Der ist natürlich auch sehr geil :D

@Styx
Nur soll das auch mal in ein Game einfließen und dazu ist es leider noch zu lahm.
 
Nett, aber sinnlos, denn mit der neuen AMD-basierten Konsolengeneration dürfte PhysX endgültig in der Bedeutungslosigkeit versinken*.


* Sagt übrigens ein GTX 680 Besitzer, bevor jetzt wieder die Fanboi-Keule geschwungen wird ;) .
 
Zurück
Oben