News PhysX-Implementierung in Cuda ist fast fertig

in diesem falle gillt:

der feind (amd) meines feindes (intel->havok) ist mein freund.

und wie da ja schon gesagt wurde. nvidia alleine reicht hier nicht aus, um gegen intel zu konkurrieren, sodass es das kleinere übel ist, amd diesen standard "mitbenutzen" zu lassen :)

@ i-hated2
es wurde doch geschrieben, dass alle modelle der geforce 8xxx und 9xxx es unterstützen, dazu zählt dann auch deine 8800gts ;)
 
Ich denke nicht, das mit der Lizenzierung Intel unbedingt ausgestochen werden soll. Eine Lizenzierung für AMD bedeutet einfach das die Ihre Karten teurer machen müssen, da ja die Linzenzgebühr für Nvidia auch noch zu den Produktionskosten dazugerechnet werden muss, somit schmälert Nvidia das Preis/Leistungsverhältnis von AMD und das führt natürlich dazu das wieder mehr zu Nvidia greifen bei gleichem oder dann sogar besserem P/L-Verhältniss.
 
Jetzt zu PhysX, kein Spieleprogrammierer wird kostspielig irgendwas in sein Produkt einbauen, das geschätzt nur auf jedem zweiten System funktioniert, wenn AMD sich nicht entscheidet PhysX zu unterstützen, sehe ich schwarz für Nvidia, da sie keine CPUs bauen (dürfen).
Im Moment funktioniert das PhysX SDK so, dass es sowohl mithile der CPU als auch mithilfe einer PhysX Karte arbeiten kann, mit letzterer eben schneller. Ich gehe stark davon aus, dass auch eine CUDA fähige Karte rein optional sein wird. Damit gehen Entwickler kein Risiko ein, wenn sie PhysX nutzen, im Gegenteil, auf CPUs läuft es nahezu so gut wie Havok und auf Nvidia Karten eben noch viel schneller.
 
Kann mir mal jemand erklären, wie eine voll ausgelastete Grafikkarte auch noch Physik berechnen kann? Oder liegen trotz grafischer Auslastung immer genug Streamprozessoren brach, die das leisten können?
 
wie wärs mit SLI bzw. Crossfire und günstige 50 euro karte ist für die Physik zuständig, die Highendkarte fürs rendern? billiger als CPU oder Physxkarte aber definitiv leistungsfähiger als ne CPU.
 
dann hätte man auch gleich eine günstigere Physikkarte rausbringen können anstatt eine Graka neue Kunststücke, für die es nicht wirklich entwickelt wurde, beizubringen.

Und das Problem, dass man wieder eine extra karte braucht, hat man dann auch wieder.



Im Moment haben die durchschnittlichen CPU's bei den Spielen wesentlich mehr reserven als die Graka's. Die sind es doch, die die leistung limitieren. Und dann wollen sie der GPU noch mehr arbeit aufbürden?
 
@ Mustis

Ich denke auch, dass diese Lösung (zumindest für den Anfang)
das Vernünftigste sein dürfte.

Bei dem Refernzdesign der PhysX...
125 Millionen Transistoren im 130 nm Herstellungsprozess (TSMC)
733 Mhz bei einer Leistungsaufnahme von 25-28 Watt
128 MB GDDR3 Speicher + 128-Bit SI

...dürfte alles zwischen der 8600GT und der 8800GS
(die damit allerdings deutlich unterfordert sein dürfte)
eine gute wie günstige Lösung darstellen.
Jetzt noch 'ne PhysX Karte für mehr als 30 oder 40 €
zu kaufen wäre daher äußerst dämlich.

@ dahum

Nein, eben nicht. Wie du absolut richtig erkanntest liegt da gar nichts brach.
Selbst bei solch einem ressourcenmäßig moderaten Spiel wie UT III
dürfte PhysX auf der Grafikkarte zu dramatischen Leistungseinbrüchen führen!

Bis die Physik wirklich komplett in die Karten integriert ist,
und zu keinen spürbaren Leistungseinbußen führt,
vergeht warscheinlich noch mindestens eine Geration.
Bei der GF 10 oder 11 gibt's PhysX dann endlich "inclusive". :daumen:
 
Zuletzt bearbeitet:
Mit der CPU ist das auch so ne Sache. Wieviele Leute haben den schon Quads? außerdem kommt auch hier die Technik ins Rollen, dass Spiele in Threads unterteilt werden. und da isn Quad auch schnell voll. Einer fürs OS einer KI, 2 fürs Spiel und die gesamte Verwaltung. also auch ohne Physik lassen sich quads ausreizen. vll kommen die speziellen PPU auch wieder, wenn die grundsätzliche unterstützung durch Spiele gegeben ist (Henne/Ei Problematik). Man muss das ja jetzt auch nicht als endgültige Lösung ansehen, sondern eher als Übergangslösung zur Etablierung dieses Standards.
 
Richtig. Bis die Quads aber in breiter Masse unter die Leute gebracht sind
vergeht auch noch ein Weilchen. Über die verfügen im Moment nur Enthusiasten,
Technik-Freaks oder dümmliche Kunden großer Kettnmärkte... ;-)

Daher wird es in nächster Zeit auch nicht so schnell auf Quadcore optimierte Spiele wie z. B. Crysis geben. Erst recht nicht, wenn es um die Physik geht, denn PhysX hat da nämlich schlicht keinen Platz.
Bei den Anwendungen sieht es für die Quads sogar noch schlechter aus. Mit Abstand die meisten Spiele werden speziell für 1-2 Kerner programmiert. Und das ist absolut richtig so. Die Entwicklerfimren würden sich schließlich sonst nur ins eigene Fleisch schneiden.
Dank HT und Pentium DualCore haben sich die 2 Kerne bzw. Threads bereits etabliert (beim Quad ist das eben noch nicht in Sicht) und sind daher quasi reserviert.

Die "Übergangslösung" wird sich also - aus gutem Grund - warscheinlich recht lange halten.
(Darum würde ich es auch nicht als solche bezeichnen...)
Es wäre für die Lösung ja nichtmal unbedingt SLI bzw. CF erforderlich.
Außerdem könnte man zusätzlich noch eine Art Adaption von "Hybrid SLI" implementieren, wenn schon zwei Karten im Gehäuse hocken. So könnte z.B. die 2. schwächere GeForce 8 die Aufgaben im Normalbetrieb übernehmen, während das Leistungsmonster dann erst bei Spielen oder entsprechend hungrigen Anwendungen aktiviert wird.
Auf die Art und Weise hätte eine 2. Grafikkarte dann wirklich endlich eine unabweisbare
Daseinsberechtigung. Wo außer vll. noch beim Bildschirmschoner lässt sich PhysX denn sonst noch sinnvoll anwenden?

Was ich damit sagen will - sehr gute Möglichkeiten gibt es jetzt schon...
und ich gehe davon aus, dass sie erkannt und genutzt werden.
 
Zuletzt bearbeitet:
Zurück
Oben