News Cryostasis-Techdemo mit DX10 und GPU-PhysX

Was ist eigentlich mit den PhysX-Karten von Ageia ... werde die jetzt nicht mehr unterstützt? Kann ich dann meine aus dem Rechner nehmen?
 
THX201 schrieb:
Was ist eigentlich mit den PhysX-Karten von Ageia ... werde die jetzt nicht mehr unterstützt? Kann ich dann meine aus dem Rechner nehmen?

Diese Karten kannst du selbstverständlich weiterhin nutzen. Sie sind zum jetzigen Standpunkt der Dinge noch mehr als ausreichend. :)

Selbst wenn du im Moment eine NVIDIA (ab 8*** aufwärts) in deinem System hast, lass sie drin. Deine GraKa hat so mehr Raum für ein paar frames mehr.


mfg :)
G.
 
was reden hier alle von der Grafik und den Effekten?

PhysX auf der GPU soll nur zeigen, dass es wesentlich besser läuft als die Berechnung auf der CPU.

Damit ist aber noch lange nicht gesagt, wie realistisch die Effekte sind, welche mit PhysX umgesetzt werden.

Das Spiel ist einfach ein schlechtes Beispiel, da die gezeigten Effekte eher unrealistisch aussehen und damit den meisten vermittelt, dass man mit der Technik nur unrealistische Effekte hinbekommt. Dem ist nicht so...
 
Öhm Die Techdemo zeigt, dass auf GPU-Berechnung optimierte Physikeffekte nach extrem vereinfachten Modellen besser auf GPUs als auf CPUs läufen (ah hammwer wieder was gelernt). Was lustig ist, da Intel zu Zeiten der P IV-Generation gezeigt hat, dass das verhalten von Wasser in Echtzeit über die CPU berechnet werden kann und dabei hoch realistisch aussieht und als Zusatz gab es das Ganze wunder hüpsch als interaktive Techdemo. Gut es hat hi und da geruckelt aber nach paar Jährchen Programmoptimierung und CPU-Entwicklung müsste das wie die meisten P-IV Killeranwendungen auf nem C2D oder neuer sehr gut laufen. Das Beweisvideo muss ich leider schuldig bleiben. Es stammt aus einer Zeit in der Youtube und Breitbandanbindungen eher unbekannt waren ;)
 
Ne zum rendern der Grafik/Spiegelungen etc. wurde auch damals schon eine Grafikkarte eingesetzt. Klingt komisch, ist aber so :D. Die Aussage soll sich auch nur darauf beschränken, dass der Leistungseinbruch für derart miese Ergebnisse nicht gerechtfertigt ist, da anno dazumal (nach mooreschem Gesetz wohl der Leistungsfaktor 8? dazwischen liegend) die meisten Effekte bereits besser funktionierten.
 
Ach ja, ganz nett aber brauchen werde ich das erstmal nicht. Schön das meine 8er es können aber bis es Standard wird oder wir richtig damit etwas anfangen können sind unsere Karten mehr als nur verstaubt. Denke dann wird es schon eine Nvidia 480GTX usw geben. Netter Anfang aber mehr als eine Demo wird keiner von uns damit etwas anfangen können. Warten wir es ab, DX11 wird es zeigen wie wo und vorallem wann. MS hat das Ruder in der Hand und wird es mehr beeinflussen als wir uns es vielleicht vorstellen können. Windows 99% Marktanteile und 99% Mitsprachrecht was es geben wird und was Windwos können wird und vorallem unterstützen wird. Ob Physik X oder Novoc oder wie das auch heisse mag DX11 wird es richten.

Piktogramm schrieb:
Hier stand ein überflüssiges Zitat.

Ich weiss was er meint. Ja er hat Recht, da gab es mal etwas. Intel hatte sich diesem Thema mal angenommen und was versucht. Haben es aber wieder fallen lassen weil die Möglichkeiten zu extrem gewesen sind um es in Spielen richtig umzustezen. Denke auch das die heutigen Cpus das besser könnten aber es ist kein Vergleich zu Physik X oder ATI. Was wir nicht vergessen dürfen, Windows wird auch immer hungriger und die Anwendugen auch. Also haben wir eigentlich kaum mehr Leistung über als ein P4 mit W2000 nur halt mehr Möglichkeiten da Vista mehr kann als W2000 aber im Vergleich ist die verbleibende Rechenpower die Gleiche. Ja der VErgleich hinkt etwas...
 
Zuletzt bearbeitet von einem Moderator: (Mehrfachpostings zusammengeführt / Komplettzitat entfernt.)
@Konti:

Ich habe das schon mal geschrieben right, und wie gesagt ein Link ist schwer da das Video bedeutend älter ist als Youtube. Wenn man nach Intel Water Simulation und ähnlichem schaut findet man tausende Beiträge kleiner Kinder zu den Wassereffekten unzähliger Spiele aber die Präsentation von Intel findet man nicht. Ebenso erfolglos bleibt Google, da geht das Damalige einfach unter im Medialem Jungle Internet der nun mal mittlerweile alles Alte überwuchert (was anno dazumal nen kleinen Videobeitrag im TV wert war wäre heute durch paar tausend Blogs, Nachrichten und Foreneinträge samt zahlreichen Youtube Videos recht gut wieder zu finden, schlicht weil es überall zu finden ist. Damals gab es da vllt. 1-3)
 
Mister79 schrieb:
Hier stand ein überflüssiges Zitat.

Ich glaub nicht das Nehalem, ein C2Q oder en C2D genauso schnell ist wie ein P4 nur weil Windows ressourcenfressender geworden ist. Wenn es so wäre müsste Windows ein Kern des C2D komplett auslasten. Mal abgesehen davon das zusätzlich die Performance pro Takt besser ist.
 
Zuletzt bearbeitet von einem Moderator: (Komplettzitat entfernt.)
... gar nicht anschauen können, bieten wie ein Video ...

nach sovielen tagen immernoch so ein tippfehler im artikel (der scheinbar keinem auffiel)? alle schon in den weihnachtsferien, wa? ;) :D

aber zum thema..
ich bin ja echt n kleiner fan dieser technik mitlerweile, aber da fließt wohl noch viel wasser den berg runter, bis das wirklich "sehr gut" aussieht, vor allem bei selbigem (das sieht aus wie ne extraschicht bei großen wassermengen, die einfach über die oberflächentextur gleitet und wirkt dadurch teilweise sehr unrealistisch).
 
Finde das Video nich soo berrauschend.

Hat man doch alles schonmal gesehn. Außer das mit dem Wasser is ziemlich cool. Den Anfang hat ja "damals" BioShock gemacht!
 
r4yn3 schrieb:
So gesehen, es wurden Ageia Karten für Spiele bzw für PhysX in Spielen entwickelt. Das berechnen von PhysX auf GeForce Karten ist für mich nur eine Implementierung dieser.
Ist ja schön und gut. Nur hat das immer noch keinen Bezug zu Radeons.

r4yn3 schrieb:
Zudem ist die Anforderung nicht für mich gegeben, sondern eben für Cryostasis, Warmonger und eben solche spielereien die bewusst auf PhysX setzen.
Was einfach uninteressant ist, da es keine Relevanz für den Markt hat. Und maximal nach dem richtet sich AMD. Wenn PhysX irgendwann mal so verbreitet wäre, dass es bedeutsam für den Markt ist, wie zB OpenGL oder D3D, dann wäre auch die Anforderung gegeben. Davon sind wir aber meilenweit entfernt. Und persönlich sehe ich auch keine stichhaltigen Gründe, warum sich das ändern sollte. Wie gesagt, dass es eine standardisierte Schnittstelle für Physik geben und dies von GPUs unterstützt wird, ist nicht unwahrscheinlich. Was das sein könnte, lässt sich momentan aber noch nicht abschätzen. Und wenn man sich anschaut, dass einige Branchengrössen auf Havok setzen und zudem Microsoft noch ein gewichtiges Argument mit DirectX hat, spricht jedenfalls kaum etwas für PhysX. Stell dir vor, AMD implementiert jetzt den Support für PhysX, steckt also etliche Ressourcen hinein, und in 1-2 Jahren kristallisiert sich heraus, dass Industrie und Markt auf etwas anderes setzen. Das wäre aus Sicht des Unternehmens nicht nur verantwortungslos, sondern kostet unnötig Geld und Zeit. Solche Spielchen kann sich vielleicht Intel in guten Zeiten erlauben. Aber mit Sicherheit nicht AMD in Zeiten einer Rezession. Gerade dann müssen Kapazitäten sinnvoll koordiniert werden. Und da haben momentan ganz andere Sachen Priorität.

r4yn3 schrieb:
Und das mit dem "könnte es" ist wie eine Verhöhnung nVidia´s von AMD könnte man deinem Satz entziehen
Aber nur, wenn du AMD Unfähigkeit unterstellen willst. Nimm es mir nicht übel, aber diese subjektive Grundhaltung ist in fast jeder deiner Aussagen enthalten. Wie wäre es mit ein bisschen mehr Objektivität? ;)
Nur zur Info, das "könnte es" bezog sich auf das Angebot von nVidia. Es geht schliesslich erstmal um Machbarkeit, nicht um Fähigkeit.

Konti schrieb:
Daß z.B. schon eine 8800GT weit mehr an Performance für Physikberechnungen bietet als ein Q6600 Prozessor, kannst du durch diverse Tests im Internet nachvollziehen.
Was keine Antwort auf die Frage ist. Ein Ferrari ist auch weit schneller als ein Fiat. Trotzdem heisst das nicht zwangsläufig, dass ich mit dem Fiat nicht pünktlich von A nach B komme. Im Gegenteil, wenn ich mit dem Fiat weniger Sprit brauche, ist das die effizientere und zu bevorzugende Lösung.
Nochmal, irgendwelche Aussagen dogmatisch runterzuleiern, bringt niemanden weiter und ist momentanen vollkommen unangebracht. Du machst den Fehler, wie andere auch, alles immer nur auf eine Komponente zu reduzieren. Es geht aber heute schon mehr um Plattformen denn je.

Konti schrieb:
Ändere bitte deinen Diskussionsstil. Mit "sachlich" hat der im Moment wenig zu tun.
Soll das Ironie sein? Bevor du dich so weit aus dem Fenster lehnst, solltest du dir lieber erstmal anschauen, wem von uns beiden Hintergrundwissen fehlt und wer hier teils ziemlich daneben gehauen hat.
 
Zuletzt bearbeitet:
@Auto-Vergleich
Du nimmst die Dinge schon wieder völlig aus dem Zusammenhang. Lies nochmal die vorrangegangenen Posts, versteh die Aussage und akzeptiere, daß per GPU-PhysX heute schon Physikberechnungen in Echtzeit möglich sind, die du im Moment mit keiner anderen Schnittstelle realisieren kannst, weil es auf Grund der fehlenden Hardware-Anbindung an Rechenpower fehlt.

@Support-Kosten:
"Etliche Ressourcen" .. der war gut.
Wenn du dich erinnerst:
Die PhysX-Unterstützung auf einer ATI konnte selbst ein Freelancer mit nicht allzugroßen Aufwand bewerkstelligen. Das kostet ATI sogut wie garnichts, das zu implementieren ... wahrscheinlich haben sie den fertigen Code ohnehin schon bei sich rumliegen.
 
und du möchtest jetzt das sie ein paar milliönchen an die grünen abdrücken damit sie sich langfristig an diese und ihre physik-politik binden ?

Da verzichte ich doch lieber jetzt auf diese paar lächerlichen Effekte, wenn es AMD damit schafft ein offenes System durchzudrücken von dem letztendlich alle profitieren.


Denn eine Sache würde und wird physx ewig anhaften : der Versuch damit Grafik-/Physikkarten zu verkaufen was effektive cpu-Implementationen grundsätzlich verbietet.

Wenn wir aber in einigen Jahren dann mit 8,16 oder gar 32 Kernen unterwegs sind ist dies nicht mehr so abwegig wie vielleicht heute noch.
 
Konti schrieb:
@Auto-Vergleich
Du nimmst die Dinge schon wieder völlig aus dem Zusammenhang. Lies nochmal die vorrangegangenen Posts, versteh die Aussage
Gebe ich einfach mal unkommentiert zurück. Du redest schlichtweg am Thema vorbei. Nochmal, was theoretisch mit PhysX möglich ist oder nicht, hat keinerlei Relevanz und war nicht Gegenstand des Themas.

Konti schrieb:
@Support-Kosten:
"Etliche Ressourcen" .. der war gut.
Wenn du dich erinnerst:
Die PhysX-Unterstützung auf einer ATI konnte selbst ein Freelancer mit nicht allzugroßen Aufwand bewerkstelligen. Das kostet ATI sogut wie garnichts, das zu implementieren ...
Ähmm, ja genau. :rolleyes: Treiber Programmierung ist natürlich das simpelste und unkomplizierteste überhaupt. Anscheinend hast du doch Null Ahnung von Softwareentwicklung. Darf ich mal fragen, ob du überhaupt schon mal etwas programmiert hast? Und nein, damit meine ich nicht irgendwelchen in einen Editor eingegebenen HTML Code oder ähnlichen Firlefanz.
 
Und ein weiterer persönlicher Angriff von dir. Das meinte ich übrigens mit Diskussionsstil. Man kann argumentativ diskutieren, oder versuchen, sein Gegenüber zu diffamieren.

Zum Thema Aufwand diesen Treiber zu programmieren:
Einfach nochmal lesen, was du gerade gequotet hast (vielleicht auchmal die CB-News zu dem Thema anschauen).



Zum Thema "theoretisch mit PhysX möglich":

Du hast begonnen mit:
"Welche Hardware der Implementierung zugrunde liegt, interessiert den potenziellen Entwickler erstmal nicht."

Und ich habe dir ein Argument geliefert, warum es für den potenziellen Entwickler interessant ist, PhysX zu benutzen. Er kann damit Physik-Berechnungen in einer Komplexität in seine Spiele/Programme integrieren, die mit Havok etc. schlicht und einfach in Echtzeit nicht möglich sind.
Ich weiß daher garnicht, worauf du die ganze Zeit hinaus willst.
 
Zurück
Oben