News UT3 soll PhysX neues Leben einhauchen

ohman schrieb:
Alleine schon wegen der immer weiter steigenden Anzahl von Prozessorkernen wird PhysX sich nie durchsetzen.

Die nicht in der Lage sind Ageia das Wasser zu reichen, wie man an Crysis sieht :-)
 
Mich würde ja mal interessieren, ob es PhysX-Karten auch als PCI-E-Karten gibt...
Habe nämlich keinen freien PCI-Slot mehr!
Aber noch einen PCI-E.

Grüße
 
Einen etwas niedrigeren Preis und ein paar richtige Anwendungen. Und die PhysX-Karte wäre ein Erfolg geworden.
Mit richtigen Anwendungen mein ich jetzt keine Dose, die physikalisch weitestgehend korrekt vom Tisch rollt, sondern z.B. Partikeleffekte, für die jede aktuelle CPU zu langsam ist.
Einziger Hoffnungsschimmer für Ageia in meinen Augen: Das sterben von der Havok-Engine (aber wahrscheinlich auch nur so lang, bis der Larrabee kommt)
 
Zuletzt bearbeitet:
Also Physx in Aktion ist schon um Längen besser, weil realistischer und erheblich mehr, als das was es bisher an Spielphysik gab. Allerdings haben die paar Physx-Games, die es gibt die Karte nur für optisch aufegwertete Standardeffekte genutzt.

Mal ein kleiner Orakelblick:
Variante 1: Intel kauft Physx auf und macht es Havokkompatibel dann bringen sie einen Onboardchip für ihre MB´s oder integrieren das ganze in die CPU

Variante 2: Intel entwickelt ne eigene PPU und der Rest wie bei V1.
 
jub, zwischen der Havok Pseudo Physik ;) und PhysX sind Welten, und PhysX ist nicht nur in Software umwerfend (doch ab einer gewissen Kompexität, also Anzahl an Objekten langsam trotz Multithreating), es gibt sogar speziele HW dafür die es traumhaft laufen läßt..

wo die Havok Engine grad mall dafür sorgt das eine handvoll ganzer Objekte innerhalb bestimmter Parameter halbwegs korrekt zu Boden fallen (und wenn man die Parameter überschreited werden sie tw. endloss durch die Gegend geschleudert) kann PhysX einen ganzen Eimer Wasser, bestehend aus tausenden kleinster Wassertropfen in Echtzeit ausschütten und berechnen was jeder Wassertropfen für sich macht und wie sie in immer mehr kleiner stücke zerspringen..

dabei ist ist nicht relevant was man am Bildschirm sieht, sondern die virtuele Berechnung der dabei beiteiligten Objekte, als Beispiel eine Fragmentgranate, wärend die Grafikausgabe einer Staubwolke entspricht, kann PhysX jedes der gut zweitausend Fragmente für sich berechnen, nicht nur die Flugbahn, sondern auch der Schaden (Energie) den ein Fragment beim auftreffen auf ein weiteres Objekt verursacht, ja sogar ob dieses Fragment auf einer Botenwand ein Stück Beton loslößt das dann seinerseits einen Spieler trifft..

Explosionen können aus Steinen Geschosse machen (zb. Stielhandgranate), Projektile können vom Wind oder Druckwellen abgelenkt werden, alles Dinge die man in kleinen Versionen schon kennt, doch die PhysX Hardware gibt einem die Möglichkeit dies bei tausenden Objekten gleichzeitig zu realisieren,

Häuser können zusammenstürzen wenn man die richtigen "Bausteine" entfernt, und jede Ruine die daraus entsteht ist einmallig, in Echtzeit berechnet und trotzdem (auf eigene Gefahr ;) ) begehbar..

Hauptproblem bei der ganzen Sache ist die verfügbarkeit von PhysX Karten, den kaufbar sind sie zur Zeit nur als PCI Versionen und von der vor langer Zeit angekündigten PCIe Version ist nichts in Sicht..
 
Havoc wurde von Intel doch nur gekauft, weil die ihre Eigene Engine Rausbringe wollen.

Labree CPU
Raytracing Engine + Physik Engine
=>
Super Tolle Games die sich super toll vermarketen lassen und mit Labree die nötige Leistung da ist. Und bei dem derzeitigen entwicklungen brauch labree doch nur maximal 1 jahr um sich derbst zuverbreiten.
Man siehe wie schnell sich der q6600 *und aufwärts* verteilt haben.
 
Obwohl die Sache mit den Quad-Cores nun schon ein Jahr alt ist, sind momentan nicht einmal die Dual-Cores richtig ausgelastet. Wärend man zockt, ist ein Kern zu hundert Prozent ausgelastet, ein weiterer darf einen Bruchteil seiner Rechenleistung beitragen - der Rest der Kerne (sofern vorhanden) macht gar nichts. Und dann wollen die einem erzählen, dass wir solche Karten brauchen.

Die Integration der Physikberechnungen in Graphikkarten kann ich mir momentan kaum vorstellen, einfach weil selbst High-End-Karten zu langsam sind - man siehe Crysis. Eventuell lötet man einen extra Chip auf die Platine - aber auch das erscheint mir eher sinnlos.
 
@16 u. 18:

ganz meine Meinung. Und wenn eine CPU 16 Kerne hätte, die Grafik wird trotzdem von einer Grafikkarte übernommen und nicht von der CPU und genauso ist das bei Physik-Berechnungen. Grafikkarten werden auch keine Physikberechnungen machen. Nur das die Leute das nicht peilen und sich mit Havok haben nen Sch*** erzählen lassen.

Speziell für eine Anwendung dedizierte Hardware ist immer besser als durch Treiber oder Software-Spielchen umgeänderte Grafikkarten o. CPUs.
 
Völlig sinnfreie, nicht ausgereifte oder in anderen Worten vollständig überflüssige Zusatzkarte mit Schwächen im Preis wie auch in der Leistung! Viele der Physikberechnungen, die ja zum größten Teil von der CPU abgearbeitet werden, können inzwischen auch Grafikkarten übernehmen. Dies hat ATI und auch nVidia bereits vor einiger Zeit verkündet. Ich verstehe also nicht, warum man, auf Teufel komm' raus, diese Krüppelkarte überhaupt noch fördert. Da investiere ich die 120 EUR lieber in etwas gescheites.

LG
Ganeagon
 
Ich finde, dass ein Spiel mit richtig gut programmierter Physik wesentlich mehr motivieren kann, als ein Game mit "nur" richtig geiler Grafik!

P.S.: CRYSIS hat ne geile Grafik, muss man sagen. Beim ersten Anblick klappt einem die Kinnlade runter. Aber spätestens, wenn man sich daran gewöhnt hat, und dann mitansehen muss, wie völlig unglaubwürdig dort die Blechdächer dieser kleinen Hütten zusammen fallen, muss man doch weinen, wenn man bedenkt, dass man für diese "tolle" Grafik am besten gleich 2 Grafikkarten braucht, die preislich zusammen mehr als die Hälfte des Gesamtpreises des Highendrechners ausmachen, und es hier nur an einer guten Umsetzung für eine gerade mal 80€ teure Physikkarte fehlt!!

Was bringt mir fotorealistische Grafik, wenn ein Spiel damit nur solange realistisch wirkt, wenn man es als Bild betrachtet?!? Glaubwürdige Physik macht hier durchaus Sinn!
 
Zuletzt bearbeitet:
Auch die PhysiX-Karte zaubert keine realistische Physik aus dem Nichts herbei, wenn die entsprechende Physik-Engine von grundauf schlecht programmiert ist oder gar komplett fehlt. Die Karte übernimmt eben nur einen Teil der zu berechnenden Daten, ähnlich wie eine CPU.

LG
Ganeagon
 
Naja, irgendwie ists schon lustig. Einerseits will man keine extra Karte und überhaupt ist PhysX doof, andererseits fallen den Leuten die Kinnladen runter, weil man in Crysis ein paar nette Physikeffekte eingebaut hat. Diese wiederum kann man aber allerhöchstens mit High-End Systemen sehen. Wer sagt uns denn, dass man Crysis nicht hätte auch so programmieren können, dass ein Großteil der Physik von einer extra Karte berechnet wird und die Anforderungen an das System plötzlich niedriger wären?
Würde man PhysX dieselbe Beachtung schenken wie einer GPU, dann wäre die Leistung dieser Karten inzwischen auch schon enorm gestiegen. Ich bezweifle, dass das eine CPU selbst mit acht Kernen schafft. Sicherlich reicht irgendwann die Leistung einer CPU an die Leistung dieser Karte ran, aber das liegt ja nur daran, dass die CPUs weiterentwickelt werden und die PhysX nicht. Hätten die dasselbe Budget wie ATI und nVidia um ihre Karte weiterzuentwickeln, möchte ich mit wetten eure x-Core CPUs sähen ganz schön alt aus.
Übrigens: Eine Grafik wie in Battlefield 2 reicht mir, da wäre realistischere Physik wesentlich interessanter für mich, als ein paar höher aufgelöste Texturen.
 
Im Moment fehlt es einfach an guter Spieleunterstützung, womit solche Karten Sinn machen würden. Mir tun nur diejenigen leid, die sich so ne Karte schon am Anfang für 200-250€ gekauft haben, und weitestgehend auf dem Trockenen sitzen ;)
Es wird sicher noch etwas Zeit vergehen, bis es einige Spiele gibt, die darauf bauen und wirklich besser aussehen / zu spielen sind.
Ich glaube mich noch an Benchmarks mit Ghost Recon 3 zu erinnern, wo die Effekte zwar mit Karte dufte aussahen, aber die FPS schlechter waren. Das zeigt doch, wieviel in diese Richtung noch gemacht werden muss.
 
vielleicht kommt das irgendwann noch - aber im moment ist der nutzen kaum vorhanden und aktuelle quadcores sind nicht im geringsten ausgelastet in games, da bringt dann zusätzliche entlastung auch nix.
Wenn mal games erscheinen die wirklich eine komplette physikalisch korrekte welt simulieren - und damit mein cih nicht ein paar einzelne physikeffekte die zusammengeschustert werden sondern wirklich alles... regen der bächlein bildet und den boden abträgt, fußspuren die sich korrekt im aufgeweichten boden abbilden, bomben die korrekt berechnete krater bilden, bäume die sich im wind bewegen...
Dann wird die rechenlast auch so abartig dass man wirklich etwas in der richtung benötigt.
 
Findus schrieb:
<50€ wär ein Wort ^^

Genau das hab ich mir auch gedacht.

Wäre die Karte für ~30€ zu haben, würde es sich wirklich lohnen so eine Physik Karte zu kaufen, alles andere ist einfach utopisch, zumal ja auch DualCore CPUs schon sehr verbreitet sind und Quad Core sich langsam durchsetzen.
 
Ganeagon schrieb:
Völlig sinnfreie, nicht ausgereifte oder in anderen Worten vollständig überflüssige Zusatzkarte mit Schwächen im Preis wie auch in der Leistung! Viele der Physikberechnungen, die ja zum größten Teil von der CPU abgearbeitet werden, können inzwischen auch Grafikkarten übernehmen. Dies hat ATI und auch nVidia bereits vor einiger Zeit verkündet. Ich verstehe also nicht, warum man, auf Teufel komm' raus, diese Krüppelkarte überhaupt noch fördert. Da investiere ich die 120 EUR lieber in etwas gescheites.

LG
Ganeagon

Toll das sie es vor langer Zeit verkündet haben. Es gibt bis jetzt eine EINZIGE Anwendung (Hellgate London). Eine Einzige. Und äh... vor Havok_FX braucht man auch eine 2. Graka. Oder meinste die jetzt schon GPU-Limitierte Software gibt dann noch ein bisschen GPU-Leistung frei damit Effekt-Physik darauf gerechnet werden kann? Die FPS-Geilheit der Massen wird das verhindern.
Und was die meisten noch nicht schnallen. Grafikkarten-Physik ist EFFEKT-Physik und keine Ingame-Physik. Da liegen Welten zwischen.

Aber die Leute die 1066er Speicher kaufen, weil sie einen 1066er FSB-Prozessor haben, die warten auch noch 3 Jahre bis es feinste Effekt-Physik auf der (dann zwangsweise nötigen) 2. Graka gibt.

Wo ist da jetzt bitte der Sinn ob ich eine 2. Graka zustecke und abgespeckte Effekte-Physik bekomme oder eine PPU kaufe die das richtig macht?


@Multicore-Jünger
Das schöne daran ist doch. Es gibt jetzt die PPU von AGEIA und sogar Software. Und es gibt das blöde Gelaber aller anderen. Ihr dürft weiter warten auf Anwendungen.
 
Zuletzt bearbeitet:
Sorry, aber 99$ für die Karte sind immer noch zu viel... Bei 50€ kauf ich das Teil vielleicht, aber darüber ist das Teil einfach zu teuer...
 
Zurück
Oben