News UT3 soll PhysX neues Leben einhauchen

Selbst wenn die nichts kosten würde wärs mir um den Stromverbrauch zu schade.

Wenn ich an nem normalen Rechner mit 19 Zoll TFT in 1280x1024 spiele, dann langweilt sich meine CPU bei 3/4 der Rechner heute schon weil die Graka immer vorher an die Grenzen kommt. Ergo hab ich jetzt schon überflüssige Rechenleistung. Wie soll das erst in 2 Jahren aussehen ?
Spiele werden nie richtig mit der Anzahl der Cores skalieren, ergo wird in Zukunft immer mehr CPU-Leistung brachliegen die man wunderbar für Physik oder KI nutzen kann.

@Willard:
Ist ja nett wenn ich die Explosion einer Granate bis ins kleinste berechnen kann, aber wozu ?
Merkst du beim Spielen ob du gerade von nem Schrabnell getroffen wurdest dich physikalisch korrekt gekillt hat oder nur durch einen Zufallsgenerator ?
Wenn ja: Zahlst du für die Gewissheit 99 Dollar ?

@An alle "ne CPU wird das nie so gut können wie ne spezielle Karte"-Anhänger:
In einem Spiel Mitte 2006 musste z.B. ein A64 SingleCore mit 2Ghz alles berechnen, Physik, KI, Teile der Grafik, sonstige Spiel-Logik. Sprich für Physik blieben vielleicht 20% der CPU-Power über.
Ende 2008 hat das Spiel 4 Penryn-Kerne a 3Ghz zur Verfügung, davon liegen für Physik und KI dann wohl 2-3 brach.
Wenn der Physikprozess nur einen Kern bekommt, dann hat er wenn man die höhere Leistung/Takt zugrunde legt schon 10x soviel CPU-Power wie das Game 2006.
Tendenz eher steigend als sinkend. Sprich die Physik wird auch so in Bereiche kommen in denen vieles machbar ist was noch vor 2 Jahren undenkbar war.

@HisN:
Es gibt jetzt die Software mit der man Sachen entwerfen kann die die PPU mal nutzen könnten. Grandios, dann kann ich ja schon 2009 mit fertigen Produkten rechnen.
 
Lustig, wie sich hier einige als Orakel für die Zukunft versuchen.

Prinzipiell finde ich den Ansatz der PhysX-Karte wirklich gut. Ok, der Preis ist noch nicht da, wo er sein müsste, um sich in der breiten Masse durchzusetzen, aber wenn der wirklich auf 50-75€ sinkt, wird die Karte auch wieder neue Abnehmer finden.
Ob UT3 der Reisser dafür sein wird, wage ich mutig zu bezweifeln. Allerdings ist es auch nicht nur Hellgate London, welches die PhysX-Karte unterstützt. Sacred2 wird dies ebenflass tun.
Und es sind ja noch einige Spiele in der Mache.
Ich denke nicht, dass die Systemintegration durch mehr Prozessorkerne vorangetrieben werden wird. Vor allem nicht mit der Raytraycing-Geschichte von Intel.
Wenn diese rauskommt, ist eh alles aktuelle Geschichte, weil hier zwar massiv Rechenleistung verlangt wird, aber die Grafik und die Physik mehr als realistisch sein können! Und hierfür wird es mehr Kerne und auch starke GPUs benötigen. Dann wird PhysX spätestens Geschichte sein.
Allerdings wird dies noch ne Weile dauern, weil sich 8 und 16Kern-CPUs erstmal aus dem Entwicklungsstadium in unsere Rechner kommen müssen, damit Raytraycing wirklich Sinn macht.
 
Eigentlich klingt es ja ganz gut, wenn man zu hören bekommt, dass eine Karte den Spielspaß im Allgemeinen durch Realismus und speziell durch korrektes Physikverhalten fördert oder sogar erhöht. Ohne weiteres aber funktioniert PhysiX nun auch wieder nicht. Karte rein - fertig, ist nicht Mal so eben möglich! Auch hier, wie so oft in Spielen, muss die Spielengine die jeweilige Funktionsweise der Karte unterstützen. Es bringt mir ebenso wenig Crossfire oder SLI etwas, wenn beide Grafikkarten lediglich als eine einzige erkannt werden.

Ich habe mir vor geraumer Zeit einige Demos mit und ohne PhysiX-Effekten angesehen, die von der Hersteller-Seite verlinkt sind und daher als die besten ihrer Art bezeichnet werden dürften, da der Hersteller, logischerweise aus absatz-technischen Gründen, wohl kaum unschöne Effekte präsentiert. Und, um so viel besser, vor allem aber, um so viel realistischer sahen die Effekte nicht aus! Nun gut, hier kann man der Karte allein nicht die Schuld aufbürden, denn ohne gescheite Unterstützung siehts halt nicht so doll aus.

Dennoch bleibe ich bei meiner Aussage, die ich an dieser Stelle nochmals wiederholen möchte, auch wenn es einige vielleicht ungern lesen werden:

PhysiX. Völlig sinnfreie, nicht ausgereifte oder in anderen Worten vollständig überflüssige Zusatzkarte mit Schwächen im Preis wie auch in der Leistung! Viele der Physikberechnungen, die ja zum größten Teil von der CPU abgearbeitet werden, können inzwischen auch Grafikkarten übernehmen. Dies hat ATI und auch nVidia bereits vor einiger Zeit verkündet. Ich verstehe also nicht, warum man, auf Teufel komm' raus, diese Krüppelkarte überhaupt noch fördert. Da investiere ich die 120 EUR lieber in etwas gescheites.

Und zu guter Letzt noch, möchte ich Blutschlumpf nur beipflichten. Er hat nämlich vollkommen recht, die Entwicklung der Prozessoren vollzieht sich mit rasender Geschwindigkeit, als dass sich PhysiX durchsetzen könnte. Vielleicht sollte sich Ageia im Grafikkarten-Sektor probieren? Wer weiß, womöglich haben sie dort mehr Erfolg und wir eine mögliche Alternative? :D

LG und einen wunderschönen guten Morgen!
Ganeagon
 
a) Spiele werden dadurch (auf lange Sicht) nicht besser
b) bekommen sie ja in spielen(nicht grafikdemos) nichtmal Physik zustande die meinen E6600 auslasten könnte, von starken cpus ganz zu schweigen

Natürlich kann man hunderttausende Partikel erzeugen, die physikalisch korrekt umherflattern, um die CPU zu überlasten, aber was bringt das denn ?

Wirklich wichtig sind eh nur großte Objekte wie z.b. Kisten/Fässer und für die paar reicht auch eine cpu zu Berechnung.
 
Nightmare10 schrieb:
dazu sag ich nur überflüssig... in aktuellen spielen haben wir doch auch physikeffekte (allein das runterfallen von sachen) und das kann die cpu ganz einfach berechnen. sagt mir mal bitte wo da das problem ist?

Dass das "was wir heute an Physikeffekten haben" ein Witz dagegen ist, was man mit so ner Karte anstellen könnte? ;)

Allerdings nehm ich eher an, dass die in Zukunft durch Grafikkarten mit Multicore oder nem seperaten Physik-Chip überflüssig werden könnte!


Realsmasher schrieb:
Natürlich kann man hunderttausende Partikel erzeugen, die physikalisch korrekt umherflattern, um die CPU zu überlasten, aber was bringt das denn ?
Wirklich wichtig sind eh nur großte Objekte wie z.b. Kisten/Fässer und für die paar reicht auch eine cpu zu Berechnung.


Ein schöneres Spiel, wo auch mal was anderes als eben grosse Sachen berechnet werden? ;) Guck doch mal in die Threads zu Supergrafikspielen wie Crysis, wo trotzdem alle am rummeckern sind, dass sich irgendwo ein Blatt nicht physikalisch korrekt bewegt, wenn ne Handgranate irgendwo explodiert oder wo das "komisch aussieht wenn man mit nem Panzer ne Hütte plattfährt"

Bis Mitte der 90er hat ja auch die CPU alle 3D-Berechnungen übernommen, dann hat man um die zu entlasten und für neue Effekte die 3D-Grafikkarten erfunden, aber da hat sich komischerweise niemand so dagegen gewehrt...
 
Zuletzt bearbeitet:
Habe mal Google bemüht und nen Währungsrechner gefunden. Demnach kostet die Karte ohne Steuern 66,78€. Wenn ich bedenke, dass Leute über 100€ für eine Soundkarte von Creative bezahlen und dann noch monatelang auf funktionierende Treiber warten und das alles ganz toll finden, dann finde ich den Preis nicht mal teuer. Mir fehlen nur die Anwendungen für diese Karte und eine passive Variante sollte es auch noch geben. Und den Leuten die meinen ein akt. QC könnte das übernehmen, den sage ich nur, träumt weiter.

http://www.bankenverband.de/html/reisekasse/waehrungsrechner.asp
Donnerstag, 22. November, 2007
99 Euro = 146.759 US Dollar
99 US Dollar (USD) = 66.78314 Euro (EUR)
Mittelkurs war 1.48232 / 1.48241 (Geld/Brief)
Mindestkurs war 1.47754 / 1.47763
Maximalkurs war 1.48564 / 1.48573
 
Also ich war und bin noch von der Umsetzung der Physikeffekte durch die Physix-Karten enttäuscht. Auch der anfänglich überzogene Preiss von über 250 Euro war auch nicht angetan meine Begeisterung zu steigern. Auch das die Karte nativ nur 32 bit genauigkeit unterstützt ist schlicht weg anachronistisch, von PCI slot ganz zu schweigen.

Die Idee dahinter ist allerdings GENIAL! Eine zusatzkarte die meine Integeroperationen um faktor 50 steigert! Und ich weiss nicht mehr um wieviel die Fliesskommaoperation gesteigert wurde. Das alles für unter 100 Euro, na sagen wir ca. 70 - 80 Euro. in 64 bit rechengenauigkeit auf auf PCI-E slot (4-fach) mit 512 MB wäre der Hammer!

Davon würden nicht nur Spiele profitieren sondern man könnte die Rechenleistung eines PCs verzwanzigfachen oder verdreissigfachen. Dann könnten auch Programme wie "open universe" (ich weiss das heisst jetzt anders, bin aber zu faul zum nachschauen) davon profitieren.

Sollche Karten Gibt es schon jetzt aber da sie keine Massenware sind kosten sie (und deren Software) ein Schweine Geld (Bereich 2.000 bis 6.000 Euro) wobei das meiste auf die Softwarepakete entfällt.

So eine Physix für den Massenmarkt würde auch die Preise für solche speziallkarten gehörig zurecht Rücken. Meines Wissens arbeiten Firmen die sollche "Lösungen" anbieten mit Gewinnmargen in Bereichen von 800% - 1000% .

Ausserdem glaubt nicht das mehrere CPU/GPU Cores effizienter sind als ein CPU/GPU Core. Weder der einzelne CPU/GPU Core ist auf schnelle Physix berechnungen optimiert noch wird das zusammenschalten von mehreren unoptimierten CPU/GPU Cores die Effizienz des "Gesammtverbandes" steigern.

Ein Ageia chip braucht gerade mal 30 W und rechnet um zehnerpotenzen schneller als jede heute verfügbare Multicore CPU. Und das alles in 130 nm Fertigungstechnik! Lass mal einen Physix Chip in 65 nm Technik fertigen, dann würde man das tatsächliche Potential sehen!

Also meine Meinung ist. Genialle Idee aber schlecht ausgeführt und zu gierig an den Start gegangen!
 
Zuletzt bearbeitet:
Ich fänds klasse wenn Spiele noch realistischer werden würden durch physikalisch korrekte Berechnungen. Und dabei ist es mir völlig Wurscht wie das erreicht wird. Sobald sich eine Technik dafür durchsetzt, werd ichs mir holen.
 
Kann son Ding eigentlich im Bereich Raytracing wichtig sein? Das ist ja keine "Physikkarte", sondern auf bestimmte Berechnungen optimiert, die eben dafür verwendet werden können, weiss aber nicht ob die auch eben bei Raytracing hilfreich sein können! Da sagt man ja auch dass da keine aktuelle GPU was bringen würde, weil da nur die CPU wichtig ist!
 
ICH bin noch immer von dem kommenden durchbruch der karten überzeugt! jeder der sich mal etwas näher mit der materie beschäftigt hat (und auch verstanden hat worum es in dieser geht) wird feststellen das weder GPUs noch CPUs einer speziell auf ihr aufgabengebiet zugeschnittenen lösung das wasser reichen können! der größte lacher hier ist sowieso immer das strom-argument! teilweise die dicksten grafikkarten, bis zum geht nich mehr übertaktete CPUs im rechner und dann über MAXIMAL 30 watt mehr jammern!? ich bitte euch man kanns auch übertreiben! gewöhnt euch erstmal an an sämtlichen geräten den stecker zu ziehen, energiesparlampen in die fassungen zu schrauben und die heizkosten auf eine minimum zu drücken! zudem fahrt bus, zug und straßenbahn und hört auf zu rauchen und zu trinken. das ist wie bei grafikkarten die MAXIMALE leistungsaufnahme die die karte erreichen KANN!!! wie man sowas von kurzsichtig sein kann frag ich mich immerwieder. naja die disskussionen über sinn und unsinn gabs schon damals bei 3d grafikkarten. nvidias erster chip war n flop und ich hab jetzt noch die niederschmetternden artikel in diversen zeitschriften (internet hatte ja kaum jemand) vor augen. wo sind wir heute angelangt? RIIICHTIG.. guckt mal in euer case! normale CPUs haben bei weitem nicht genügend rechenleistung um wirkliche, komplexe physik in echtzeit mit tausenden von objekten zu berechnen, grafikkarten liefern nur eye-candy.. scheint den meisten ja zu reichen. dieser post wird eh bestimmt von der breiten masse als geflame abgetan aber wie gesagt, lest euch in die materie, versucht zu verstehen was dahinter steckt, denkt einfach mal LOGISCH drüber nach und glaubt nicht alles was irgendwelche selbsternannten pseudoprofis meinen vom stapel zu lassen! naja ich geh jetzt die Bildzeitung lesen ;)


übrigens.. ich zahle meinen strom ALLEINE! also spart euch die kommentare..
 
Zuletzt bearbeitet:
Also ich schließ mich auch mal der Pro Fraktion an. Und da wohl auch im Bereich der Physik(x)karten sicher die Zeit nicht stehen bleibt und sicher in diesem Bereich die Entwicklung weitergeht.

Auf längere Sicht kommen wohl bestimmt mal einfache Zusatzchips auf der direkten GraKa, aber das wird bestimmt noch etwas dauern. Die Masse drängt (mehr oder weniger aggressiv) wohl erstmal auf weniger Energieverbrauch und damit geringere Wärmeerzeugung. Die derzeitigen Werte da sind ja unerträglich :(

Da der Preis jetz so eingebrochen ist bin ich jetz echt schon am überlegen ob ich mir ned so ein Ding hol. Mein betagter XP3200+ wird mir das sicher danken... da ich Ghost Recon AW hab und auch gerne mal etwas besser zocken würde ^^
 
Auch ich bin für eine Physik-Karte.
Ich freue mich schon auf den Tag, wenn ich auf eine Mauer schieße und echte Löcher und Schutt dabei entstehen.
Oder realistisch abgenutzer Rasen und echte Ballphysik bei Fußballspielen.

Es gibt so viele Möglichkeiten.

Ich habe mir auf der Ageia-Seite mal ein Video angesehen, bei dem die Haare einer virtuellen Schauspielerin dargestellt wurden. Das fand ich auch schon extrem Beeindruckend!

Viele Grüße
Trai
 
Wenn sich sowas wirklich durchsetzen wird, dann nehm ich mal an, dass es auch wirklich so wie in den 90ern mit den 3D-Karten ablaufen wird:

- Erst gibts sowas nicht
- Physikeffekte erscheinen in Spielen
- Spezielle Physikkarten erscheinen für mehr/bessere Effekte
- Physikkarten und Grafikkarten verschmelzen wieder zu einer Gesamtkarte
 
Habe auch ne Physx Karte und bin eigentlich ganz zufrieden.Allerdings zeigt Ghost Recon wesentlich besser was mit Physx möglich ist.UT3 benötigt meiner meinung nach keinen Physx Bechleuniger.Wo sieht man da was von Physik?????Habe die Demo gespielt und bin sowas von entäuscht....das schlechteste UT aller Zeiten!!!!Wisch Wasch-Grafik und Physx existiert doch nur als Marketing-Gag...Also meiner Meinung kurbelt Unreal sicherlich nicht den Physx Markt an......schade eigentlich....es steckt soviel Potenzial in dieser Materie:-(
 
Wo führt denn diese Entwicklung hin, sollte sie sich in Form von PhysiX durchsetzen? Wäre es dann nicht am besten, ja sogar eine logische Konsequenz, die sich daraus ergäbe, wenn für sämtliche Physik-Berechnungen von Wetterdynamik (Regen, Sturm, Schnee usw.), Kinematik (Bewegung von "masselosen" Körpern, wie zum Beispiel Kugeln, Staubkörnern, Rauch etc.), bis hin zu Thermik (aufsteigende Hitze, Explosionswärme, die mit der Umwelt reagiert, usw. usf.) eine entsprechende, eigenständige, zugeschnitte Kartenlösung angeboten würde? Neben der Grafikkarte, hätte man zusätzlich noch 5 bis 10 weitere Karten im Rechner oder aber auch mehr... :lol:

Etwas übertrieben, ja, ich weiß, war auch die Absicht, meine Intention.

Ein Rechner aus dem Jahre 2014 (nicht wirklich ernst nehmen) ;) :

4 x DeltaCore CPU von AMD/Intel (4 x 16 x 7,2 GHz, non-OC)
2 x OctaCrossfire GPU von ATI
1 x PhysiX
2 x Dynamik-Karte
2 x Thermik-Karte
2 x Mechanik-Karte
2 x Kinematik-Karte
1 x Soundkarte

Die PhysiX koordiniert die restlichen Physik-Karten... :D

Nein danke! Sowas ist überflüssig. :p

LG
Ganeagon

PS: Man möge mir meine angestaubte Phantasie verzeihen!

EDIT: Zum Glück gibts im Jahre 2014 schon die Kernfusion in Kernfusionskraftwerken, wodurch sämtliche Energieversorgungsprobleme gelöst wurden. So kann sich nun jeder für seinen Rechner, einen zwingend notwendigen 2.000 Watt NT einpflanzen. :D
 
Zuletzt bearbeitet:
du vergisst das die integration von bauteilen, die fertigungsprozesse sich bis dahin immens verbessert haben. vergleich einfach mal die Core2 von heute mit den P4. mehr leistung bei weitaus geringerem stromverbrauch! außerdem hätte ich lieber diverse einzelkarten die ich je nach bedarf ersetzen/erweitern kann. wozu hat man schließlich slots :)
 
Also ich hab die Karte schon länger eingebaut

Und ich würde die nicht mehr hergeben.
Gerade bei BF2 und BF2142 bekommt man einige Frames
mehr mit der Krate (bei mir über 100).

Das ist schon ein großer Vorteil.
 
Ageia hatte den großen Fehler begangen zu gierig zu sein, die Lizenzkosten waren sehr hoch und die Hardware schlicht zu teuer

Das eine CPU auch Physik berechnen kann ist zwar richtig, gegen einen spezialisierten Chip wird diese aber immer abstinken, die Physx Karten sind ja nun doch schon etwas älter (so werden diese vermutlich wirklich bald von den CPU-Generationen überrundet), man könnte aber auch annehmen, hätten sie sich besser verkauft und wäre durch ein gutes kosten/nutzen Verhältnis da gewesen gäbe es sicher schon weitere Generationen

der Großteil der Spieler sieht es nur nicht ein viel Geld für wenig Gegenleistung auszugeben

Ein Rechner aus dem Jahre 2014 (nicht wirklich ernst nehmen)
*reichlich blabla*
sicher könnte man das so sehen, nur _wenn_ diese Effekte einzug halten, macht es doch mehr Sinn diese wieder auf einer größeren Generation von den Physikkarten zu bündeln und wie ehemals die Shader auf Grafikkarten nun von den universellen Steamprozessoren abgelöst wurden,
oder hast du eine Antialiasing-Karte in deinem PC?

und Havoc hatte sich ja auch "nur" die Shader-Prozessoren gekrallt (vermutlich mit dem Speicher ;) ), nicht den ganzen Grafikchip, es wäre daher auch möglich das Intel eine Erweiterungskarte in solchem Umfang herraus bringt und dadurch abwärtskompatibel die Havoc-Titel beschleunigen kann

eine Grafikintegrierte Lösung wäre uns allen zwar sicher am liebsten, nur daraus wird ja vermutlich so schnell nichts werden
 
Zuletzt bearbeitet: (mein Dank ergeht an Ganeagon welcher auf die korrekten Schriebweisen achtet)
Imho ist PhysX die beste Lösung, da sie von der Leistung her der CPU (egal wieviel Kerne) und GPU weit überlegen ist. Inwiefern sich das Gameplay dadurch verbessert ist natürlich ein anderes Thema.

Den Preis von 100€ würd ich auch zahlen, wenn genug Games die Technik vernünftig nutzen würden, was leider nicht der Fall ist.
 
Bullveyr schrieb:
Den Preis von 100€ würd ich auch zahlen, wenn genug Games die Technik vernünftig nutzen würden, was leider nicht der Fall ist.

Was nicht is kann noch werden. Aber darüber jetz und hier sich auszulassen ist sinnlos. Wird alles die Zeit zeigen.
 
Zurück
Oben