• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

News Benchmarks: PhysX mit ATi in Mirror's Edge

also ich hab ME mit physics gespielt bis zur dritten mission dann gabs irre slowdowns, das war das level wo man flüchtete aus nem bürogebäude, warum spoiler ich mal nicht rein, jedenfalls schossen die dummen wachen da auf glas und das brachte massive slowdowns mit sich(dachte zuerst mein pc ist im eimer dann hab ich aber an das physx gedacht das ich ja aktiviert hatte ^^), bis dahin hatte ich physX garnicht wahrgenommen, habs dann ausgemacht und die Erfahrung war genausogut wie mit dem Müll.

Ich hab das Youtube video gesehn zu physX @ ME aber das bringts doch voll nicht, ich hab bei ME kein einziges mal auf irgendwas andres als auf gegner geschossen dafür wäre mir die munition zu schade gewesen außerdem ist man eh in der Regel unbewaffnet!
 
Ausreichend potente Hardware ist flächendeckend noch nicht verfügbar.
Das wird an sich nie anders sein, da das Gros der Nutzer immer "hinterher hinkt". Trotzdem spricht ja nichts dagegen, für Spieler mit mehr Power Schmankerl einzubauen.
Wenn du zeigen könntest, dass wenigstens 30-40% des Spielemarktes exklusive Vorteile durch PhysX haben
Durch Physx? Sicher doch, schließlich nutzen sehr viele Spiele die Novodex. Oder meinst du GPU-beschleunigtes PhxsX?

cYa
 
y33H@ schrieb:
Das wird an sich nie anders sein, da das Gros der Nutzer immer "hinterher hinkt".
Darum geht es nicht. Es geht speziell um GPGPU fähige Hardware. Und da stehen wir noch ziemlich am Anfang. Denke auch mal einen Schritt weiter, wie Fusion oder BD+APU.

y33H@ schrieb:
Oder meinst du GPU-beschleunigtes PhxsX?
Was meinst du denn? Du bist doch derjenige, der ständig impliziert, dass man ohne PhysX Hardwarebeschleunigung dumm aus der Wäsche schaut. :rolleyes:
 
@Eon-Deon:
Ich weiß, dass Physx in den Fällen über die CPU rechnet, umherwirbelnde Blätter oder kleine Splitter, die zusätzlich zu großen Trümmerteilen berechnet werden sind nunmal ein Bonus.
Für mich macht´s aber nunmal keinen Unterschied, ob jetzt Physx oder Havok die Physikberechnungen macht. Hättest du dich ebenfalls etwas weitgehender informiert, wüsstest du dass Havok und Physx, bzw. die Novodex Engine das gleiche machen, meiner bescheidenen Meinung nach gleich gut.
HAvokFX für GPU ist nunmal noch nicht draußen, von Physx GPU-Spielereien hab ich momentan garnix, weil ich eine Radeon 3850 in meinem Rechner hab und auf der XBOX 360 GPU Physik bisher gar keine Rolle spielt.
Trotzdem find ich die Effekte sehr interessant, einfach weil wehende Blätter, physikalisch wenigstens halbwegs korrekt arbeitende Textilien (auch Bekleidung) oder andere Effektspielereien schlicht und ergreifend das Spielgeschehen lebensechter erscheinen lassen.
Soll heißen, für mich ist die Entwicklung der Effektphysik einfach deshalb wichtig, weil es in einigen Jahren für mich auch aktuell wird, wenn Spiele und Physikengines OpenCL und DX11 Computeshader unterstützen.

Ganz zu schweigen von der nächsten Konsolengeneration, die 2012, 2013 rauskommen dürfte.

Und genau da sehe ich Physx als Vorreiter, schlicht und ergreifend, weil noch kein anderer Engineentwickler so weit ist, da ist es mir auch völlig egal, wenn dahinter NV steckt, die verständlicherweise erstmal ihre aktuellen Geforce pushen wollen.
 
Und da stehen wir noch ziemlich am Anfang.
Ich stimme dir voll und ganz zu.
Du bist doch derjenige, der ständig impliziert, dass man ohne PhysX Hardwarebeschleunigung dumm aus der Wäsche schaut.
Sofern es sich um Effekte wie in Cryostasis oder ME handelt - ja. Dafür ist eine CPU offensichtlich zu schwach. Oder nV war so böse und hat diese Effekte nur auf Ageias PPU und die eigenen Geforces optimiert *g*

cYa
 
Mich würde es interessieren, wie die 4870 auf einer Leistungsstarken Quad Core CPU abschneidet. Denn die Leistung einer GTX260 verringert sich um mehr als 20%, wenn die GPU für PhysX Berechnung verwendet wird, statt eine externe PhysX Karte. Bedenkt man dass eine NVIDIA 8800 GTS ca. die 15fache Leistung eines QuadCore 3.0GHz bringen kann (WARP10) und rechnet man die 15fache Leistung auf eine GTX260 hoch, so ergeben die 20% Leistungsverlust Schätzungsweise die Leistung von sieben QuadCore 3.0GHz Prozesoren, die für die PhysX
Berechnung verwendet wird. Für die Berechnung auf einem Prozessor sollten ein bis zwei Cores ausreichen. Die Herleitung ist nicht exact, denn ich habe keine genauen Tests, sondern Leistungsvergleiche zwischen GPUs und die Leistungsvergleiche bei WARP10 genommen. Dennoch sieht man an dem Beispiel die extremen Leistungsverschwendung bei der Berechnung von PhysX auf GPUs.
 
y33H@ schrieb:
Sofern es sich um Effekte wie in Cryostasis oder ME handelt - ja.
Nochmal, du scheinst irgendwie nicht verstehen zu wollen, dass ein paar Rosinen völlig irrelevant für den Markt sind. Und darum ging es schliesslich.
 
ebird schrieb:
Für die Berechnung auf einem Prozessor sollten ein bis zwei Cores ausreichen. Die Herleitung ist nicht exact, denn ich habe keine genauen Tests, sondern Leistungsvergleiche zwischen GPUs und die Leistungsvergleiche bei WARP10 genommen. Dennoch sieht man an dem Beispiel die extremen Leistungsverschwendung bei der Berechnung von PhysX auf GPUs.
Was ist das denn für ein Vergleich? Bei GPU-PhysX hat man Stoffphysik und realistisch splitternde Glasscheiben, bei PhysX über die CPU nichts dergleichen (siehe Vergleichsvideo). Da kann man doch nicht sagen, dass die GPU ineffizienter arbeitet, wenn bei der CPU-Version diese ganzen "Schmankerl" fehlen, die selbst die stärkste CPU in die Knie zwingen würden während eine GTX 260 sogar in 1920x1200 8xAA/16xAF im Schnitt auf 41fps kommt :freak:
 
Huhamamba schrieb:
Was ist das denn für ein Vergleich? Bei GPU-PhysX hat man Stoffphysik und realistisch splitternde Glasscheiben, bei PhysX über die CPU nichts dergleichen (siehe Vergleichsvideo). Da kann man doch nicht sagen, dass die GPU ineffizienter arbeitet, wenn bei der CPU-Version diese ganzen "Schmankerl" fehlen, die selbst die stärkste CPU in die Knie zwingen würden während eine GTX 260 sogar in 1920x1200 8xAA/16xAF im Schnitt auf 41fps kommt :freak:

Das einschalten von PhysX bring bei einer 4870 einen Verlust von 53fps auf 21fps. Damit ist deine Aussage, dass eine CPU die Berechnung nicht schafft schlichtweg falsch. Denn es wurde nur ein Intel Core 2 Duo E6700 @ 2,66 GHz verwendet. Interessant wäre ein Test mit einem QuadCore, der die entsprechenden Berechnungen schafft.

Mit PhysX (CPU)
Ohne PhysX

Die GPU ist absolut ineffizient, wenn eine starke Abhängigkeit bei der Berechnung besteht. 41fps im Schnitt nur mit GTX260 und 49fps mit GTX260 und einer PhysX mach für einen Leistungsverlust von fast 20%. Bei Forschungsprojekten werden für Stoffsimulationen oder ähnliche Berechnungen u.a. Cell Cluster verwendet. Experimente mit GPUs haben eine starke Ineffizienz ergeben, da die GPU größtenteils auf Daten von der CPU wartet, die über den PCIe Bus übertragen werden. Das gleiche Phänomen kann ich in den Ergebnissen von Mirror's Edge sehen.

Wo in meiner Herleitung ist Deiner Meinung nach der Fehler. Die Zahlen sind nicht exakt, denn ich habe diese aus drei Verschiedenen Tests entnommen. Außerdem kenne ich den Optimierungszustand in WARP10 nicht. Ich wollte jedoch keine exakten Zahlen darstellen sondern nur extreme Ineffizienz aufzeigen. Selbst wenn der Leistungsverlust nur drei statt sieben 3GHz QuadCores sein sollten, ist der Leistungsverlust immer noch enorm.
 
Zuletzt bearbeitet:
Nochmal, du scheinst irgendwie nicht verstehen zu wollen, dass ein paar Rosinen völlig irrelevant für den Markt sind.
Jeder muss erst mal kleine Brötchen backen. Nettes Gimmick heute - dominierende Technologie morgen? Mir ists egal, ich habe es Geforces wie Radeons und wechsle wie ich lustig bin.

@ ebird

Auch ein 4,0-GHz-Yorkie kackt mit Zusatzeffekten auf deutlich unter 10 Fps ab.

cYa
 
y33H@ schrieb:
Auch ein 4,0-GHz-Yorkie kackt mit Zusatzeffekten auf deutlich unter 10 Fps ab.

Ich habe ein bisschen recherchiert. Der SpeedUp beim Einsatz eines QuadCores statt eines DualCores beträgt 1,2. Daran kann man sehen, dass es quasi keine CPU Multi Core Optimierung gibt.

Ich habe außerdem einige CPU Leistungsprofile von Mirror's Edge mit CPU PhysX angesehen. Zwei der vier Cores langweilen sich bei 40% Auslastung. Die anderen zwei sind bei ca. 80%. Bei Aktiviert GPU Beschleunigung ist die Core Auslastung minimal kleiner. Das deutet auf eine sehr schlechte Implementierung hin.
 
ebird schrieb:
Die GPU ist absolut ineffizient, wenn eine starke Abhängigkeit bei der Berechnung besteht. 41fps im Schnitt nur mit GTX260 und 49fps mit GTX260 und einer PhysX mach für einen Leistungsverlust von fast 20%. Bei Forschungsprojekten werden für Stoffsimulationen oder ähnliche Berechnungen u.a. Cell Cluster verwendet. Experimente mit GPUs haben eine starke Ineffizienz ergeben, da die GPU größtenteils auf Daten von der CPU wartet, die über den PCIe Bus übertragen werden. Das gleiche Phänomen kann ich in den Ergebnissen von Mirror's Edge sehen.
Das ist momentan zwar richtig. Aber wie ich oben schon schrieb, man sollte hier mal etwas weiter denken. Die Infrastruktur wird sich in den kommenden Monaten und Jahren wohl ändern. Fusion oder BD+APU geben da eine deutliche Richtung vor. Dh, CPU und GPU werden viel enger verknüpft, so dass die Kommunikation auch viel effizienter wird. Ich persönlich glaube ja, es könnte ähnlich wie einst mit dem 8087 (FPU) laufen. Ein separater Chip für den 8086, der im Laufe der Zeit direkt in die Mikroarchitektur implementiert wurde. Ähnliches ist auch für Streamprozessoren denkbar.

y33H@ schrieb:
Jeder muss erst mal kleine Brötchen backen. Nettes Gimmick heute - dominierende Technologie morgen?
Weder Physik noch PhysX werden in Zukunft in irgendeiner Weise in Spielen dominierend sein. Da kannst du dich von mir aus noch so vielen Illusionen hingeben. Es wird Beiwerk bleiben.
Bei deinen Aussagen bekommt man ja fast das Gefühl, nVidia würde dich sponsern. Langsam reicht es. Deine Affinitäten zu PhysX hat nun jeder mitbekommen. Wie wäre es, wenn wir wieder zur Sachlichkeit und zu den Fakten zurückkommen? :rolleyes:
 
gruffi schrieb:
Das ist momentan zwar richtig. Aber wie ich oben schon schrieb, man sollte hier mal etwas weiter denken. Die Infrastruktur wird sich in den kommenden Monaten und Jahren wohl ändern. Fusion oder BD+APU geben da eine deutliche Richtung vor. Dh, CPU und GPU werden viel enger verknüpft, so dass die Kommunikation auch viel effizienter wird. Ich persönlich glaube ja, es könnte ähnlich wie einst mit dem 8087 (FPU) laufen. Ein separater Chip für den 8086, der im Laufe der Zeit direkt in die Mikroarchitektur implementiert wurde. Ähnliches ist auch für Streamprozessoren denkbar.

Das sehe ich genauso. Wobei AMD die besten Voraussetzung für einen x86 mit Streaming-Einheiten besitzt. So wie AMD sich in den letzten Jahren verhalten haben, werden die es auch diesmal vermasseln. Der Cell Chip wäre nur für Linux interessant.

gruffi schrieb:
Weder Physik noch PhysX werden in Zukunft in irgendeiner Weise in Spielen dominierend sein. Da kannst du dich von mir aus noch so vielen Illusionen hingeben. Es wird Beiwerk bleiben.
Bei deinen Aussagen bekommt man ja fast das Gefühl, nVidia würde dich sponsern. Langsam reicht es. Deine Affinitäten zu PhysX hat nun jeder mitbekommen. Wie wäre es, wenn wir wieder zur Sachlichkeit und zu den Fakten zurückkommen? :rolleyes:

Ich denke das die Physik, nicht in der Form wie jetzt ( Spielereien), allgegenwärtig in Spielen sein wird. Ein Beispiel hierfür ist WorldOfGoo.

y33H@ schrieb:
Auch ein 4,0-GHz-Yorkie kackt mit Zusatzeffekten auf deutlich unter 10 Fps ab.
cYa

Ich habe noch eine Auswertung des Prozessorleistungsverlauf durchgeführt. 400% bedeutet alle vier Cores benutzt.

(Median) 0.1 / Median / (Median) 0.9 / Durchschnitt
CPU-PhysX 122,65 203,31 324,86 217,21
GPU-PhysX 105,52 232,04 273,48 210,47

Die Werte sprechen für sich.
 
Jo ! ATI und PPU gehen also doch.
Leider gibts halt kaumnoch PPU-Karten.
Aber so schlimm ist das doch nicht.
PhysX ist nun wirklich kein Brüller und das Mirrors Edge ist ja nur ein Spiel was PhysX pressentieren soll.Da werden halt die Effekte bei abgeschaltetem Physik-Beschleuniger absichtlich heruntergefahren damit man ja auch sieht wo der Unterschied liegt auch wenn mans kaum sieht. :cool_alt:

Nun zum Spiel:
Ich habs mir mal ausgeliehen und es ist wirklich nur ne Demo von einer Demo !
Eine wahre Frechheit was man da für teures Geld geboten bekommt.
Ein Grafik die so alt und karg ist wie vor 7 Jahren.
Diese ganzen Vectorgrafiken sind absolut monoton und werden nur selten mit immer gleichbleibenden Texturbilder verschlimmbessert.
Das Spiel gibts ja gratis zum Kauf einer GTX260 wobei man ja spätestens ab da erkennen sollte wer das Spiel gesponsert hat.
Leider scheint NV beim Budgetieren einige Fehler unterlaufen zu sein so das es nicht für ein richtiges Spiel gereicht hat.
Beführworter sprechen von einem gelungenen Jump and Run Spiel was ich aber kaum erkennen kann.Wer damals noch ein echtes Jump and Run Spiel wie Giana Sisters gespielt hat wird das verstehen !

Zum Glück habs ich mir nur ausgeliehen und nicht gekauft !
 
habe eine 4850 1gb auf einen x38 mobo, überlege noch eine 8600 gt einzubauen um etwas Mirror’s Edge zu spielen danach geht sie wieder raus, hat das jemand von euch getestet?
 
Radeon plus PhysX-Geforce geht nicht. Nur XP und Win7 und hier nur mit sehr sehr viel Gefummel.
Ein Grafik die so alt und karg ist wie vor 7 Jahren.
Das nennt man Stil.
Da werden halt die Effekte bei abgeschaltetem Physik-Beschleuniger absichtlich heruntergefahren damit man ja auch sieht wo der Unterschied liegt auch wenn mans kaum sieht
Dir ist bewusst, dass die zusätzlichen GPU-PhysX-Effekte erst bei der Portierung mit dazu kam, ergo ein Bonus sind?
 
Zuletzt bearbeitet:
@Pickepuh

Erkundige Dich bitte erstmal welche Grafikengine verwendet wird, bevor Du so einen Schwachsinn schriebst.

ME war ein wirklich sehr Spaßiges Spiel und die PhysX Effekte werten es sehr auf.

Gut, dass ich keine ATI Karte habe, sondern meine GTX 285 wo ich ME absolut flüsiig zocken kann!
 
irgendwie bekome ich die ageia nicht mit Mirror's Edge zum laufen kann mir jemand helfen?

andere games gehen!
 
Zurück
Oben