News Nvidia PhysX auf der GeForce 9500 GT in Aktion

funktioniert das jetzt auch mit der 8000er Reihe?
finde es ja gut, aber die "alten" Kunden sollten auch die möglichkeit haben ohne den Kauf einer umgelabelten Karte in PhysX Genuss zu kommen
 
Da sieht man auch mal wieder, dass es, entgegen aller Behauptungen, durchaus Sinn machen kann die Grafikkarten das mitberechnen zu lassen. Von einer verringerten Leistung aufgrund der doppelten Belastung kann wohl keine Rede sein.
 
Was bringt mir PhysX, wenn's nicht unterstützt wird? Eine Ut3-Map und ein synthetischer Benchmark ist ein bischen dürftig irgendwie.
 
@Exar_Kun

Was bringt überhaupt was neues einzusetzen wenns nicht gleich jedes spiel nutzt, Directx 10 hatte auch nicht sofort eine breite unterstützung was aber von mal zu mal mehr wird so wars auch mich dx6, dx7, dx8, dx9
 
@news
Schön zu sehen, wie unsinnig das Kleinreden von GPU Physik ist.
Die Leistung des CPU Toppmodells ist einfach nur erbärmlich im Vergleich und da wollen alle Physik auf Mittelklasse CPUs? Nein danke.

@Exar_Kun
Es wird doch unterstützt, siehe News (oder http://www.nzone.com/page/nzone_section_hardware.html + 5.August)

@Sumpfmonster
Zumindest auf Karten mit G9x GPU sollte es laufen.
 
Zuletzt bearbeitet:
Alles sehr theoretisch. Das muss erst mal richtig auf einer ATI-Karte laufen (nicht nur so); momentan hat ATI die besseren Karten im Programm, darauf werden kommende Spiele optimiert werden. Und bisherige Spiele nutzen das eh nicht.
 
Dann lohnt es sich doch eher einen hochgetakteten Zwei-Kerner zu kaufen und eine billige Karte für Physik als auf ein Vier-Kerner zu setzen.
 
Es wird erst gewartet bis ca. 90% der Spieler so ne Karte und System haben. Dann zahlt es sich erst aus ein Game dafür zu machen das es voraussetzt. Es bringt nix wenn ich ein Spiel herstelle was nur 5% der Spieler kaufen, ist ein Verlustgeschäft.

Klüger ist es zu warten bis ATI auch soweit ist und somit beide Langer verwendet werden können.
 
Kann man nicht PhysX in ein Spiel miteinbinden und der Spieler, der eine PhysXfähige Karte hat, sieht die zusätzlichen Effekte und die Anderen eben nicht?

Was genau soll denn PhysX noch bringen?
 
Unyu schrieb:
@Exar_Kun
Es wird doch unterstützt, siehe News oder http://www.nzone.com/page/nzone_section_hardware.html
Wenn ein Spiel PhysX unterstützt, bedeutet dieses in 98% der Fälle, das PhysX auf der CPU ausgeführt wird. Nur wenige Spiele unterstützten eine Beschleunigung der PhysX-Berechnung über andere Chips als eine CPU. Das ist auch sehr gut daran zu sehen, das viele Spiele mit PhysX-Unterstützung für die XBox360 sind, welche weder einen PhysX-Chip, noch eine NVidia-Grafikkarte hat.

Falls auch was anderes als eine CPU unterstützt wird, ist dieses wiederum fast immer nur die PhysX-Karte. Eine PhysX-Beschleunigung über Grafikkarten wird bislang tatsächlich nur in 3 Leveln von Unreal unterstützt.

Merke: PhysX-Unterstützung ist ungleich PhysX-Beschleunigung ist ungleich PhysX-Beschleunigung über GPUs
 
Zuletzt bearbeitet: (Auf Unterstützung für 3 Level geändert. Thx für Hinweis.)
This game listing is not representative of all titles that will be available, just those that AGEIA and it's developer and publisher partners are able to disclose. To avoid confusion, PC titles that do not take advantage of AGEIA PhysX hardware acceleration are ommitted from this listing.
Quelle: nzone.com

Also unterstützen alle diese Games Hardware-Beschleunigung des PhysX-Chip oder von NV-Grakas. Zu welchem Ausmass das Game davon profitiert, hängt natürlich davon ab, wie physiklastig das Spiel ist. Die Limitierungen liegen meist ganz wo anders, weswegen die meisten Spiele nicht wirklich davon profitieren können! Die Hardwareunterstützung ist aber auf jeden Fall da. Gibts gar kein wenn und aber...
 
Zuletzt bearbeitet:
die angaben im test werden mit it/s angegeben, also instruktionen in einer sekunde.

mich würde brennend interessieren, wie die original PhysX karten in eurem test abschneiden würden, d.h. wieviele it/s sie leisten.

man könnte dann auch einen vergleich zwischen der aktuellen NVIDIA lösung und den original PhysX karten machen.

bei ca. 80,- € für eine original BFG PhysX karte wäre so ein vergleich in hinblick auf preis/leistung doch interessant, oder ??
 
@Eusterw
Es sind 3 UT-3 Maps.
Und tatsächlich auch andere Spiele, zumindest ab 5. August.

Verwechselst du nicht gerade zufällig Physik mit PhysX?
 
Zuletzt bearbeitet:
wäre schön wenn man mal testen könnte ob es funktioniert als grafikberechnende karte ne ATI zu nehmen und für Physik eine von den kleineren NVs.
 
Der Benchmark sagt null aus. Wer sagt euch denn, dass die NVidia Marketingabteilung nicht sowas wie:

if PhysicsOnGPU = 0
sleep 100

eingebaut hat? Ein Programm von NVidia, das auf GPUs von Nvidia schneller laufen soll als auf einer CPU von einem Konkurrent, wird dies auch tun...
 
wenn es mit der 9500 GT jetzt funktioniert, müsste physx doch auch auf einer 9600 GT laufen, oder?
 
Ich verstehe leider zu wenig von der Technik um den Einwurf von Wehrwolf entsprechend zu berücksichtigen. Aber sollte sich der Test bewahrheiten, dann wäre das schon eine deutliche Aussage: 50€ billig Grafikkarte schlägt 1000€ CPU. Zudem dürften endlich all die, die nach der CPU als PhysX-Ersatz geschrien haben verstummen. Aktuell sieht es nicht danach aus, als könnte die CPU in näherer Zukunft dies, wenn überhaupt, auch zu einem brauchbaren Preis leisten.
 
Wehrwolf schrieb:
Der Benchmark sagt null aus. Wer sagt euch denn, dass die NVidia Marketingabteilung nicht sowas wie:

if PhysicsOnGPU = 0
sleep 100

eingebaut hat? Ein Programm von NVidia, das auf GPUs von Nvidia schneller laufen soll als auf einer CPU von einem Konkurrent, wird dies auch tun...

Einige hier haben echt einen Dachschaden. Geh bitte wieder auf atidefenceforce rumfurzen. Echt lächerlich, was hier an Verschwörungstheorien entwickelt wird.

-NV baut Cheatprogramme, damit Performance auf Intel-CPUs gedrosselt wird
-NV zahlt Ubisoft, dass DX10.1 RP rausgenommen wird (obwohl selbst AMD zugegeben hat, dass der RP fehlerhaft war)
-PCGH wird von NV gesponsert
-TWIMTBP ist Indiz für NV-Hardcoreoptimierung

Echt wirklich, ist ja nicht mehr lustig.
 
Zurück
Oben