Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Bist Du wirklich sicher Airbag,dass Metro 2033 PhysX nur über die CPU berechnen kann ?
Da klebt ein riesiges PhysX by Nvidia Logo auf der Spielhülle von Metro 2033 und dieses Logo findet man doch nur dann so aufdringlich platziert auf Spielen,wenn Sie speziel sehr viel PhysX auf der GPU berechnen und dadurch besondere Vorteile bieten,wenn man GPU PhysX nutzt.
Bei Spielen,die PhysX nicht so extrem nutzen und wo man keine Vorteile mit einer dedizierten PhysX Karte hat,gegenüber CPU berechneten PhysX, findet man das Logo gar nicht auf den Spielehüllen.
Bei Operation Flashpoint Dragon Rising beispielsweise findet man kein PhysX Logo,obwohl das Spiel aber PhysX nutzt für Umgebungszerstörungen und die Berechnungen der Projektillaufbahnen aller Waffen.
Wie ist das eigendlich bei den Spielen,die CPU basiertes PhysX bieten.
Können diese dann trotzdem auch über GPU PhysX berechnet werden,wenn Windows über den Nvidia Treiber eine PhysX Karte erkennt,aber mit dem selben Ergebniss ohne Beschneidungen,gegenüber CPU PhysX Nutzern ?
Oder wird dann wirklich das komplette PhysX trotzdem über die CPU berechnet,obwohl man eine dedizierte PhysX Karte benutzt ?
Diese Frage stelle ich mir schon,seit es PhysX über Nvidia Grafikkarten gibt und habe bis heute noch keine richtige Antwort dazu gefunden : )
Dabei kann jeder mit einer 5€-Anaglyphenbrille von der Bucht nVidia 3D-Vision ausprobieren...
Apropos: Mit den ATis kann man dieses Anaglyphen-3D ja auch nutzen wenn man den IZ3D-Treiber nutzt, den man inzwischen auch schon direkt bei AMD/ATi zum Download angeboten kriegt. Könnte man vielleicht dann in diese Kategorie aufnehmen -> "3D-Vision / IZ3D"
Jop, ich hatte bisher den Forenbeiträgen nach nicht den Eindruck, dass es (PhysX) so verbreitet ist. So kann man sich täuschen.
Aber um sicherzustellen, dass da nicht auch CPU-PhysX mitabgestimmt wurde, kommt, wie schon oben freundlicherweise angeregt wurde, im Oktober die "Einschränkung" auf GPU/PPU-PhysX.
Btw: Kann man eigentlich auch CPU-PhysX abschalten oder nur (wenn es das Spiel erlaubt) wählen, ob man es nun von der CPU oder von der GPU will?
Seitdem nVidia den 200er-GeForce-Treiber eingeführt hat sieht das entsprechende Control Panel-Menü aus wie im Screenshot.
In den 197er- und älteren GeForce lauteten die Optionen "an" und "aus" wenn ich mich recht erinnere, wobei "an" = GPU und "aus" = CPU bedeutete.
kommt halt darauf an wie man eyefinity definiert. also ich nutz z.b. 3 bildschirme an meiner 5870 .. ist aber fuer mich noch kein echtes eyefinity... weil das ja jede 5xxx karte kann. echtes eyefinity beginnt mit 4+ monitoren (fuer mich).
Wie ist das eigendlich bei den Spielen,die CPU basiertes PhysX bieten.
Können diese dann trotzdem auch über GPU PhysX berechnet werden,wenn Windows über den Nvidia Treiber eine PhysX Karte erkennt,aber mit dem selben Ergebniss ohne Beschneidungen,gegenüber CPU PhysX Nutzern ?
Also mit Eyefinity ist von meiner Seite her alles über zwei Bildschirmen gemeint. Schließlich ist das meines Wissens nach die gängige Bezeichnung für das Anschließen von mehr als drei Monitoren bei ATi-Karten.
Na, es ist doch so das sich Nvidia allen Anschein nach einen feuchten für die PhysX Performance von GPU PhysX Effekten / Titeln auf der CPU interessiert, was ja eindeutig an der Tatsache zu erkennen ist, das nicht optimierter Uralt Code von Ageia mit geschleppt und weiter verwendet wird, obwohl die PhysX Bibliothek vermutlich schon kreuz und quer umprogrammiert und erweitert wurde in den vergangenen Jahren - sie wurde ja auch um die CUDA Unterstützung erweitert.
Da wundert es auch nicht das bei PhysX On auf CPU sich der Multicore-Prozessor an den Füßen spielt - eigenartig hingegen, das die CPU Last mit PhysX On auf CPU sinkt statt steigt gegenüber PhysX Off.
Ob man dies nun "nicht CPU optimiert" bezeichnet, oder das Kind beim Namen nennt, und von einer absichtlichen Benachteiligung der CPU aus Marketinggründen spricht, macht da bei diesem Hintergrund keinen großen Unterschied mehr.
Selbstverständlich behauptet Nvidia das Gegenteil, und vielleicht haben sie die CPU Performance seit Ageia auch tatsächlich nicht vorsätzlich verschlechtert, jedoch haben sie auch keinen einzigen Finger gerührt, um sie zu verbessern. Nach mehreren Jahren.
Und da frage ich mich, wo der Unterschied liegt, in der PhysX Biblitothek die für GPU PhysX Titel zum Einsatz kommt, und unterirdisch auf CPUs performt, und den PhysX Effekten, die problemlos und performant in hunderten Spielen eingesetzt werden, die Grundsätzlich nur per CPU ausgeführt werden, wie Havok und viele andere, meist Engine eigene Physik Biblitheken.
Ebenso frage ich mich, wie es die Entwickler so ohne weiteres schaffen, die Performance von CPU (und GPU) PhysX um den Faktor 10 zu erhöhen, in Fluidmark.
Und zu guter letzt ob die das wirklich ernst meinen, das auf die Spielentwickler abzuwälzen, und ihnen den Schwarzen Peter zuzuschieben, das sie ja auch nix FÜR die CPU Performance von PhysX getan hätten, obwohl doch Nvidia es anscheinend ist, die im Regelfall die Programmierarbeit für solche Features übernehmen.
Um die Kurve zu nehmen, zu deiner Frage, zu dessen Beantwortung ich aber gern nochmal die Hintergründe erwähnt haben wollte;
Wenn in allen Titeln, selbst bei der kleinsten Stufe von PhysX Effekten, beim aktivieren auf nicht Nvidia Grafikkarten die FPS ins Bodenlose sinken .. selbst bei so alten Titeln wie Mirrors Edge, für die sogar ne 8800 GT reichen sollte ...
... wie kann da bei Metro 2033 der Prozessor so unbeeindruckt von PhysX sein, das sich an den FPS zwischen PhysX off und PhysX on so mal überhaupt nichts tut?
Klar, das spielt hat nicht all zu viel PhysX Effekte, sie reichen jedoch aus um ner GTX 285 10% abzunehmen.
Nun ist das Spiel aber wirklich die Ausnahme - die meisten anderen PhysX Titel brauchen so viel Performance für Maximale PhysX Effekte, das nur sehr sehr wenige Spieler sie auch auskosten können, ohne auf die gewohnten Grafikdetails verzichten zu müssen. Beim größeren Teil der der Titel reicht da ja nicht mal ne einzelne 450€ Karte.
Ist doch verdammt Witzig das ganze Thema;
da mischt ein Unternehmen ein Produkt unters Volk, setzt Himmel und Hölle in Bewegung damit der ein oder andere Entwickler sich auch erbarmt es einzusetzen, konstruiert dieses Produkt so, das es nur mit einem (oder zwei) anderen, ihrer eigenen Produkte auch ordentlich Funktioniert, während alle anderen Möglichkeiten (ob vorsätzlich oder nicht) vernachlässigt werden, und die Masse schreit: "Gimme' more".
Dazu passt wie Faust aufs Auge, der Spruch vom Stoiber mit den Kälbern, und ihrem Metzger.
Ergänzung ()
Fetter Fettsack schrieb:
Btw: Kann man eigentlich auch CPU-PhysX abschalten oder nur (wenn es das Spiel erlaubt) wählen, ob man es nun von der CPU oder von der GPU will?
Du kannst PhysX natürlich auch komplett abschalten, in den Spielen selbst.
Ansonsten wären ein knapp es dutzend Spiele ja absolut unspielbar auf schwachen Nvidia, und allen ATI Karten.
Zur deiner Ergänzung sie noch gesagt, dass ich das deshalb gefragt habe, weil ich eruieren wollte, inwieweit ein Problem hinsichtlich der Umfragenverfälschung (die sich nur auf GPUs bezieht) durch Leute, die es nur auf der CPU nutzen, aber dennoch hier ankreuzen, bestehen könnte.