News Nvidia führt GeForce PhysX ein

funktioniert die physik-beschleunigung dann eigentlich nur bei spielen bzw software allgemein, die speziell darauf programmiert ist, oder funktioniert das auch ohne spezielle programmierung? die half-life 2 engine z.B. ist ja aufgrund der komplexen physik berechnungen ziemlich cpu-lastig und profitiert gar nicht so arg von einer schnelleren grafikkarten. würde die physikberechnung nun allerdings auf die gpu ausgelagert werden, müsste sich doch dann die performance deutlich verbessern. sli hat ja meines wissens auch bei spielen funktioniert, die nicht speziell dafür programmiert wurden, oder liege ich da falsch?
 
ScoutX schrieb:
weil das DirectX Imperium sich plattformübergreifend breit macht.

Kannst du mir vllt. sagen wo DirectX plattformuebergreifend ist? Unter meinem Linux z.B. laeuft NIX mit directx.

@Topic:

Freu mich. Weihnachten kommt neuer Computer her, dann wird das bestimmt etwas weiterentwickelt sein und auch bestimmt schon mehr support rausgegeben sein. Weiter so nVidia :)
 
@ eritsch

du liegst falsch! bitte nochmal den artikel lesen!
 
Klingt doch nach einem tollen zusätzlichen Hybrid SLI Modus oder? Die integrierte Grafik für Physik.
 
"Zum Einen wird eine einzelne GeForce GTX 280 in der Lage sein, die Physikberechnungen parallel zur Grafikdarstellung zu berechnen. Sie sei leistungsfähig genug. Zum Anderen kann man bei einem System mit zwei oder drei Grafikkarten eines der Modelle für die Physikberechnungen abstellen. Mindestvoraussetzung: es muss sich um eine GeForce 8 Grafikkarte handeln. Man braucht aber nicht zwingend ein SLI-fähiges Mainboard mit nForce Chipset. Die Kommunikation läuft über den PCI Express Bus, es können also auch Dual-VGA-fähige Mainboards mit Chipsätzen von Intel oder AMD eingesetzt werden.
Das ermöglicht dem Anwender, der beispielsweise eine GeForce 8600 Grafikkarte besitzt, beim Neukauf einer stärkeren Grafikkarte das ältere Modell künftig für Physikbeschleunigung einzusetzen, wenn ein Mainboard mit zwei PCIe Graphics Steckplätzen vorhanden ist.
Wann genau der PhysX-fähige Treiber erscheint, wollte Nvidia noch nicht sagen." Quelle: Hartware.net



Wie genau soll das denn mit 2 unterschiedlichen Nvidia-Grakas und der auslagerung der Physikberechnung auf eine GPU funktionieren ?
Theoretisch muss ich ja beide Grakas installieren (Treiberkonflikte ?)...
und dann muss ich ja noch einstellen können auf welche GPU ausgelagert wird...ist das überhaupt jetzt schon möglich ?
 
ISt es jetzt bei mir Aktiv oder nicht?
 

Anhänge

  • NV.jpg
    NV.jpg
    27,7 KB · Aufrufe: 620
  • nv2.jpg
    nv2.jpg
    29,3 KB · Aufrufe: 601
erstmal in dem Diagramm steht "CPU-PhysX" sowas gibts doch garnicht... CPU only würde das ganze schon eher treffen.

Was hier aber intresant wäre zu sehen im Benchmark vergleich

CPU only
Nvidia PhysX
Ageia PhysX

Ist die neue Nvidia Lösung stärker, gleichwertig oder evtl. sogar schwächer als die dezidierte PPU für die gleiche Aufgabe?
Wieviel GPU Leistung fällt mit aktiviertem Nvidia PhysX weg oder werden die Shadder mit deaktiviertem PhysX garnicht erst genutzt so das man keinen leistungsunterschied bemerkt?

...lauter so fragen :freaky:
 
danke Johannes7894561

das selbe problem hab ich auch, bin mir nich sicher ob sie jetz geht oder nich...
 
Eines ist klar: es hat ein Werbekrieg zwischen nvidia ati/amd und intel angefangen! Falls nvidia diesen "Krieg" verliert, so werden sie viele Marktanteile verlieren. nvidia will mit allen mittel verhindern, das die neuen 4000er karten ein "top" werden, denn dann wird ihre werbestrategie nicht aufgehen. man sieht es deutlich an den nachrichten. physx! - lieber kunde, das ist die zukunft. 4850? - wieso nicht eine 9800gtx (+)!. computerbase hat mit der nachricht für physx übrigens schon viel für nvidia getan, nämlich werbung. werbung für eine technik die eigentlich keine ist. und wer an den 3dmark glaubt, liegt mit seiner begeisterung ganz daneben. Denn:

1. syntetischer benchmark, keine universale engine!
2. die physikelemente wurden auf die shader mit dem treiber praktisch übernommen. zwar ist es gut und richtig das die cpu langsamer rechnet und die grafikkarte da vorteile aufweist, doch was ist, wenn die grafikkarte schon mit den eigentlichen grafischen berechnungen überforder ist? - dann kann die grafikkarte nicht noch zusätslich physikberechnungen durchführen. die eigentilche funktion der grafikkarte wird beim physikbenchmark nicht ausgenutzt, es werden nur physikalsche elemente gebencht doch was passiert, wenn die graka beides machen würde? da ist es logisch das die cpu entlastet wird und deshalb ein so hocher punktestand zustande kommt! weshalb die "alten" ala ut3 spiele ohnehin noch schneller werden ist logisch. noch vorhandene shader resourcen der graka werden ausgenutzt und mehr fps kommen dabei raus. was ist aber wenn aufwendigere spiele rauskommen? klar, man braucht eine neue grafikkarte, doch man muss nicht mehr in den prozessor investieren sondern mehr geld in die grafikkarte, was nvidia letztenendes möchte! nvidia holt die kunden von amd/ati und intel mit physx zu sich, um einen größeren umsatz zu erzielen.

Physx ist eigentlich keine neu erfundene technik sonder nur ein großes Werbemittel seitens nvidia! wieso ist amd dagegen?- klar, sie produzieren selber cpus. nur aus diesem grund arbeitet intel mit amd zusammen, um nvidia zu schlagen. havok ist die zukunft!- es nutzt ihren prozessor optimal aus-(nach intel/amd)!. letzten endes sind es wir, die entscheiden zu wem wir gehen und somit was sich durchsetzt, doch intel hat große macht. nvidia überzeugt mit der shader power für physik, ati/amd und intel überzeugen mit den vielen spielen die havok unterstützen. damit atis grakas nicht ganz untergehen, wenn sich physx durchsetzt, haben sie ein trumpf im ärmel, nämlich atis karten unterstützen physx ebenfalls!- was noch nicht bestätigt ist, ich jedenfalls gehört habe. ich bin gespannt was sich durchsetzt. eines ist klar, der verlierer wird massiv marktanteile verlieren, die größten in der geschichte des unternehmens. auch kann es so kommen, das beides lange existieren wird, ich weis es einfach nicht und lasse mich deshalb überraschen

mfg,
masterbratak
 
Zuletzt bearbeitet:
ger.ruler schrieb:
Wie genau soll das denn mit 2 unterschiedlichen Nvidia-Grakas und der auslagerung der Physikberechnung auf eine GPU funktionieren ?
Theoretisch muss ich ja beide Grakas installieren (Treiberkonflikte ?)...
und dann muss ich ja noch einstellen können auf welche GPU ausgelagert wird...ist das überhaupt jetzt schon möglich ?







das ist ganz einfach... kennst du die universität die ihre ganzen sachen nur mit einem einzigen Desktop pPC errechnet? Die haben nen Phenom 9850 und 4 9800 GX2 in dem gehäuse.... die antwort ist CUDA haben alle seit der G80 Generation(berichtigt mich wenn ich falsch liege) Zitat von PC Games: Vier Geforce 9800 GX2 im SLI zu betreiben ist zwar für den Spielbetrieb nicht möglich, Nvidias GPGPU-Umgebung CUDA jedoch benötigt lediglich ein funktionierendes PCI-Express-Interface, um alle im System vorhandenen GPUs und Shader-ALUs nutzen zu können.Mithilfe der insgesamt acht GPUs und deren insgesamt 1.024 Shader-ALUs konnten die Wissenschaftler mehr Rechenleistung für ihre Zwecke gewinnen, als mit 350 herkömmlichen CPU-Kernen. Ihre benötigten Anwendungen wurden um Faktor 100 beschleunigt, so das FASTRA-Team - und das allein mit Gamer-Hardware.(Jetz wisst ihr wie schnell und kraftvoll heutige Grafikkarten sind):evillol:


naja aber meine 9600 GT wird nicht von der PhysiX-Software erkannt trotz modded .inf..... hmmm
 
Zuletzt bearbeitet:
ZeroBANG schrieb:
erstmal in dem Diagramm steht "CPU-PhysX" sowas gibts doch garnicht...
Doch gibt es, denn PhysX ist eine API, die sowohl durch die Ageia-PPU, jetzt durch Nvidia-GPU als auch durch CPU verwendet werden kann. Das war auch von Anfang an so.

@ Benchmarks

Diese Benchmarks sind doch albern, denn wenn es um die Etablierung einer zusätzlichen Grafikkarte für Physikberechnungen gehen würde, hätte der Markt auch eine PPU-Karte akzeptiert. Eine-Karte-Systeme bleiben der vorherrschende Standard für die Spieleentwicklung, auch wenn Enthusiasten mittlerweile Triple-SLI/Crossfire nutzen. Also sollte man auch riuhig bei Physikbenchmarks mal die Physikleistung bei gleichzeitigem Abruf von Grafikleistung mit nur einer Karte testen.

@ Sinn und Zweck

Es ist doch schön, dass durch diese ganzen GPGPU-Fortschritte wieder alle Anwendungsbereiche der Laptops, Desktops und Workstations von dem durch die Spieleindustrie befeuerten Leistungsfiortschritt in der Chiptechnik, der sich bei Spielen eben wesentlich auf die GPU verlagert hat, profitieren. Wäre nur schön, wenn die Mittelklasse der Grafikkarten, ähnlich den CPU, wieder unter 100 Watt TDP landen könnte.
 
Ich habe ein Problem mit Cellfactor es startet nicht
Es kommt immer die Meldung


Kann mir Bitte jemand Helfen ???
Das gleiche Problem kommt auch unter Vista
da habe ich aber den Gemoddetet Treiber noch nicht drauf.

aefafk3m.jpg


hatt jemand auch das problem??

MFG master_nick_123
 
AntiSKill schrieb:
danke Johannes7894561

das selbe problem hab ich auch, bin mir nich sicher ob sie jetz geht oder nich...

Ebenfalls selbes Problem :(

9800GTX auf Vista Ultimate 64bit installiert ohne modded .inf, da die ja, soweit ich das mitbekommen habe, nur für alle älteren und noch nicht unterstützten GPUs sein soll - oder ?
 
ZeroBANG schrieb:
erstmal in dem Diagramm steht "CPU-PhysX" sowas gibts doch garnicht...
Hier liegt das Missverständnis wohl eher bei dir. PhysX ist kein Feature oder sowas, sondern eine Physik-Engine, die ihre Berechnungen auf der CPU und auf der GPU durchführen kann.
CPU-PhysX ist also schon eine korrekte Bezeichnung.


masterbratak schrieb:
zwar ist es gut und richtig das die cpu langsamer rechnet und die grafikkarte da vorteile aufweist, doch was ist, wenn die grafikkarte schon mit den eigentlichen grafischen berechnungen überforder ist? - dann kann die grafikkarte nicht noch zusätslich physikberechnungen durchführen.
Du musst aber auch das Verhältnis im Auge behalten. Eine GPU ist nicht nur etwas besser als eine CPU, sondern gleich das dutzendfache.
Die kürzlich von Intel vorgestellte Physikdemo mit 50.000-60.000 Partikeln lief auf einem Nehalem Quad-Core (virtuell 8 Cores) lediglich mit 15-20 fps.
nVidia hat eine ähnliche Demo mit 65.000 Partikeln auf einer 9800 GTX mit 300 fps zum laufen gebraucht und die GTX 280 soll mit ca. 600 fps zu Werke gehen.

Es ist also nicht so, als ob die Physikberechnungen die Graka groß belasten würden. Selbst bei sehr komplexen Berechnungen gehen wahrscheinlich gerade mal 1-2% der Rechenleistung für die Physik drauf.
Im Gegenzug dazu wird die CPU aber deutlich entlastet und kann so wichtigere Dinge übernehmen. Das wird auch nötig sein, denn je mehr Objekte zu verwalten sind (und das sind in physikintensiven Spielen nicht wenig Objekte), desto mehr muss die CPU für die Verwaltung dieser Objekte herhalten.

Das greift das Eine also in das Andere. Die GPU entlastet die CPU um umfangreichere Physiksimulationen zu berechnen und die CPU nutzt ihre frei gewordenen Reserven dann dazu diese Szenen auch zu verwalten.


havok ist die zukunft!- es nutzt ihren prozessor optimal aus-(nach intel/amd)!.
Und die PhysX Engine tut das nicht?

Wenn ATi dann noch irgendwann die PhysX-Engine per Hardware beschleunigt, was ich hoffe, dann sieht's für Havok aber schlecht aus. An deren Stelle würde ich mich ganz schnell darum bemühen die Engine auch mittles CUDA auf nVidia Karten zu beschleunigen.

Das größte Problem, das Havok jetzt hat ist, dass die PhysX Engine heute schon einsatzfähig ist und erste Ergebnisse vorzeigen kann. Es gibt auch schon eine Menge Spiele, die mit Karten der G80 Serie jetzt noch nachträglich beschleunigt werden können. Zugegeben. Es sind keine wirklichen AAA Titel dabei, aber ein kleines physikbasiertes Puzzlegame kann genau so viel Spaß machen. Meistens machen diese keinen Physics-Games mehr Spaß als ein 0815 Ego-Shooter.

So manch einer wird sich überlegen, ob er jetzt schon hardwarebeschleunigte Physikgames spielen möchte oder erst noch eine unbestimmte Zeit lang warten muss um in den Genuss zu kommen.
Denn wer weiß, wie lange es noch dauert, bis die ersten Spiele mit Havok-Hardwarebeschleunigung erscheinen. Das kann noch lange dauern und so lange hat nVidia die Möglichkeit die PhysX Engine zu etablieren. In nächster Zeit wird man eine Menge kleiner Games finden, die diese Engine verwenden, selbst wenn es nur Sceeensaver und kleine Spielereine sein werden. Wenn Havok sich jetzt nicht beeilt, dann hat PhysX einen nur schwer einholbaren Vorsprung herausgeholt und sich als Quasi-Standard etabliert.

Es fängt ja schon damit an, dass die geile Animationsengine, die in GTA IV zum Einsatz kommt die PhysX-Engine nutzt und Spiele wie Backbreaker hervorbringen wird.
 
Zuletzt bearbeitet:
MountWalker schrieb:
Diese Benchmarks sind doch albern, denn wenn es um die Etablierung einer zusätzlichen Grafikkarte für Physikberechnungen gehen würde, hätte der Markt auch eine PPU-Karte akzeptiert.
Das klingt nicht ganz richtig, denn für eine PPU musste man viel Geld bezahlen, während man GeForce PhysX auf einer möglicher Weise schon vorhandenen Grafikkarte ausführen kann. Das kann abgesehen davon, dass man weniger Strom verbraucht und einen PCI-Slot weniger benögtigt, einen finanziellen Unterschied ausmachen.

MountWalker schrieb:
Eine-Karte-Systeme bleiben der vorherrschende Standard für die Spieleentwicklung, auch wenn Enthusiasten mittlerweile Triple-SLI/Crossfire nutzen. Also sollte man auch riuhig bei Physikbenchmarks mal die Physikleistung bei gleichzeitigem Abruf von Grafikleistung mit nur einer Karte testen.
Wie sich das verhalten könnte, kann man prinzipiell den UT3-Benchmarks entnehmen. Es ist halt, wie noxon sagt, eine große Entlastung für die CPU und nur eine kleine Mehrbelastung der GPU. Ganz abgesehen davon, dass die inzwischen hohe Anzahl an Shader-Prozessoren z.T. oft gar nicht voll ausgelastet wird. Siehe z.B. der geringe Unterschied zwischen GeForce 9600 GT und 8800 GT oder aber die bezüglich der hohen Shader-Anzahl relativ geringe Grafikleistung der GTX 280. PhysX dürfte auf den GPUs mit vielen Shader-Prozessoren ohne nennenswerte Beeinträchtigung der Grafikleistung laufen.
 
naxon: Es ist also nicht so, als ob die Physikberechnungen die Graka groß belasten würden. Selbst bei sehr komplexen Berechnungen gehen wahrscheinlich gerade mal 1-2% der Rechenleistung für die Physik drauf.

das hört sich von dir so leichtgesagt an. da würde ich gerne verlässliche quellen dazu haben. wenn es denn wirklich so ist, dann wäre der gewinn für physx sicher!

ich habe aber auch vorher bereits erwähnt gehabt das ich dass so sehen, das nvidia da "technisch" im vorteil ist.

mfg,
masterbratak
 
Sebastian schrieb:
Das klingt nicht ganz richtig, denn für eine PPU musste man viel Geld bezahlen, während man GeForce PhysX auf einer möglicher Weise schon vorhandenen Grafikkarte ausführen kann.
Du hast mich völlig falsch verstanden, ich beschwere mich nicht über bessere Auslastung einer Grafikkarte, ganz im Gegenteil, ich beschwere mich über Benchmarks die bspw. in 3D Mark Vantage herausfinden wollen, was eine Grafikklarte leisten kann, wenn sie grad keine Grafik berechnet - denn solche Enthusiastentests für die 0,irgendwas Prozent der Leute, die eine Grafdikkarte allein für PhysX abstellen würden, gibts eben genug. Ich will einfach nur nen Test, der das testet, was einen Vorteil ggü. einer PPU-Kartenkonfiguration hat und das ist, wie ich bereits sagte (du brauchst mir nicht Dinge erklären, die ich schon selbst gesagt habe), eine Konfiguration mit einer Grafikkarte für Grafik, Physik (und ggf. noch anderen Dingen über GPGPU - siehe Apple OpenCL). Mein letzter Beitrag sagt eigentlich aus, dass ich diese ganze GPGPU-Entwicklung nicht schlecht finde, also weiß ich nicht, warum du mir jetzt unbedingt erklären musst, dass ich das nicht schlecht finden soll - ich tue es doch auch nicht! ;)

Sebastian schrieb:
Wie sich das verhalten könnte, kann man prinzipiell den UT3-Benchmarks entnehmen.
Der einzige Satz deiner Antwort, der wirklich was mit meinem Beitrag zu tun hat - aber trotzdem danke. :p
 
Zuletzt bearbeitet: (added openCL)
Wie Du in Deinem ersten Satz richtig feststellst, habe ich Dich falsch verstanden. Tut mir leid, dass Dich das so sehr aufgeregt hat. Das lag nicht in meiner Absicht, dafür kennen wir uns sicher lang genug. :schluck:
 
Zurück
Oben