Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsIm Test vor 15 Jahren: PhysX-Beschleuniger für 299 Euro von Ageia
Auf der Game Developers Conference (GDC) 2005 stellte die Firma Ageia eine neue Technologie namens PhysX vor. Dedizierte PhysX-Karten (Test) sollten die Physikberechnungen in Spielen übernehmen und zum dritten Standbein neben CPU und GPU werden. Überzeugen konnte das zu Anfang nicht – und später als Teil von Nvidia ebenso wenig.
Hier war der Nostalgie Faktor bei mir eher bei Ghost Recon Advanced Warfighter, haben wir damals
im Mutliplayer Modus gespielt, das war echt sau schwer wenn ich mich recht erinnere, hat aber
Spass gemacht... Die PhysX-Karte habe ich damals gar nicht auf den Schirm gehabt...
Geschichtlich würde es ja in der Schweiz entwickelt.
Die Karte war zu teuer und hat wenig gebracht.
Später hatte ich mal ne zweite GeForce im Rechner stecken um die Berechnungen zu übernehmen. War echt Spielerei.
Es gab nie genug Spiele mit gutem Support
Edit: gezogen wo es noch die Hardware Karten gab.
Mittlerweile rechnet die Graka das einfach so mit. Code gibt es hier
Komisch, dabei haben diverse User ständig fabuliert wie toll ja PhysX sei und dies DER ausschlaggebende Grund für Nvidia sei.
Das die Effekte zwar ganz nett waren, die Spiele-Entwickler häufig aber nichts physikalisch korrektes umgesetzt haben war dann irrelevant . Beispiel: Mafia, in dem man zwar einen Betonsäule zerlegen konnte, aber man unendlich viel Beton raus ballern könnte.
R O G E R schrieb:
Das selbe ist ja auch mit Freesync und G-Sync passiert.
? FreeSync ist einfach nur der Treibername von AMD für den offenen Standard. G-Sync, was sich zwangsweise öffnen musste, nachdem sie ihre Kundschaft mit einem proprietären FPGA mitsamt Treibern gemelkt haben.
@Volkimann das gleiche passiert gerade mit Raytracing.
Erst wenn AMD auch einen offenen Standard FSR bringt wird sich dieser durchsetzen zwecks Konsole.
DLSS wird reine Nvidia Spielerei bleiben.
Jedes Mal wenn in Office im Büroteil einer ne Granate wirft gingen bei mir dermaßen die fps in den Keller. 🤣
Mit nem Pentium 4 wars halt schon schwierig...
Ich hatte damals mit dem Gedanken gespielt mir sowas zu holen... Hatte aber nicht solche Preise in Erinnerung.
Zum Glück hab ichs dann ja doch nicht getan.
Jedes Mal wenn in Office im Büroteil einer ne Granate wirft gingen bei mir dermaßen die fps in den Keller. 🤣
Mit nem Pentium 4 wars halt schon schwierig...
Ich hatte damals mit dem Gedanken gespielt mir sowas zu holen... Hatte aber nicht solche Preise in Erinnerung.
Zum Glück hab ichs dann ja doch nicht getan.
Hätte auch nicht viel gebracht, da es nicht offiziell unterstützt wurde, aber ich weiß genau was du meinst, auch der Sound war in dem Moment total am Arsch
Habs mit einem AMD 3200+ und ner 6600GT damals gespielt.
Ich erinnere mich, dass ich in Mirrors Edge mal ohne Physix Karte Physix aktiviert hatte und dann in den Büroleveln die FPS von vll. 40 auf 1 fiel sobald auch nur eine Scheibe kaputt ging...
Ach ja das PhysX... Damals in meinem jugendlichen Wahnsinn habe ich neben SLI auch noch extra eine Gpu dafür eingebaut. Gut in Borderlands 2 gab es ein paar (zuviele) extra Partikel und das war in meiner Erinnerung das Beispiel, wo es am intensivsten eingesetzt wurde.
Naja die Lektion habe ich gelernt und denke mir nun bei jeden proprietären Feature von NVIDIA meinen Teil
Ich hatte im damaligen Clan 2 Spezies die sich die PhysX Karte, als der 3DMark Vantage kam. extra dafür geholt hatten. Blöd nur das - damals noch Futuremark - sehr schnell die PhysX Punkte aus dem Gesamtergebnis nahm. Aber BFG 😍 auch ein Hersteller den ich heutzutage vermisse.
Oje, ich kann mich noch an die Diskussionen erinnern, als Nvidia Ageia aufgekauft hat und PhysX das Superduper Verkaufsargument wurde, nur weil in Spielen ein paar Blätter herumwirbelten, was man genauso gut und genauso schnell auch auf Radeons hätte darstellen können, wenn die Entwickler es gewollt hätten...
Ahh endlich, die wöchentliche Retro guten Morgen Lektüre.
Ich hatte mal überlegt so eine PhysX Karte zu holen, bei der Überlegung ist es letztlich auch geblieben.
Als Mirrors Edge rauskam hatte ich PhysX spaßenshalber mal angeschalten. Es lief auch flüssig, bis die ersten Scheiben zerschossen wurden dann gab es Diashow vom feinsten. 😂
Unterm Strich ist Havok dann doch die bessere Physik Engine, allein schon weil´s auf jeder billigen CPU ohne Einbrüche läuft.
MFG Piet
Da kann ich mich noch dranne erinnern, dass bei manchen Spielen ein PhysX Simulationstreiber mit installiert wurde.
Hatte man eine nvida GPU war das sogar Multicore, hatte man AMD/ATi wars Singlecore.
Ein Schelm wer böses denkt.
Das war doch sogar mal ne News: https://www.heise.de/newsticker/meldung/Bremst-Nvidia-CPU-PhysX-Effekte-kuenstlich-aus-1036153.html
Übliches Geschäftsgebahren der Lederjacke nunmal, zum glück ist es tot.
Das PhysX, das am meisten benutzt wird und heute verbreitet ist, ist eine "klassische" CPU-basierte Physikengine. Mit dem ursprünglichen PhysX, das hardwarebeschleunigte Effekte auf der GPU/PPU rechnet, hat das nicht viel gemein. Letzteres ist zwar in einigen Engines drin, benutzt aber fast niemand mehr.