News Im Test vor 15 Jahren: PhysX-Beschleuniger für 299 Euro von Ageia

Ein Jammer das sich das nicht durchgesetzt hat. Die Technik beeindruckt jedes Mal, wenn man mal Spiele spielt mit PhysX. Siehe Fallout 4/Batman Arkham Knight/Mafia 2/AC Black Flag usw.
Ray-Tracing ist dagegen bis dato eine Ressourcenverschwendung. Hauptsache Pfützen Spiegeln korrekt. Spiele sind so statisch, da entwickelt sich kaum was weiter. Größte Entwicklung der letzte Jahre waren Shader und Licht. Da war PhysX immer ein Augenöffner und brachte viel mehr Dynamik optisch ins Bild. Schade.
 
[wege]mini schrieb:
Für 299 Euro sogar eigentlich "günstig".
Im Abverkauf (Alternate war es damals) gab es die von Asus sogar für 89-129€, irgendwie sowas um den Dreh. Hatte damals fast überlegt, eine zu bestellen und originalverpackt zu lassen, um das Teil viele Jahre später evtl. teuer weiterverkaufen zu können ... :D
 
Danke für den Artikel! Ich habe doch glatt vergessen, dass es eine extra PX Karte dafür gab.
Lg
 
Balikon schrieb:
AMD wird niemals Tensor-Cores haben. es sei denn, sie haben bei Nvidia Industriespionage betrieben. DLSS ist nur einen Übergangslösung, bis die Karten generell stark genug sind, Raytracing ohne Hilfsmittel auszuführen.
Wie stark ist denn "stark genug"?

Natürlich werden auch im Bereich Raytracing die Ansprüche über die Zeit wachsen. Warum solltem man da eine Technik fallen lassen, die die fps bei äußerst geringen Bildqualitätseinbußen 50% und mehr erhöht?
 
abcddcba schrieb:
Keiner dieser Konzerne will irgendwie etwas Gutes fuer die Kunden tun.
Ich nehme an, das meinst Du nicht so, sondern in dem Sinne, dass Unternehmen nicht unbedingt altruistisch handeln. Natürlich wollen und müssen Unternehmen Geld verdienen und Gewinn machen. Und wenn sie dann Produkte auf den Markt bringen, die Kunden zufrieden stellen (oder gar glücklich machen), haben sie doch etwas Gutes getan; sowohl für den Kunden als auch für sich selbst.

saku schrieb:
Würde ich mir heute noch mal in modern wünschen
Gibt's doch:
PhysX is already integrated into some of the most popular game engines, including Unreal Engine (versions 3 and 4), Unity3D, and Stingray.

Quelle: https://developer.nvidia.com/gameworks-physx-overview

BTT: Ich selbst habe damals auch überlegt, mir so eine Karte zu holen, war mir dann aber doch zu teuer und im Zuge der Übernahme durch nVidia, deren Unterstützung für PhysX auf den eigenen Karten und der Notwendigkeit eines neuen Rechners wurde es dann eine GeForce 8800 GTS 512.

Ich fand die Animation von Textilien immer beindruckend.

Dachte auch immer, dass für PhysX immer eine Nvidia-GPU benötigt wird, wurde aber letztes Jahr eines Besseren belehrt, als ich Dragon Age: Origins auf meinem Surface Laptop 3 installieren und spielen wollte, obwohl ich nur die Iris Plus des i7-1065G7 als GPU habe. Hier musste ich die PhysX-Treiberkomponente explizit installieren, damit das Spiel lief.

1618693314615.png
 
  • Gefällt mir
Reaktionen: pietcux
Ich find es schade das man sich so auf Raytracing gestürzt hat und Physik so vernachlässigt hat das letzte Jahrzehnt!
 
Visualist schrieb:
Ich find es schade das man sich so auf Raytracing gestürzt hat und Physik so vernachlässigt hat das letzte Jahrzehnt!
Ähm, so gesehen ist Raytracing auch Physik. Und Physik wurde nicht vernachlässigt, sondern die Bibliotheken wurden in die Engines integriert und laufen jetzt im Hintergrund ab.
 
  • Gefällt mir
Reaktionen: [wege]mini, ThePlayer und Hayda Ministral
Cohen schrieb:
Natürlich werden auch im Bereich Raytracing die Ansprüche über die Zeit wachsen. Warum solltem man da eine Technik fallen lassen, die die fps bei äußerst geringen Bildqualitätseinbußen 50% und mehr erhöht?
Weil Du irgendwann diese Ansprüche bedienen kannst, ohne auf eine Technik wie DLSS zurückzugreifen. Mehr als das gesamte Bild mit abgeschossenen Strahlen darzustellen geht nicht. Wenn das Computer beherrschen, brauchst Du kein DLSS mehr. Ich habe nicht behauptet, dass das in den nächsten Jahren sein wird.
Jede Technik wird genutzt bis sie obsolet ist. Das dauert gefühlt eine Ewigkeit: Seit wievielen Jahren nutzen wir Rasterization? 30? Mehr? Jetzt erleben wir den Übergang auf Raytracing, welches besser mit der Rechenleistung skaliert, wie in einer CB-Reihe vor auch schon fast einem Jahrzehnt gezeigt wurde.
 
Replikator584 schrieb:
Damals war doch Unreal Tournament mit PhysX voll der Hit ?
da gabs ne map mit einem tornado. das sah schon klasse aus wo alles herumgewirbelt wurde.
 
Volkimann schrieb:
Ähm, so gesehen ist Raytracing auch Physik. Und Physik wurde nicht vernachlässigt, sondern die Bibliotheken wurden in die Engines integriert und laufen jetzt im Hintergrund ab.
Die Spielewelten wirken bis auf Wetter (Nebel ,Spiegelungen Beleuchtung teils immer noch so tot wie vor 20 Jahren wen ich mit einem Auto in einen Zaun fahre geht der kaputt aber der Wagen prallt nicht ab .
Wenn ich durch den Wald gehe und auf Äste trete brechen diese Bäume knicken bei großer Kraf Einwirkung ein usw.
 
Volkimann schrieb:
Letztlich zeigt es sich das die CPU Beschleunigung im Grunde genommen der GPU keineswegs unterlegen war. Es gab sogar Benchmarks in denen es sich zeigte das die CPU Beschleunigung Vorteile hatte, wenn das Spiel zB im GPU Limit hing.

Also ne ganz tolle, heiße technische Entwicklung, die Nvidia uns da aufgetischt hat... Oder so
Man muss das im Kontext der Zeit sehen. als die AGEISA Karte kam waren Dual Cores aktuell. Damals ergab es Sinn den Flaschenhals CPU durch Hardwarebeschleunigung zu entlasten.
Bei der heutigen Core Schwemme ist das natürlich kein Problem mehr.

Das Hauptproblem von PhysX war imo, dass es nur Effekte waren und keine Physik Enigine, die auch das Gameplay selbst beeinflusst hat.
Mangels Weiterentwicklung durch Nvidia ist der Hardwarebeschleunigte Spass dann auch zu Recht in der Versenkung verschwunden.

Ich hoffe ja inständig, dass die CPU Power der neuen Konsolen dazu führt den Simulationsgrad in Spielen endlich zu erhöhen. Stichwort: lebendige Spielwelt.
 
Balikon schrieb:
Bei komplexeren Szenen mit detaillierteren Modellen wird der benötigtigte Rechenaufwand aber auch ansteigen. Bei Toy Story 4 hat die Berechnung eines Bildes zwischen 60 und 160 Stunden gedauert (natürlich verteilt auf viele Rechner der Renderfarm, damit es schneller geht):
https://www.insider.com/pixars-animation-evolved-toy-story-2019-6

In Videospielen brauchen wir hingegen Echtzeit-Berechnung. Und da ermöglicht DLSS ca. doppelt so komplexe Szenen als bei Berechnung ohne DLSS. Die "Übergangszeit" bis die Grafikarrten für alle Raytracingansprüche "generell stark genug" sind, dürfte wohl mehrere Jahrzehnte sein.

Ich vermute, dass meine eigene "Übergangszeit" auf der Erde eher endet. :-(
 
Zuletzt bearbeitet von einem Moderator:
saku schrieb:
Fand ich damals mega cool. Würde ich mir heute noch mal in modern wünschen. Wäre auf jeden Fall besser als das recht enttäuschende Raytracing
Du und viel andere versteht nicht das Raytracing ganz am Anfang steht.
In 3-5 Generationen wird das ganz anders aussehen wenn Spiele komplett auf RT setzen. Dann ist es endlich möglich in Spielen Fotorealistische Grafik zu haben. Schau dir Mal den ersten Toy Story Teil an das ist Raytracing aus 1995 und dann schau dir den dritten oder vierten Teil an. Da liegen Welten zwischen. Alle Filme nutzen Raytracing aber die Technik und die Leistung hat sich stark verbessert.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Sun_set_1 und BurgbachJ
RobinSword schrieb:
Was konntest du denn damals mit HW-PhysX machen, was du heute mit Software-PhysX nicht kannst? Irgendwelche (z.B. Unity-) Entwickler hier im Forum, die das mal erklären könnten?
Prinzipiell kann man mit Beiden dasselbe bewerkstelligen.
Nur eben nicht so schnell.
Das was Mirrors Edge damals mit GPU-PhysX erreicht hat, wird auch heute noch die meisten CPUs überfordern.
So etwas wie Fluid Simulation in Echtzeit ist auch heute für GPUs nur in kleinem Maßstab machbar.

Es ist also keinesfalls so, dass PhysX heute einfach so "im Hintergrund" auf CPUs so läuft und dasselbe macht wie damals die extra Karte.

Zwischendrin gab es dann Nvidia Flex, aber der Support dafür ist eher mager und eigentlich nur im Simulationsbereich genutzt. Von Echtzeit keine Spur. Die Leistung reicht dafür noch lange nicht aus.
 
  • Gefällt mir
Reaktionen: RobinSword
Bodennebel schrieb:
Aufm Papier schon, aber HW PhysX verwendet effektiv niemand mehr. Die genannten Engines nutzen auch die CPU PhysX Komponente, die aber "nur" eine klassische Software-Physikengine ist.

Volkimann schrieb:
sondern die Bibliotheken wurden in die Engines integriert und laufen jetzt im Hintergrund ab
...und damals liefen sie außerhalb oder was? Nö, auch damals waren die Libs natürlich in die Engine integriert. Vernachlässigt wird es in dem Sinne, dass GPU Compute nur noch selten für Physik verwendet wird.
Dafür werden nun andere Effekte verstärkt in GPU Compute ausgelagert, wie zB Partikelsimulation. Also immerhin etwas.
 
Fighter1993 schrieb:
@Volkimann das gleiche passiert gerade mit Raytracing.
Erst wenn AMD auch einen offenen Standard FSR bringt wird sich dieser durchsetzen zwecks Konsole.
DLSS wird reine Nvidia Spielerei bleiben.
Vielleicht hab ich da eine etwas andere Einschätzung zu:
DLSS ist aktuell sogar ganz interessant. Gefühlt spinnen die sich gerade Auslösungsszenarien zusammen die nach aktuellem Rohleistungsstand keine Hardware wirklich hinterher kommt.
Und mit zusammenspinnen meine ich tatsächklich 8K. Ich kenne leute, mich eingeschlossen, denen reicht aktuell immer noch 1440p mit etwas Kantenglättung locker aus. DA ist dann auch DLSS vermultich irrelevant, ABER die FPS mehr nehme ich gerne mit, weil mehr FPS sind mehr FPS. Aber was red ich, ich bekomme eh keine 3xxx-Karte xD

Und PhysX und RayTracing sollten eigentlßich für mehr Realismus in Spielen sorgen.
Es ist sogar lustig wie oft man PhysX noch liest bzw las, aber es im Spiel selber nie breit getreten wurde weil es immer nur Details waren.
RT wird da vermutlich nur bedingt besser sein, weil ein belichteter Raum als Gesamteindruck vermutlich eher realisistscher aussieht als der Qualm einer Kerze der durch den Wind eines offenen Fensters beeinflusst wird.
Woher weiß der beobachter denn dass der Rauch nicht einfach stumpf berechnet wurde sofern er nicht direkt interagieren kann.
Vielleicht ist es nur meine Meinung, und so gerne ich auch PhysX mit Wind und Flüssigkeiten in Spielen gerne sehen will, aber RT sorgt für ein höheres Maß an Realismus.

tl;dr
RT ist vermutlich wichtiger als PhysX und DLSS auftrund der künstlich erstellten Anforderung ein gutes Tool um in Games endlich wieder mehr FPS zu bekommen weil die Rohleistung nicht hinterherkommt.
 
Powl_0 schrieb:
Aufm Papier schon, aber HW PhysX verwendet effektiv niemand mehr. Die genannten Engines nutzen auch die CPU PhysX Komponente, die aber "nur" eine klassische Software-Physikengine ist.
Es ist ja irgendwie auch nachvollziehbar. Software ist nun mal leichter in der Breite auszurollen als Hardware.
Mir als Endverbraucher kann es doch ziemlich egal sein, ob die Physik nun auf der CPU, GPU oder dedizierter Hardware berechnet wird. Das Ergebnis zählt.
 
Bodennebel schrieb:
ziemlich egal sein, ob die Physik nun auf der CPU, GPU oder dedizierter Hardware berechnet wird. Das Ergebnis zählt.
Das Ergebnis hängt aber davon ab, welche Variante verwendet wird. Egal ists also nicht.
 
  • Gefällt mir
Reaktionen: Naitrael
Zurück
Oben