News Nvidia wird PhysX-Karten auslaufen lassen

Sobald die Grafikkarten potent genug für Raytracing sind wird es Unmengen verpuffende Leistung von Grafikkarten geben, da die Berechnung nur einen hohen Grundaufwand hat, und nicht wie bisher pro Polygon. Weit entfernt davon sind wir nicht mehr, dann braucht es nur noch gute Engines.
Und ich halte es eher für wahrscheinlich das es als extra Chip sinnvoll in die Architektur eingebunden wird .. also wird das PCB nur wieder 5cm länger.
 
Das war völlig vorhersehbar.
Mir war schon seit beginn der PhysX Berichte klar, dass das eine Totgeburt wird.
Im Prinzip kann Ageia froh sein von Nvidia übernommen worden zu sein. Früher oder später hätten sowieso die Grossen Chip-Hersteller eine ähnliche Technologie in Ihren Karten implementiert & Ageia wäre - spätestens dann - sang und klanglos untergegangen.

in diesem Sinne
Greetz blueGod
 
Mir war schon seit beginn der PhysX Berichte klar, dass das eine Totgeburt wird.

Das einzige was Ageia benötigt hätte wer ein besserer Fertigungsprozess gewesen. 65nm und die hättten fast vier mal so viele PPUs auf einen Wafer bekommen und damit wären die Preisen auch um ein gutes Stück gesunken.

MfG Pantherfibel
 
Ich bin (auch) dafür, dass solche Physikhardware auf die Boards implementiert werden, wie Lan oder Sound. Für Games wie z.B. Call Of Duty hätte ich mir aber schon 'ne Karte geholt. Weitere Physikgames werde folgen, genau so wie DX10.
 
Das macht für mich nVidia immer nur noch unsympathischer...
 
Finde sowohl die ganze PhysX Karten- als auch die Physik auf Grafikkarten Geschichte eigentlich völlig fehlgegriffen. Zum einen nutzt kein Spiel entsprechende Standards richtig, zum anderen wird die Entwicklung wieder nur einseitig geschürt: springen erst einmal ein paar bedeutende Spiele Hersteller mit ihren Engines auf nVidias Zug auf, siehts für ATi als auch die CPU Abteiltung wohl nicht mehr so rosig aus. Und solch einseitige, monopolartige Entwicklungen kann ich nicht so recht gut heißen ...

Grafikkarten sind eh schon richtige Monster geworden und brauchen teilweise mehr Leistung als der gesamte Rechner ohne Grafikkarte. Zudem stellt sich bei den sich stets vermehrenden CPU Kernen die Frage, was die den Spielen für Nutzen bringen, wenn doch recht essentielle bzw. potenziell wachstumsfähige (mehr Leistungshunger) Sachen wie die Physikberechnung auf spezielle Chips oder Grafikkarten ausgelagert werden. Sicherlich berechnet ein CPU Kern die Physik ineffektiver als ein spezieller Chip. Aber schaut man sich die ganze Sache mal an, hat man in zwei bis drei Jahren einen OctaCore im Rechner, von denen über die Hälfte der Kerne prinzipiell wahrscheinlich keine Beschäftigung beim Spielen haben. Angesichts dessen, was ich für recht wahrscheinlich halte, ist's für mich nicht nachvollziehbar, das ganze auf Biegen und Brechen auf spezielle Chips ausweiten zu wollen. Wobei die ganze Aktion dann anfangs sowieso mit einem extremen Aufwand verbunden ist - hingegen wäre der im Vergleich zu nem schlichten Ausbau auf der ohnehin vorhandenen CPU Basis wohl nicht annähernd so groß.

Die ganze Sache hinkt IMHO von vorn bis hinten ....

EDIT
Auf dem Board wäre das wohl auch eher fehlgegriffen, da die Physikberechnung wohl recht hohe Rechenleistungen benötigen wird. Immerhin geht der Trend zu einer sehr viel detailierteren Physik als bisher - siehe dieses Thema.
 
Zuletzt bearbeitet:
Ich frage mich, warum sich alle so darüber aufregen.

Ich finde es richtig, was nVidias CEO (ich meine er war es) vor ein paar Wochen gesagt hat. Es wird darauf hinauslaufen, das man eine CPU und eine GPGPU bzw. mehrere in seinen Rechner haben wird und je nachdem in welchen Bereichen man mehr Leistung braucht, kauft man dann eben auch eine Karte mehr dazu.
 
Zuletzt bearbeitet:
m_tree schrieb:
Zum einen nutzt kein Spiel entsprechende Standards richtig, zum anderen wird die Entwicklung wieder nur einseitig geschürt: springen erst einmal ein paar bedeutende Spiele Hersteller mit ihren Engines auf nVidias Zug auf, siehts für ATi als auch die CPU Abteiltung wohl nicht mehr so rosig aus

Naja, das ist ja so nicht ganz richtig. Nur weil Nvidia jetzt ihre Grafikkarten mit einer Physikberechnung ausstatten will heist doch noch lange nicht das das jetzt auch von den Spielefirmen übernommen wird.

Hier greift wieder Nvidias FX-Flop als beispiel, wo sie Spielefirmen ja "zwingen" wollten ihre neue Technik welche viel aufwendiger zu programieren war zu übernehmen. Was hats ihnen gebracht nichts.
Wenn der Marktverhältnis 50-50 ATI/Nvidia ist und die Physikberechnung der Nivida Karten auch eine Spezifische Physikengine benötigt die dann auch auf Nvidia Karten funktioniert, nehmen sich die Spielehersteller ja hier den Zorn der ATI Kunden auf sich was ja in meinem Beispiel dann 50% des marktes wären. Ob diese auf 50% der Verkäufer in einem "schwindenden" PC-Spiele Markt verzichten wollen ist ja eher mehr als fraglich.
Ausnahmen würden dann sicherlich Spiele sein wo Nvidia ordentlich Geld reinsponsored damit diese sich gänzlich auf Nvidias standard einlassen. Ansonsten wird es auch in Zukunft wohl eher auf Universell funktionierende Physik-Engines hinauslaufen, welche sicherstellen das diese auch für jeden interessierten Käufer einen anreiz stellen können.
 
@ HappyMutant
Ob bereits veröffentlichte Spiele in Zukunft auch ohne die Original Physx Karte laufen glaube ich kaum.Vielleicht bei UT3.Vielleicht.Wissen kannst du das nicht.Ich auch nicht.Aber glaube kaum das bei GRAW1-2,Infernal etc. noch gepatcht wird.Und erklär mir mal bitte wie man ein Spiel mit "Physx" entwickelt, wenn noch keine Nvidia-Karte mit Physx Implementierung auf dem Markt ist.Nvidia hat zwar vor das zu tun, aber ob das überhaupt was bringt und so funktioniert wie die sich das denken!?Keiner weiß es!Und was ist mit den Leuten die schon ne "Echte Physx-Karte" haben?Die schmeißen ihre dann weg?
 
wenn ich richtig gelesen hab, hat die 3800er serie von ati auch ne physik engine mit drin, zwar kein physx, wohl was ati eigenes

auszug aus der beschreibung:

......
Lossless color compression (up to 8:1)
8 render targets (MRTs) with anti-aliasing support
Physics processing support
Dynamic Geometry Acceleration
High performance vertex cache
....
 
Zuletzt bearbeitet:
in dem Fall wünsch ich beiden Herstellern das sie mit ihrem eigenen Physik gehampel auf der Nase landen und sich eine "universelle" engine durchsetzt auf dem dann beide in folgenen Grafikkarten generation ihre Hardware ausrichten. So hat der Kunde am meisten davon.
 
die sollen es so machen wie bei opengl, dann aht jeder was davon. nur das dann die gpu das ganze rechnet, und nicht die cpu, da die ja zu wenig rechenleistung hat
 
Also, ich finde das war absehbar mit den Physikkarten, weil die Cpu's und Gpu's werden ja immer vielfältiger und das war damals schon abzusehen als die ersten dualcore Cpu's draußen waren. Was ich schlauer gefunden hätte wenn ageia sich nur auf den Chip spezialisiert hätte und diese dann an AMD und Nvidia verkauft hätte aber so...ist das nur eine folge der Marktwirtschaft.
 
ich bin der Meinung nvidia/Ati sollte sich erstmal Gedanken ueber eine vernuenftige Grafikdarstellung machen bevor sie an Physik denken !Grafikkarten sind heute der limitierende Faktor bei Spielen und das trotz Ihrer hoeheren Komplexitaet und hoeheren Kosten als CPU`s.Liegt meist nichtmal an der Hardware ,Beispiele wie COD4 zeigen das es mit der heutigen HW moeglich ist mit max Details und max Aufl. fluessig zu zocken. Negativ-Bsp wie Crysis zeigen das es auch anderst geht.Es gab offenbar keine/schlechte Zusammenarbeit zwischen den Entwicklern/Programmierern. Eine einzige Katastrophe .. was nur allein die Grafik betrifft , kommen jez noch Probleme dazu die die Physik betreffen dann gute Nacht ...

Ich bin Besitzer einer Ageia Karte und habe schon einige Spiele gespielt die unterstuetzt wurden.Ich muss sagen das man meistens Probleme hat etwas von den Vorzuegen der Karte zu sehen.Man kann selten behaupten das spezielle Effekte nun unbedingt von der Karte herruehren. Habe GRAW2 mal mit und ohne Karte gespielt , die Unterschiede waren marginal und man musste regelrecht danach suchen.
Schlussendlich ist Physik Beschl. etwas was man meiner Meinung nach nicht braucht.Wie gesagt die sollen sich drum kuemmern das man mindestens mit topaktueller HW ein bereits halbes Jahr altes Spiel(Crysis) zocken kann.Vielleicht sogar mit mittelpraechtiger Hardware ein neues Spiel..:) danach koennen sie sich um Zeug wie PhysX kuemmern!
 
Hin oder her.Crysis hat ja wenigstens ne vernünftige Physik!Und immer diese vergleiche mit COD4 und Crysis nerven.Okay es läuft nicht flüssig auf Very High.....aber dafür hat Very High auch mehr zu bieten!Und das beste ist das irgendwann auch der Ultra High Modus freigegeben wird.Und dann gehört COD4 zum alten Eisen, während man sich an dem "alten Crysis" satt glotzt:-) Abgesehen davon zocke ich total gerne COD4.Also nochmal zusammengefasst:
1.Es geht hier um Physik
2.Vergleich zwischen COD4 und Crysis sinnlos.
3.Wenn schon Crysis Vergleich, dann auf Physik beziehen, und da hat Crytek gut gearbeitet.
 
Jester schrieb:
Ist ja klar das die die Karten auslaufen lassen, da die Physik demnächst bestimmt bei den NVidia-Grafikkarten mit eingebaut wird. So wird es kommen....

Genau das wird eben nicht passieren. Wie Du der News und auch der News nach dem Kauf von Ageia entnehmen kannst, plant nvidia keine Physik-Hardware, will nur die Software in die Treiber einfließen lassen und die GPU die A5rbeit übernehmen lassen.

m_tree schrieb:
Finde sowohl die ganze PhysX Karten- als auch die Physik auf Grafikkarten Geschichte eigentlich völlig fehlgegriffen. Zum einen nutzt kein Spiel entsprechende Standards richtig,

Das ist der bekannte Teufels-Kreislauf: Spielentwickler unterstützen es kaum, solange keiner die Hardware hat und die Hardware kauft keiner, wenn sie nicht unterstützt wird.

zum anderen wird die Entwicklung wieder nur einseitig geschürt: springen erst einmal ein paar bedeutende Spiele Hersteller mit ihren Engines auf nVidias Zug auf, siehts für ATi als auch die CPU Abteiltung wohl nicht mehr so rosig aus. Und solch einseitige, monopolartige Entwicklungen kann ich nicht so recht gut heißen ...

Eben. Und genau das wär der große Vorteil, wenn es weiter separate Physx-Karten geben würde bzw. andere Hersteller den Chip in Lizenz auf ihren Karten (z. B. auch Grafikkarten) einsetzen könnten.

So ist mal wieder eine schöne Entwicklung (hardwarebeschleunigte Physikdarstellung) plattgemacht worden und in den Schubladen von Nvidia verschwunden.
 
Zuletzt bearbeitet:
ich verstehe eure deisussion nicht..... bitte wieviele spiele haben physx karten benötigt und wiviele spiele insgesammt gibt es.

Ich mach mir erst gedanken darüber wenn mal einige spiele mehr damit arbeiten.

MfG
 
Killerdingo schrieb:
Software Raid mit einem "Hardware" supporteten Raid-Controller zu vergleichen is ein wenig schwach.
Es stimmt doch das "Physik" in spielen nur eine Software ist, welche nun von der Hardware berechnet wird, seih es nun spezifisch dafür ausgelegte Hardware welche bereits im Labor auf die dafür nötigen dinge angepasst wurde, oder einfach rohe Leistung von einer CPU. Im grunde ist es doch eh nichts weiter als stumpfe berechnungen.
Natürlich wurde die Software derartig an die Hardware der Physix Karten angepasst das dies auch etwas bringt.

Allerdings kann mir einfach keiner erzählen das die PhysX-Karten nun so unglaublich Leistungsstark sind das es absolut nicht als Ersatz gäbe....

Genau!
3D Grafik von heute ist ja auch alles in Software und wird bloß von den quasi überflüssigen, darauf zugeschnittenen GPUs berechnet. Eigentlich braucht man das ja nicht, sind ja doch nur stumpfe Berechnungen die man auch in einer normalen CPU erledigen kann.

Du hast offensichtlich keinen blassen schimmer von der Komplexität einer richtigen Physik Engine und den damit im Zusammenhang stehenden Berechnungen, mh?

Bei einer Physik engine die ihren Namen verdient gehts nicht einfach nur darum ob irgendwo ne Kiste runterfällt und in 3-4 texturierte Polygone zerfällt.
Was passiert mit dem Untergrund? Aus welchem Material war die Kiste? Wie Stark war das Material? War es aus einem Stück oder aus mehreren einzelteilen? Auf welchen Untergrund ist sie gefallen? Von welcher Schwerkraft darf man ausgehen? Wie stark war der Impuls der die Kiste zum Sturz bewegt hat? An welcher Stelle der Kiste wirkte die Kraft ein? Wieviel Energie wurde dafür eingesetzt? Wie war der Untergrund auf dem die Kiste stand beschaffen? Wie ist die Oberfläche der Kiste selbst beschaffen? In abhängigkeit davon: Wie stark und wo verormt sich die Kiste, reicht es zum Bersten dieser Kiste? Woher kam die Energie, welche diese Kiste bewegt hat? Auf welchem Untergrund stand die Energiequelle? Wie sind die Atmosphärischen Bedingungen(-uiuiui jetzt wirds hart, zähigkeit, verwirbelungen... args...)...... das kann man beliebig forführen.

Richtig kompliziert wird es erst bei Flüssigkeiten(s.o.)... aber das würde nun den Ramen hier sprengen.
Solche Dinge treiben jede heutige CPU in die Knie. Und die soll ja noch ganz andere Sachen machen, zudem soll das ganze ja in einer erträglichen Geschwindigkeit ablaufen.

Stickstoff schrieb:
ich verstehe eure deisussion nicht..... bitte wieviele spiele haben physx karten benötigt und wiviele spiele insgesammt gibt es.

Ich mach mir erst gedanken darüber wenn mal einige spiele mehr damit arbeiten.

MfG
Als 3dfx seiterzeit SLi raus gebracht hat, wurde es auch als überflüssig, ja sogar als unfähigkeit seitens 3dfx schnellere gpus zu entwickeln verschrien.
Heute faseln massig leute von der suberben leistung durch SLi/Crossfire
 
Zuletzt bearbeitet:
Tulol schrieb:
Als 3dfx seiterzeit SLi raus gebracht hat, wurde es auch als überflüssig, ja sogar als unfähigkeit seitens 3dfx schnellere gpus zu entwickeln verschrien.

Was ja auch absolut stimmte. Und heute auf ATI genauso zutrifft.

Tulol schrieb:
Heute faseln massig leute von der suberben leistung durch SLi/Crossfire

Nein, das tut niemand, ausser vielleicht ein paar DAUs.
 
Zurück
Oben