News PhysX-Karte von Asus mit 128 MB Speicher

Ich halte davon nichts, ich hab schon Bauklötzer gestaunt, wie mir in Soldier of Fortune 2 mal zwei feindlichen Soldaten die Rolltreppe runter entgegenpurzelten als ich hinter ihnen eine Granate geschossen hab, ultrarealistisches Ragdoll war das!
Die haben sich überschlagen, gedreht und blieben dann mit offenen Gedärmen irgenwie zwischen den Stufen und dem Geländer liegen. Soviel wollte ich NIEMALS sehen!

Später hat Painkiller und das Addon noch eins drauf gesetzt, da fielen auch schon ganze Mauern in sich zusammen.
Die Fortschritte rein CPU Berechnet sind zwar marginal, aber doch auch jedes Jahr ein winzigen Tick höher, oder man denke nur mal an Half Live 2 an diesen Gravitationswerfer da!

Wo immer eine CPU die wenigen hundert physikalischen Berechnungen selber macht, die sie schon kann, kriegt man schon verdammt viel geboten!
 
Zuletzt bearbeitet:
noxon schrieb:
Der Ablauf der Graka-Physik sieht ungefähr so aus:
CPU -> Wrapper -> Direct3d -> Graka-Treiber -> Graka Shaderprogramm -> Anzeige

Wie du siehst berechnet die Graka die Physik mit ihren Shaderprogrammen und gibt die fertig berechnete Szene sofort aus. Sie teilt das Ergebnis der Berechnungen aber nicht der CPU mit. Das kann sie aus technischen Gründen gar nicht.

ach ist das so?

CB News schrieb:
Laut ATi ist sowohl die R520- als auch die R580-Architektur zu Physikberechnungen in der Lage, man müsse diese Funktion lediglich über die Treiber aktivieren. Man wolle eine proprietäre Programmierschnittstelle integrieren, die einem Spiel das Umgehen von OpenGL oder DirectX ermöglicht, damit es direkt mit der Hardware kommunizieren kann. Natürlich sollen auch DirectX oder OpenGL genutzt werden können, sofern der Programmierer es wünscht.

ATi ist sich sogar sicher, dass die eigene Lösung besser für Physikberechnungen geeignet ist als die von nVidia und Ageia. Quelle

oder doch nicht?

aber du weist das sicher besser. :rolleyes:
 
msgt schrieb:
Jo. Genau so ist das. Sie Bild 3 - 5


OK. ATi hat ne eigene Schnittstelle und umgeht damit den Umweg über DirectX, aber das ändert nichts an der Tatsache, dass die GPU ihre Berechnungen nicht an die CPU übermitteln kann.


aber du weist das sicher besser. :rolleyes:
Anscheinend ja.



Und hier nochmal ein Statement vom Vice President von Havok:
Jeff Yates - To be clear, we are only targeting physically-based effects with Havok FX on the GPU, working in tandem with Havok Physics for game-play physics on the CPU. Games will continue to use Havok Physics to provide scalable game-play physics with the typical “twitch” response times required to make physics fun and well-integrated with other core game components on the CPU. But Havok FX will be able to layer on top of that many 1000’s of objects (or organic effects based on clouds of objects and particles) that can be affected “downstream” by the game-play physics. There will be some limited feedback from the GPU to the CPU, but this will be lower priority

Naja. Und wer Ageias Statement zu dem Thema lesen will, dann gibt's hier auch noch was:
First, GPUs do not have enough internal memory bandwidth with their limited texture cache link. Because pixel shading has become more dominant in games that texture shading (which accesses memory), the bandwidth increases on GPUs have not moved up enough to match what AGEIA claims to have and what they claim is required. This will negatively affect the scale that a GPU can address in physics calculations as the number of entities it can store and access simultaneously is diminished.

The lack of a real write-back method on the GPU is also going to hurt it in the world of physics processing for sure. Since pixel shaders are read-only devices, they can not write back results that would change the state of other objects in the "world", a necessary feature for a solid physics engine on all four counts.

AGEIA also claims that since the API for a graphics card is going through Direct3D and any software that does physics calculations on the GPU is forced to "map" the physics language to the pixel processing language, there is additional overhead. The ability to easily map physics code to a physics pipelines will increase speed and lessen complexity on the software back end system.

Because of these limitations, the physical simulations that are possible on a GPU are limited mainly to eye candy and special effects. And actually, NVIDIA didn’t try to deny this fact during our briefing on SLI Physics, so it makes a lot of sense.
 
Zuletzt bearbeitet:
noxon schrieb:
OK. ATi hat ne eigene Schnittstelle und umgeht damit den Umweg über DirectX, aber das ändert nichts an der Tatsache, dass die GPU ihre Berechnungen nicht an die CPU übermitteln kann.
Warum sollte die GPU das nicht können?
ach ja weil irgend jemand von Ageia das sagt.

The lack of a real write-back method on the GPU is also going to hurt it in the world of physics processing for sure. Since pixel shaders are read-only devices, they can not write back results that would change the state of other objects in the "world", a necessary feature for a solid physics engine on all four counts.
Der wird sicher auch besser wissen als ATI was ihre GPU kann und was nicht.
Mal abgesehen davon das GPU's ja leider auch nicht weiter entwickelt werden und für immer und ewig auf dem heutigen Stand stehen bleiben.

Wie gesagt von angepasster hardware beschleunigte Physik wird sich wohl schon durchsetzen aber über längere Sicht genau wie damals auch bei 3D karten eben nicht als zusatzkarte. Die ersten 2D/3D kombikarten konnten den 3dfx karten auch nicht das wasser reichen und wo sind wir heute?

Also ich würde zumindest lieber 100€ mehr für eine Graka zahlen die auch physik berechnen kann als noch mal 100€ für eine Zusatzkarte.
 
Zuletzt bearbeitet:
msgt schrieb:
Warum sollte die GPU das nicht können?
ach ja weil irgend jemand von Ageia das sagt.
Nein, weil das einfach ein Fakt ist. ;)
Darüber gibts nichts zu diskutieren, sowas geht einfach (noch) nicht in akzeptabler Geschwindigkeit.
 
Green Mamba schrieb:
Nein, weil das einfach ein Fakt ist. ;)
Darüber gibts nichts zu diskutieren, sowas geht einfach (noch) nicht in akzeptabler Geschwindigkeit.

Nur weil du meinst das es darüber nix zu diskutieren gibt?
Na danke!

Ich erriner mich noch als PCIe gerade neu war und die Hersteller uns mit GPU berchneter Videobearbeitung und den damit möglichen effekten zeigen wollte wie toll PCIe ist und das dass eben nur durch die tolle Upstream Performance von PCIe gegenüber AGP möglich ist, da die daten ja wieder über die CPU in den Hauptspeicher müssen um die videos auch auf platte speichern zu können. (AGP upstream ist übrigens noch doppelt so hoch als der von PCI)

Also generell kann eine Graka sehr wohl sehr schnell daten zur CPU senden, sogar sehr viel schneller als eine PCI-karte. 4 GB/s vs. 133 MB/s

Also kanns nur an den Ausführenden einheiten der GPU liegen und da haben wir ja schon festgestellt das sich diese ja nicht mehr weiter entwickeln werden.:rolleyes:
 
msgt schrieb:
Der wird sicher auch besser wissen als ATI was ihre GPU kann und was nicht.
Das weiß jeder, der etwas Ahnung von der Funktionsweise einer Graka hat.


Mal abgesehen davon das GPU's ja leider auch nicht weiter entwickelt werden und für immer und ewig auf dem heutigen Stand stehen bleiben.
Stimmt. Die PPU wird sich aber auch weiterentwickeln. Ich möchte ja gar nicht abstreiten, dass sich die GPU hervoragend für Effekt-Physik eignet, aber das ist nunmal nicht alles.


Also ich würde zumindest lieber 100€ mehr für eine Graka zahlen die auch physik berechnen kann als noch mal 100€ für eine Zusatzkarte.
Im Moment würde ich das natürlich auch machen. Besonders, wenn jetzt die DX10 Karten erscheinen. Im speziellen der R600 mit unified shadern. Der wird noch effektiver Physikberechnungen durchführen können, als heutige Grakas und auch die CPU hat viel mehr Leistung für Gameplay-Physikberechnungen zur Verfügung, als heute mit DX9.

Kannst dir ja mal das hier durchlesen.


In nächster Zukunft fährt man also mit einer GPU/CPU Lösung am Besten, aber ich glaube auf lange Sicht wird sich doch ein speziallisierter Chip für diese Aufgabe durchsetzen.
 
@ msgt :
Es geht doch darum, dass Havok FX die Shadereinheiten auf der Grafikkarte benutzt.
Die sind unidirektional, es wäre also nötig, die Grakahersteller zu überzeugen ihre Pipelines umzubauen, damit Grafikkarten zur "erweiterten" Physikberechnung genutzt werden können.
Das macht aber wenig Sinn, es kostet die Hersteller viel Geld, und es gibt keine konkrete Anforderung. Nvidia verdient ja nichts daran, wenn sie ihre Karten so baut, dass Havok damit dann "echte" Physik machen kann.
Wenn überhaupt werden die GK-Hersteller eigene Physikchips integrieren.
Aber auch das macht wenig Sinn, weil dafür ja massiv Leistung verlorengeht.
Das ist ja nicht "mal eben einen weiteren Chip auflöten".
Wenn Grafikkarten ernsthaft zu Dual-PU Systemen umgebaut werden sollen, muss
man mit dem Kartendesign ja wieder ganz unten anfangen.
Eine "Komplettkarte" wird es erst dann geben, wenn sich die Physikanforderungen so verbreitet haben,
dass "jedes" Spiel das braucht.

-- -- muckelzwerg
 
noxon schrieb:
Havok FX ist einfach nur eine nette Sache um Effekte zu verbessern. Sie ist aber nicht interaktiv und kann daher nicht in's Gameplay eingreifen. Dafür rechnet Havok weiterhin auf der CPU.

ich bin zwar bisschen spät aber genau das wollte ich mit meinem Post weiter unten auch ausdrücken, nur der technische Hintergrund war nich ganz so ausgereift :-]
 
Ein weiterer eher ernüchternder Artikel [engl.]: AGEIA PhysX Physics Accelerator Review

AGEIA needs at least one really well-known and popular game to popularize its approach to realistic gaming physics. Right now there is no game like that, and Tom Clancy’s Ghost Recon Advanced Warfighter is definitely not the one. Although there is one candidate we all are waiting for: the multi-player Unreal Tournament 2007 shooter.
Word!

Bin echt gespannt, was UT2k7 aus all den neuen Features wie SLi/X-Fire, DualCore & 64bit, X-RAM (X-Fi Fatal1ty) und nicht zu letzt eben PhysX machen wird.
 
Zuletzt bearbeitet:
Zurück
Oben