kisser schrieb:
Das ist definitiv falsch. Was glaubst du denn, warum PCIe einen Rueckkanal mit 2GB/s Bandbreite eingefuehrt hat? Was machen denn onboard Grafikchips, die den Hauptspeicher mitnutzen? Ist dir Turbocache vcon NVidia ein Begriff?
Genau kenne ich mich mit der Grafikkartenarchitektur auch nicht aus, aber anscheinend geht das wirklich nicht. Hast du das hier gelesen?
Jeff Yates - To be clear, we are only targeting physically-based effects with Havok FX on the GPU, working in tandem with Havok Physics for game-play physics on the CPU. Games will continue to use Havok Physics to provide scalable game-play physics with the typical “twitch” response times required to make physics fun and well-integrated with other core game components on the CPU. But Havok FX will be able to layer on top of that many 1000’s of objects (or organic effects based on clouds of objects and particles) that can be affected “downstream” by the game-play physics. There will be some limited feedback from the GPU to the CPU, but this will be lower priority
Und das stammt nicht von Ageia, sondern von Havok.
Eine GPU ist geradezu optimal fuer Physikberechnungen und man kann die insofern schon als spezialisierten Physik Chip betrachten. Mehr als MADD Einheiten hat der PhysX auch nicht und die GPUs haben da schon ein paar mehr davon.
Woher willst du das denn wissen? Bist du Experte? Ich würde mal behaupten, nein, also kannst du solche Behauptungen doch gar nicht aufstellen.
Der gesunde Menschenverstand hingegen sollte einem aber schon sagen, dass eine Grafikkarte nicht optimal für Physikberechnungen sein kann, oder?
Und wieviele Multiplay-Adds kann denn so eine Graka überhaupt durchführen? Die PPU schaft 16 x (6 Multiplay-Adds + 1 Integer Operation) pro Takt.
Außerdem ist eine hohe Speicherbandbreite sehr wichtig und die hat eine Grafikkarte auch nicht. Eine Grafikkarte legt ihre Daten in relativ großen sequenziellen Blöcken ab und muss sie auch sequenziell wieder einlesen. Ein Physik-Chip führt viel kleinere, dafür aber zufällige Zugriffe aus. Jedes Objekt hat da nämlch seinen eigenen kleinen Speicherbereich und bei Kollisionen müssen diese Daten schnell mit anderen Objekten verglichen werden. Während einer Simulation geht da also richtig die Post ab und Zugriffe quer über den Speicher müssen sehr schnell ausgeführt werden können. Deshalb verwendet die PPU auch ein anderes Speicherzugriffsverfahen, als eine Graka.
Dies ist nur eine Sache, die ich über den Chip weiß und es gibt bestimmt noch dutzende andere Dinge, wo die PPU Vorteile gegenüber eine Graka hat.
LOL. Hast du denn von denen eine andere Aussage erwartet?
NVidia und ATi werden das sicher GANZ anders sehen.
Nö, aber ich erwarte auch nicht, das Ageia so offensichtlich lügt. Wenn die sagen:
Since pixel shaders are read-only devices, they can not write back results that would change the state of other objects in the "world"
dann glaube ich das mal. Das sonst eine Menge Propaganda dabei ist, das ist wohl klar, aber wenn selbst Havok das Gleiche erzählt wie Ageia, dann wird da wohl was dran sein.
Aber was erzähl ich. Sollen sich die Leute doch für 500 EUR eine zusätzliche Heizung in ihren Rechner bauen um damit eine Eye-Candy Physik mit ein paar tausend Objekten zu erhalten, anstatt sich für 300 EUR eine interaktive Engine mit zig-tausenden von Objekten anzuschaffen.
Das Ganze Physik-auf-GPU Geschwafel ist doch nur ein hoffnungsloser Versuch von Havok und den Graka-Herstellern der PPU noch etwas entgegenzusetzen. Ich denke schon, das der Umsatz von Havok nen kräftigen Knick bekommen wird.
Die Graka-Hersteller machen da lediglich mit um auch noch dem letzten weiszumachen, warum man unbedingt ein SLI/CF System braucht.