News ATis GPUs besser in Physikberechnungen?

mal unabhängig von allen vorhergehenden Kommentaren. Wie alle Vorredner gesagt haben: Marketing, mehr nich. Wie soll bitte eine Grafik GPU soviel Leisten wie en 8000er Quad Core wovon 2GHZ de Physik machen?? Das haut nich hin. Das mit den Karten wird langsamer sein als die CPU's. Jetzt wo AMD und Intel fleißig an ihren neuen Stücken werkeln fangen andre Leute an die User mit Physikkarten durcheinander zu bringen... Wie man sieht ne gute Taktik.... ich sag nur. AMD, immer weiter so, ich setz auf euch :D
 
TwentyEight28 schrieb:
Wie soll bitte eine Grafik GPU soviel Leisten wie en 8000er Quad Core wovon 2GHZ de Physik machen?? Das haut nich hin. Das mit den Karten wird langsamer sein als die CPU's.

Ich frag mich, wie man immer auf solche Aussagen kommt. Das sind doch reine Vermutungen die von Leuten aufgestellt werden, die keine Ahnung von der Materie haben.

Ich möchte diese Aussage jetzt weder bestätigen noch widerlegen, da mir einfach das Hintergrundwissen fehlt um dies zu beantworten. Vielleicht sollten ein paar Leute vorher erst einmal ddarüber nachdenken, ob sie qualifiziert genug sind, um solche Aussagen zu treffen und es eventuell bleiben lassen, wenn sie es nicht sind.


BustaFiles schrieb:
Der Unterschied zur PPU liegt einzig und allein für mich in der Spezialisierung der Ageya Karte.

Den wichtigsten Unterschied hast du übersehen. Die Berechnungen auf der Graka finden ausschließlich auf der Graka statt und die CPU enthält keine Information darüber, wo sich die Objekte im Augenblick befinden.

Nehmen wir mal an ich schieße mit einem Raketenwerfer auf eine Mauer aus Ziegelsteinen. Die Karte berechnet nun schön Stück für Stück jeden einzelnen Stein und lässt sie quer durch die Gegend fliegen. Nun sollte da ein Loch in der Wand sein.

Allerdings kann die Graka diese Information darüber, wo sich die Steine nach der Explosion befinden, nicht an die CPU liefern. Für die CPU ist die Mauer immer noch intakt.

Wie man sieht ist es eine rein Eye-Candy-Engine, die nur der optischen Verschönerung dient. Explosionen enthalten jetzt eventuell mehr richtige Trümmerteile, aber diese können einem als Spieler nicht erschlagen oder einem Fahrzeug nicht den Weg versperren, da die CPU nicht weiß, wo diese Trümmer rumliegen. Das weiß nur die Graka und die hat keinenn Einfluss daruaf, wo ein Fahrzeug herfahren kann und wo nicht.

Das ist doch keine echte Physikengine. Willl man mit den Objekten interagieren muss man doch wieder alles auf der CPU berechnen.

ATi und nVidia sind hier nur mal eben schnell auf den Physik-Zug aufgesprungen und wollen doch nur die Kunden verarschen und sie zum Kauf einer zusätzlichen Karte verführen, die zur Physikberechnung so gut geeignet ist, wie eine Soundkarte zur Grafikdarstellung.
 
noxon schrieb:
Nehmen wir mal an ich schieße mit einem Raketenwerfer auf eine Mauer aus Ziegelsteinen. Die Karte berechnet nun schön Stück für Stück jeden einzelnen Stein und lässt sie quer durch die Gegend fliegen. Nun sollte da ein Loch in der Wand sein.

Allerdings kann die Graka diese Information darüber, wo sich die Steine nach der Explosion befinden, nicht an die CPU liefern. Für die CPU ist die Mauer immer noch intakt.


Kannst du eine logische Begruendung dafuer nennen, warum die Graka diese Infos nicht an die CPU liefern koennen soll?
 
Das Ganze hat natürlich nur einen Sinn wenn die GPU die Physikberechnung annähernd so schnell wie eine spezialisierte Karte wie die PhysX und vor allem deutlich schneller als das eine CPU ausführen könnte. Es ist schon richtig das im Angesicht nahender Quadcore-CPU's diese ausgelagerten Lösungen etwas fragwürdig erscheinen. Allerdings muss man hier den möglichen Leistungsgewinn in Einklang mit dem zu treibenden Aufwand bringen. Was nützen einem 2 oder 4 CPU-Kerne wenn eine PhysX oder GPU trotz allem diese Physikberechnungen 5-10 mal schneller erledigt.

Vor allem würde ich gern mal mit eigenen Augen sehen was die beschleunigten Physikberechnung überhaupt an Mehrwert beim spielen bringen. Versprechen können die Hersteller und Entwickler ja viel.

CU Danko
 
Selbst wenn eine GPU auch nur annähernd die gleiche Leistung wie eine PPU aufbringen könnte, wäre das nicht genug, da dafür genug Shaderleistung notwendig wäre und das hätte zur Folge, dass zuviel Grafikleistung verschenkt wird. In Folge dessen bräuchte man umso bessere und teurere GPUs, um einigermaßen anständig spielen zu können.

Das Einzige, was man derzeit über die GPU-Beschleunigung sagen könnte, ist dass die ATI Lösung rein von der technischen Seite effizienter wäre, da die ATI Shader leistungsfähiger sind, mehr Prozesse auf einmal ausführen können. Hängt aber auch von der Software ab, aber man hätte dann die Havok FX Engine, um zu vergleichen. :)
 
son geblubber allerorts
ATi hat sowas vor 4 monaten oder so angekuendigt und ne eigene API laesst sich net mal eben aus dem ärmel schuetteln. ich geh mal davon aus, dass die da einfach was von der xbox entwicklung zum pc mitgenommen haben.
und an die physx karte kommt keine von den loesungen auch nur annaehernd ran, wie auch.
 
Deinorius schrieb:
Selbst wenn eine GPU auch nur annähernd die gleiche Leistung wie eine PPU aufbringen könnte,


Wieso koennte? Ich gehe davon aus, dass eine GPU wie die GF7800 mindestens die Leistung der PPU erbringt.
 
kisser schrieb:
Kannst du eine logische Begruendung dafuer nennen, warum die Graka diese Infos nicht an die CPU liefern koennen soll?


Weil eine Graka eigentlich nicht dafür ausgelegt ist Informationen zurück über den Bus an den Prozessor zu schicken. Die Berechneten Daten der Grafikkarte werden eigentlich nur auf den Videoausgang gelegt.

Hier ein Statement von Havoks Vice President of product management:

Jeff Yates - To be clear, we are only targeting physically-based effects with Havok FX on the GPU, working in tandem with Havok Physics for game-play physics on the CPU. Games will continue to use Havok Physics to provide scalable game-play physics with the typical “twitch” response times required to make physics fun and well-integrated with other core game components on the CPU. But Havok FX will be able to layer on top of that many 1000’s of objects (or organic effects based on clouds of objects and particles) that can be affected “downstream” by the game-play physics. There will be some limited feedback from the GPU to the CPU, but this will be lower priority


Wie man sieht dient die Physik der Grafikkarte lediglich der Verschönerung der Effekte. Wenn man mit Objekten interagieren will, dann muss man die weiterhin mit der CPU berechnen.

Für mich liegt aber gerade darin der Sinn einer besseren Physikengine, dass ich mit mehreren Objekten interagieren kann und nicht nur schönere Effekte zu sehen bekomme.

Von daher ist die Nutzung der GPU zwar eine feine Sache, wenn man zu viel Grafikpower zur Verfügung hat und ein paar schönere Explosionen sehen will, aber es ist kein Ersatz für eine vernünftige Physikengine.



kisser schrieb:
Wieso koennte? Ich gehe davon aus, dass eine GPU wie die GF7800 mindestens die Leistung der PPU erbringt.

Tut sie nicht. Sollte man sich aber auch denken können, oder nicht?
Erstens ist die GPU kein spezialisierter Chip und deshalb nicht so effektiv, wie eine PPU und zweitens hat die GPU ja auch noch andere Aufgaben zu erledigen, als physikalische Berechnungen durchzuführen.

Wie oben schon im Interview beschrieben schafft man mit der GPU nur ca. einige tausend Objekte und das ist wahrscheinlich schon übertrieben und trifft nur zu, wenn die Karte, welche wahrscheinlich das beste Modell auf dem Markt sein wird, nichts anderes macht als physikalische Berechnungen durchzuführen.
Die PPU kann weit mehr als die paar Objekte, wobei man auch beachten muss, dass der Rechenaufwand mit jedem weiteren Objekt extrem stark ansteigt, da jeweils jedes Objekt mit jedem anderen auf eine Kollision geprüft werden muss. Wenn sie also 10 mal mehr Objekte schafft, dann kann das bedeuten, das sie das tausendfache an Rechenleistung aufbringen muss. Korrekte Werte kann ich dir leider nicht nennen.

Wenn man die reine Floatinpointleistung der PPU mit einer Single-Core CPU vergleicht, dann ist die PPU ca. um den Faktor 50 schneller. Da kommt also auch keine Dual-Core, Quad-Core oder GPU dran. Mal abgesehen davon, das man dessen Leistung gut für andere Dinge wir KI oder bessere Grafikeffekte verwenden kann, anstatt die Resourcen mit der Physik zu verschwenden.
 
Zuletzt bearbeitet:
der einzige nutzen den ich sehe ist für sli besitzer. bei vielen spielen bringt sli nichts oder behindert sogar.
bei solchen spielen könnte man die zweite gpu zur berechnung anderer dinge benutzen. wer sich ein teuren sli rechner kauft und dann merkt,
dass bei seinem lieblings game die fps fallen durch sli, kauft nächstes mal kein sli rechner mehr.
wenn dieses game aber schon nicht schneller läuft, kann nvidia zumindest auf die pysik berechnung verweisen.
ist meiner meinung nur marketing um sli besser vermarkten zu können.
 
10tacle schrieb:
Wenn man AGEIA glauben darf ist es Faktor 32.

Aber noxon, hör auch dir solche Mühe zu machen, es gibt Leute die wollen es einfach nicht verstehen.

Ich habe mich da auf einen Artikel bezogen, der die theoretische Rechenleistung ermittelt hat. Das Ganze ist ja sowieso ein Schätzwert und hat praktisch Null aussagekraft. Es gibt einem lediglich eine Vorstellung über den Leistungsvorsprung.


Hier nochmal ein Statement von Ageia, warum GPUs zur Physikberechnung nicht sehr gut geeignet sind:

First, GPUs do not have enough internal memory bandwidth with their limited texture cache link. Because pixel shading has become more dominant in games that texture shading (which accesses memory), the bandwidth increases on GPUs have not moved up enough to match what AGEIA claims to have and what they claim is required. This will negatively affect the scale that a GPU can address in physics calculations as the number of entities it can store and access simultaneously is diminished.

The lack of a real write-back method on the GPU is also going to hurt it in the world of physics processing for sure. Since pixel shaders are read-only devices, they can not write back results that would change the state of other objects in the "world", a necessary feature for a solid physics engine on all four counts.

AGEIA also claims that since the API for a graphics card is going through Direct3D and any software that does physics calculations on the GPU is forced to "map" the physics language to the pixel processing language, there is additional overhead. The ability to easily map physics code to a physics pipelines will increase speed and lessen complexity on the software back end system.

Because of these limitations, the physical simulations that are possible on a GPU are limited mainly to eye candy and special effects. And actually, NVIDIA didn’t try to deny this fact during our briefing on SLI Physics, so it makes a lot of sense.
 
Zuletzt bearbeitet:
Ganz offensichtlich können sowohl Nvidia SLI- als auch ATI CF-Systeme große Mengen Daten über den PEG-Bus zurücktransferieren. Sonst würde SLI und CF ohne Bridge nicht funktionieren. Daran sollte es also nicht liegen.

Natürlich finde ich es unsinnig bei nur einer Karte im System diese auch noch mit Physikberechnungen zu quälen. Die Möglichkeit in einem SLI- oder CF-Mainboard die "alte" Grafikkarte noch zusätzlich als PPU weiterzubetreiben ist für mich und sicher für viele andere auch aber sehr reizvoll.

CU Danko
 
noxon schrieb:
Weil eine Graka eigentlich nicht dafür ausgelegt ist Informationen zurück über den Bus an den Prozessor zu schicken. Die Berechneten Daten der Grafikkarte werden eigentlich nur auf den Videoausgang gelegt.

Das ist definitiv falsch. Was glaubst du denn, warum PCIe einen Rueckkanal mit 2GB/s Bandbreite eingefuehrt hat? Was machen denn onboard Grafikchips, die den Hauptspeicher mitnutzen? Ist dir Turbocache vcon NVidia ein Begriff?

noxon schrieb:
Tut sie nicht. Sollte man sich aber auch denken können, oder nicht?
Erstens ist die GPU kein spezialisierter Chip und deshalb nicht so effektiv, wie eine PPU und zweitens hat die GPU ja auch noch andere Aufgaben zu erledigen, als physikalische Berechnungen durchzuführen.

Eine GPU ist geradezu optimal fuer Physikberechnungen und man kann die insofern schon als spezialisierten Physik Chip betrachten. Mehr als MADD Einheiten hat der PhysX auch nicht und die GPUs haben da schon ein paar mehr davon.


noxon schrieb:
Hier nochmal ein Statement von Ageia, warum GPUs zur Physikberechnung nicht sehr gut geeignet sind:

LOL. Hast du denn von denen eine andere Aussage erwartet?
NVidia und ATi werden das sicher GANZ anders sehen.
 
Zuletzt bearbeitet:
Naja, es gibt schon einen guten Grund, wieso GPUs nicht so gut für Physikberechnungen geeignet sind.
Der Grund ist liegt darin, weil GPUs nunmal für Grafikberechnungen verwendet werden. Ich will damit nicht sagen, dass sie deswegen schlechter für Physikberechnungen sind, sondern, da sie gerade Grafikberechnungen durchführen, steht weniger Shaderleistung für die Physikberechnung zur Verfügung.
Da braucht man kein Profi zu sein, um diese logische Sichtweise zu ergründen. Es könnte (das bleibt natürlich weiterhin nur ne Vermutung) so sein, dass man mit der GPU, dann zwar eine bessere Physikk bekommt als mit der CPU, aber dafür muss die Graka auch leistungsfähiger sein, damit man nicht zuviel Leistung verliert, was wiederum die Kostenfalle auf den Punkt bringt.
Hab ich das denn nicht schon erläutert?
 
Natürlich finde ich es unsinnig bei nur einer Karte im System diese auch noch mit Physikberechnungen zu quälen. Die Möglichkeit in einem SLI- oder CF-Mainboard die "alte" Grafikkarte noch zusätzlich als PPU weiterzubetreiben ist für mich und sicher für viele andere auch aber sehr reizvol
Natürlich ist das reizvoll wenn man sich in einem Jahr ne Karte mit R600 holt und seine X1800 XT, oder welche auch immer, abstellen kann zur Physikberechnung. Aber bedenke eine X1800 XT unter Last kommt auf fast 90Watt (!?), der AGEIA Chip verlangt bei viel viel bessere Performance nur 25Watt. Ob das ganze also Wirtschaftlich reizvoll muss dann jeder für sich selber entscheiden.

Da ich Sli/Crossfire eh fürn Arsch finde werde ich ganz sicher auf eine externe Physikkarte setzen. Ob es in Games letztlich wirklich so viel bringt, so ein krasser Unterschied ist, wie im Beispielvideo von Advanced Warfighter muss man mal abwarten, aber UT2k7 will ich schon in voller Pracht genießen!
 
Deinorius schrieb:
Der Grund ist liegt darin, weil GPUs nunmal für Grafikberechnungen verwendet werden.

Und warum gibt es dann Videoencoding auf nVidas und X1000 ATI's? Ist doch eigentlich Aufgabe der CPU und ups, sie können das sogar wesentlich schneller als jede Dualcore CPU ;)



Ich will damit nicht sagen, dass sie deswegen schlechter für Physikberechnungen sind, sondern, da sie gerade Grafikberechnungen durchführen, steht weniger Shaderleistung für die Physikberechnung zur Verfügung.

Du übersiehst, das wir hier von einer zweiten GraKa "sprechen" die Physik berechnen soll.
 
kisser schrieb:
Das ist definitiv falsch. Was glaubst du denn, warum PCIe einen Rueckkanal mit 2GB/s Bandbreite eingefuehrt hat? Was machen denn onboard Grafikchips, die den Hauptspeicher mitnutzen? Ist dir Turbocache vcon NVidia ein Begriff?

Genau kenne ich mich mit der Grafikkartenarchitektur auch nicht aus, aber anscheinend geht das wirklich nicht. Hast du das hier gelesen?


Jeff Yates - To be clear, we are only targeting physically-based effects with Havok FX on the GPU, working in tandem with Havok Physics for game-play physics on the CPU. Games will continue to use Havok Physics to provide scalable game-play physics with the typical “twitch” response times required to make physics fun and well-integrated with other core game components on the CPU. But Havok FX will be able to layer on top of that many 1000’s of objects (or organic effects based on clouds of objects and particles) that can be affected “downstream” by the game-play physics. There will be some limited feedback from the GPU to the CPU, but this will be lower priority

Und das stammt nicht von Ageia, sondern von Havok.



Eine GPU ist geradezu optimal fuer Physikberechnungen und man kann die insofern schon als spezialisierten Physik Chip betrachten. Mehr als MADD Einheiten hat der PhysX auch nicht und die GPUs haben da schon ein paar mehr davon.

Woher willst du das denn wissen? Bist du Experte? Ich würde mal behaupten, nein, also kannst du solche Behauptungen doch gar nicht aufstellen.

Der gesunde Menschenverstand hingegen sollte einem aber schon sagen, dass eine Grafikkarte nicht optimal für Physikberechnungen sein kann, oder?

Und wieviele Multiplay-Adds kann denn so eine Graka überhaupt durchführen? Die PPU schaft 16 x (6 Multiplay-Adds + 1 Integer Operation) pro Takt.

Außerdem ist eine hohe Speicherbandbreite sehr wichtig und die hat eine Grafikkarte auch nicht. Eine Grafikkarte legt ihre Daten in relativ großen sequenziellen Blöcken ab und muss sie auch sequenziell wieder einlesen. Ein Physik-Chip führt viel kleinere, dafür aber zufällige Zugriffe aus. Jedes Objekt hat da nämlch seinen eigenen kleinen Speicherbereich und bei Kollisionen müssen diese Daten schnell mit anderen Objekten verglichen werden. Während einer Simulation geht da also richtig die Post ab und Zugriffe quer über den Speicher müssen sehr schnell ausgeführt werden können. Deshalb verwendet die PPU auch ein anderes Speicherzugriffsverfahen, als eine Graka.

Dies ist nur eine Sache, die ich über den Chip weiß und es gibt bestimmt noch dutzende andere Dinge, wo die PPU Vorteile gegenüber eine Graka hat.


LOL. Hast du denn von denen eine andere Aussage erwartet?
NVidia und ATi werden das sicher GANZ anders sehen.

Nö, aber ich erwarte auch nicht, das Ageia so offensichtlich lügt. Wenn die sagen:

Since pixel shaders are read-only devices, they can not write back results that would change the state of other objects in the "world"

dann glaube ich das mal. Das sonst eine Menge Propaganda dabei ist, das ist wohl klar, aber wenn selbst Havok das Gleiche erzählt wie Ageia, dann wird da wohl was dran sein.


Aber was erzähl ich. Sollen sich die Leute doch für 500 EUR eine zusätzliche Heizung in ihren Rechner bauen um damit eine Eye-Candy Physik mit ein paar tausend Objekten zu erhalten, anstatt sich für 300 EUR eine interaktive Engine mit zig-tausenden von Objekten anzuschaffen.

Das Ganze Physik-auf-GPU Geschwafel ist doch nur ein hoffnungsloser Versuch von Havok und den Graka-Herstellern der PPU noch etwas entgegenzusetzen. Ich denke schon, das der Umsatz von Havok nen kräftigen Knick bekommen wird.

Die Graka-Hersteller machen da lediglich mit um auch noch dem letzten weiszumachen, warum man unbedingt ein SLI/CF System braucht.
 
Ist viel zu umstendlich, da muss die eine GPU ja die Physik übernehmen, die PhysX macht das erstens besser und außerdem lässt sich die PhysX auch unabhängig benutzen. ;-D
 
noxon schrieb:
Außerdem ist eine hohe Speicherbandbreite sehr wichtig und die hat eine Grafikkarte auch nicht.

Ist nicht Dein ernst oder? Was sind denn bitte 256Bit zum Ram? Übrigends sind Geometriedaten relativ klein und auch 128MB auf der PhysiX völlig übertrieben.




Jimbo Jung schrieb:
lässt sich die PhysX auch unabhängig benutzen. ;-D

Wie meinen ? :lol:
 
Zuletzt bearbeitet:
BustaFiles schrieb:
Ist nicht Dein ernst oder? Was sind denn bitte 256Bit zum Ram? Übrigends sind Geometriedaten relativ klein und auch 128MB auf der PhysiX völlig übertrieben.

Ich menite damit nicht die Busbreite sondern die Transferrate. Es geht auch nicht nur um den externen Speicher sondern auch um den internen Speicher der einzelnen Berechnungseinheiten. Insgesamt kommt die PPU damit auf fast 2 TBit pro Sekunde. Das sind 250 GB/sec. Was schaffen Grakas? 40?

Und warum sind 128 MB übertrieben? Wie kannst du so etwas behaupten? Da kann ich echt nur mit dem Kopf schütteln. Woher willlst du denn wissen, wieviel Speicher benötigt wird? Und 128 MB ist gar nicht mal so viel, wenn man bedenkt, dass da alle Objekte drin gespeichert werden müssen. Selbst Objekte, die nicht mehr in Sicht sind müssen weiterhin im Speicher verweilen, damit sie immer noch an der gleichen Stelle liegen, wenn man wieder dort hinkommt. Ich denke das wird auch der Vorteil der 256 MB Karte sein, dass die Objekte einfach länger vorgehalten werden können und nicht irgendwann verschwinden, wenn der Speicher zu voll wird.


Aber ich muss zugeben. nVidia macht die besseren Demos. Da sieht man auf was man sich in Zukunft freuen kann.
 
Zuletzt bearbeitet:
Zurück
Oben