News ATis GPUs besser in Physikberechnungen?

Geometriedaten speichern? Wieso denn das? Wenn ein Objekt in Bewegung ist bzw zerstört wie auch immer, sind die alten Daten quasie wertlos, warum willst Du die gespeichert haben?!
Wie ich schon schrieb, Geometriedaten sind wesentlich kleiner als zB Texturen, deswegen sind 128MB auch reine Augenwischerei, von 256MB mal ganz zu schweigen.
Geometriedaten sind wie der Name schon verrät, lediglich Positionsdaten, nicht mehr und nicht weniger.
 
Wer hat denn von Geometriedaten gesprochen? Zu einem Objekt gehören ja auch noch jede Menge anderer Dinge, wie Trägheit, Reibung, Festigkeit des Materials, Position, Ausrichtung, Geschwindigkeit, Rotation, Viskosität und Dichte bei Flüssigkeiten oder Gasen und was weiß ich nicht alles. Die Geometriedaten sind natürlich auch wichtig. Wieso sollen die wertlos sein, wenn ein Objekt in Bewegung ist? Gerade dann werden doch die Daten benötigt um zu überprüfen ob zwei Objekte miteinander kollidieren. Wenn sie sich dabei noch verbiegen müssen die Geometriedaten auch noch angepasst werden.

Das ist also gar nicht mal so wenig, was da pro Objekt verwaltet werden muss und das ist nur das, was mir jetzt so auf die schnelle eingefallen ist.


Wie gesagt. Die Karte kann etwa 30.000 Objekte gleichzetig berechnen, das heißt aber nicht, dass sie nur 30.000 Objkete verwalten kann. Im ganzen Level können hunderdtausende von Objekten verstreut sein, die alle irgendwo abgespeichert werden müssen. Nur im aktuellen Bilschirmausschnitt dürfen es halt nicht mehr als 30.000 sein. Da kann man dann eigentlich nie genug Speicher haben. Umso mehr Objekte können in der Landschaft rumliegen.

Das ist nur mal ganz grob gesprochen und muss auch nicht unbedingt stimmen. So einfach wird sich das bestimmt auch nicht zusammenfassen lassen. Dazu habe ich zu wenig Ahnung um das genauer beurteilen zu können.

Ich wundere mich ehrlich gesagt, dass hier jeder meint, das wäre eine ganz simple Sache und man würde Anhand eines zwei Seiten Berichts, den man im Netz gelesen hat, die Funktionsweise der PhysX-Karte verstehen. Das wird ne ganze Ecke komplexer sein, als wir uns das vorstellen können.
 
Zuletzt bearbeitet:
noxon schrieb:
Genau kenne ich mich mit der Grafikkartenarchitektur auch nicht aus, aber anscheinend geht das wirklich nicht. Hast du das hier gelesen?

Und das stammt nicht von Ageia, sondern von Havok.

Da steht lediglich, dass die derzeitige Implementierung von HavokFX nur wenig an die CPU zurueckmeldet. Das ist aber nicht zwangsweise so.


noxon schrieb:
Der gesunde Menschenverstand hingegen sollte einem aber schon sagen, dass eine Grafikkarte nicht optimal für Physikberechnungen sein kann, oder?

Mein verstand sagt mir, dass Chips die aus denselben Recheneinheiten (MADD) aufgebaut sind auch gleich gut fuer dieselbe Art von Berechnungen geeignet sind.

noxon schrieb:
Und wieviele Multiplay-Adds kann denn so eine Graka überhaupt durchführen? Die PPU schaft 16 x (6 Multiplay-Adds + 1 Integer Operation) pro Takt.

Jeweils 48 MADDs pro Takt fuer G70 und R580.

noxon schrieb:
Außerdem ist eine hohe Speicherbandbreite sehr wichtig und die hat eine Grafikkarte auch nicht.

Mehr als 30GB/s sollen nicht ausreichen? Was fuer ein Speicherinterface erwartest du denn beim PhysX?

noxon schrieb:
Eine Grafikkarte legt ihre Daten in relativ großen sequenziellen Blöcken ab und muss sie auch sequenziell wieder einlesen. Ein Physik-Chip führt viel kleinere, dafür aber zufällige Zugriffe aus. Jedes Objekt hat da nämlch seinen eigenen kleinen Speicherbereich und bei Kollisionen müssen diese Daten schnell mit anderen Objekten verglichen werden. Während einer Simulation geht da also richtig die Post ab und Zugriffe quer über den Speicher müssen sehr schnell ausgeführt werden können. Deshalb verwendet die PPU auch ein anderes Speicherzugriffsverfahen, als eine Graka.

Ersetze "Objekt" durch "Textur" und "Rendertarget" und schon sind wir wieder beim Grafikchip.

noxon schrieb:
Nö, aber ich erwarte auch nicht, das Ageia so offensichtlich lügt. Wenn die sagen:



dann glaube ich das mal.

Und ich glaube das eben nicht.

noxon schrieb:
Das Ganze Physik-auf-GPU Geschwafel ist doch nur ein hoffnungsloser Versuch von Havok und den Graka-Herstellern der PPU noch etwas entgegenzusetzen. Ich denke schon, das der Umsatz von Havok nen kräftigen Knick bekommen wird.

Die Graka-Hersteller machen da lediglich mit um auch noch dem letzten weiszumachen, warum man unbedingt ein SLI/CF System braucht.


Ich denke, dass die PPU so schnell wieder vom Markt verschwinden wird wie sie aufgetaucht ist. Proprietaeres Zeugs hat sich noch nie durchgesetzt.
Solange es keine offene API fuer Physik gibt, werden sich Physik-"Prozessoren" nicht durchsetzen.
 
BustaFiles schrieb:
Und warum gibt es dann Videoencoding auf nVidas und X1000 ATI's? Ist doch eigentlich Aufgabe der CPU und ups, sie können das sogar wesentlich schneller als jede Dualcore CPU ;)
Hach, denk doch mal nach. Mit ein bisschen logischem Denken dürfte dir sofort einleuchten, dass bei einer Videokomprimierung nur die Videokomprimierung durchgeführt wird.
Natürlich können die GPUs auch Videos bearbeiten. Ich hab ja nicht gesagt, dass sie nur Grafik berechnen können. Aber dir ist wohl NOCH immer nicht klar, was das große Problem bei GPUs und Physikberechnungen ist!!!!
Während bei der Videokomprimierung nur die Videokomprimierung läuft, laufen bei Spielen nunmal die Grafikberechnungen und jetzt will man dazu noch Physikberechnungen mitdurchführen lassen. Verstehst du? Bei Video nur 1, bei Spielen gleich 2! Also müssen sich beide Berechnungsmethoden die Rechenleistung teilen, aber vorrangiger ist nunmal die Grafikberechnung. Es fällt eher auf, dass die Grafik schlecht ist, als die Physik. Bis jetzt ist man ja auch mit relativ wenig Physik klargekommen, teilweise auch ohne.
Lies dir nochmal meinen Beitrag 94 genaaaaauuuu durch. Vielleicht verstehst dus dann.
BustaFiles schrieb:
Du übersiehst, das wir hier von einer zweiten GraKa "sprechen" die Physik berechnen soll.
Na toll!!
OK, will ich bessere Physik, muss ich mir also zwangsläufig eine zweite Graka kaufen. Sehen wir uns das doch mal genau mit ein paar Szenarien an.

1. Man kauft sich zwei Grakas und beide führen Grafik- und Physikberechnungen durch. Es gilt das SLI/CF Prinzip. Sobald die Grafik nicht reicht, muss man sich nochmal zwei Grakas kaufen. Sehr billig, wirklich. Gilt sowohl für High-End, als auch Mainstream.
2. Man kauft sich zwei Grakas. Es gilt nicht das SLI/CF Prinzip. Die bessere führt die Grafik durch, die schlechtere die Physik. Nun, da wir eine schlechtere, also billigere, Karte für die Physik hernehmen, muss man sich jetzt natürlich fragen, wie gut die Leistung im Vergleich zu einer CPU ist (ohne Benchmarks kann man nur spekulieren). Gegen die PhysX kommt diese Variante eh nicht an. Dazu kommt noch, dass nicht alle GPU-Bereiche mit Physik ausgelastet werden können. Es ist fast schon ein Fehlkauf. So ähnlich, wie wenn man sich eine X1800 kauft, man aber nur rumsurft. Vom Stromverbrauch und der Lautstärke für die Kühlung will ich gar nicht erst reden.
3. Man kauft sich zwei Grakas, beide High-End. Es gilt nicht das SLI/CF Prinzip. Die eine macht die Grafik schön und gut, ist ja High-End. Die andere macht Physik, sicher besser als per CPU, aber sicher nicht besser als per PhysX. Nun hat die zweite sicher mehr als 400 € gekostet und verbraucht mehr als 50, 60, 70, 80 oder gar 90 W. Wieviel verbraucht noch mal die PhysX? Richtig, 28 W. Kühlaufwand sehr gering, später fast gar nicht mehr merkbar. Bei der High-End Graka hingegen sehr hoch.
4. Man kauft sich eine Graka. Es gibt gar keine zweite. Man kauft sich keine PhysX. Physik ist nicht so berauschend, aber es ist alles billiger, als sonst was anderes. Grafik reicht für die eigenen Ansprüche und die Physik reicht teilweise aus, ist bei DualCore vielleicht sogar besser programmiert. Novodex kann Multithreading. Oh mein Gott, mit der kann man ja auch die PhysX unterstützen. Weniger Aufwand für die Programmierer.
5. Man kauft sich eine Graka, keine zweite, oder doch eine zweite, egal. Man kauft sich eine PhysX. Grafik ist auf dem Topstand für den eigenen Bedarf. Physik ist dank PhysX ebenfalls auf dem Topstand, besser gehts gar nicht. Stromverbrauch moderat bis niedrig. Kühlaufwand nur minimal gestiegen, besser bis fast gar nicht. Lautstärke dürfte bei späteren Versionen möglicherweise keine Probleme machen (die Kühlung ist schon jetzt nicht schwer, also warum sollte es später keine passive Kühlung geben?).
Als Hardcore-Gamer kauft man sich jährlich eine neue Graka (mal angenommen). Die PhysX reicht mind. 3 Jahre. Als Normal-Gamer kauft man sich alle 2-3 Jahre ne neue Graka. Solange die Software-Unterstützung solange reicht, und das sollte es (siehe Grafiktreiberunterstützung für die ganz alten Grakas), reicht eine PhysX für einen Normal-Gamer mind. 5 Jahre. Zwar nur Spekulation, aber durchaus möglich. Der Entwicklungszyklus von 3 Jahren wurde von Ageia selbst angegeben.
In diesem Szenario findet man das beste Preis/Leistungsverhältnis vor. Besonders wichtig dabei ist, dass die PhysX entsprechend billiger wird, aber selbst bei einem Preis von 200-250 € ist man hier gar nicht mal so schlecht bedient.

So, abschließend, hat hier jemand noch Einwände? Beste Szenarien sind 4 und 5. Billigstes ist 4, bestes Preis/Leistungsverhältnis ist 5 mit einer Graka, beste Leistung ist 5 mit zwei Grakas.
Ich hoffe, ich muss das nicht nochmal erklären.
kisser schrieb:
Ich denke, dass die PPU so schnell wieder vom Markt verschwinden wird wie sie aufgetaucht ist. Proprietaeres Zeugs hat sich noch nie durchgesetzt.
Solange es keine offene API fuer Physik gibt, werden sich Physik-"Prozessoren" nicht durchsetzen.
Und wo sind bitte deine Argumente? Ich sehe jedenfalls keine.
Propietäres Zeugs hat sich noch nie durchgesetzt? Das wurde auch schon früher erwähnt. Bei der Grafik und den Soundkarten war es früher ähnlich. Es war nicht nötig, gespielt hat man auf Konsolen, gearbeitet auf PCs. Heute ist die Physik ein wichtigerer Bestandteil von Spielen und wird immer wichtiger. Selbst RPGs haben teilweise schon Physik und sooo wichtig ist das bei RPGs nun nicht gerade. Unterstützung ist jetzt schon sehr gut, der Programmieraufwand ansprechend, die Kosten wunderbar (es gibt ja derzeit keine, wenn man die PhysX unterstützt).
Was verstehst du genau unter offener API? Neben DirectX gibts ja noch OpenGL. Sind die so offen, wie du es für die Physik-API verlangst? Deine Argumente sind nicht überzeugend.
Ich sage der PPU eine gute Zukunft voraus, solange sie auch entsprechend billiger wird.
 
kisser schrieb:
Da steht lediglich, dass die derzeitige Implementierung von HavokFX nur wenig an die CPU zurueckmeldet. Das ist aber nicht zwangsweise so.

Glaubst du im Ernst, das Havok das nicht genutzt hätte, wenn's funktionieren würde.

Und sei mir nicht böse, aber ich glaube ATi, nVidia, Havok und Ageia eher, als dir, dass das tatsächlich nicht funktioniert. ;)

Mein verstand sagt mir, dass Chips die aus denselben Recheneinheiten (MADD) aufgebaut sind auch gleich gut fuer dieselbe Art von Berechnungen geeignet sind.

Ich bin auch der Meinung, dass die recht ähnlich aufgebaut sein müssen, aber eben nur ähnlich. Physikkarten müssen ganz bestimmte Berechnungen durchführen, wie zum Beispiel 3x3 Matrizen verrechnen und ich denke da lässt sich hardwaretechnisch einiges optimieren, damit solche Operationen mit einem Takt durchgeführt werden können, wo Grafikkarten zum Beispiel zwei brauchen würden.

Die Graka kann auch viel zu viele Dinge, die die PPU gar nicht gebrachen kann. Wozu braucht eine PPU T&L?

Hinzu kommt, dass PPUs ein ganz anderes Instruction-Set haben, als Grafikkarten. Grafikkarten haben gar nicht die Befehle um Physik-Berechnungen effizient durchzuführen.

Des Weiteren müssen die Befehle an die Grafikkarte softwareseitig gemapt werden, was auch nicht sehr effektiv ist. Du hast also eine lange Kette von Treibern vor dir, die alle durchlaufen werden müssen.
Zuerst vom Programm aus auf die Havok-Engine, dann über einen Umsetzer der die Physikbefehle in Direct-3D Befehle umsetzt, dann eine Umsetzung von DirectX in die Grakabefehle und dann muss das alles noch durch den normalen Grakatreiber der auf die Graka zugreift.

Dieser Mapper müsste auch von den Grafikkartenherstellern immer wieder geändert werden, wenn eine neue DirectX Version erscheint. Für jede Version benötigt es dann einen eigenen Grafikkartentreiber.


Mit der PPU ist die Verarbeitungskette viel kürzer. Da greift das Programm auf die Novodex-Engine zu und die greift direkt über den PPU-Treiber auf die Karte zu.

Das ist viel effizienter.

Jeweils 48 MADDs pro Takt fuer G70 und R580.

Die PPU schaft 108 pro Takt.

Mehr als 30GB/s sollen nicht ausreichen? Was fuer ein Speicherinterface erwartest du denn beim PhysX?

Was soll ich da erwarten? Die sagen, dass es essenziell für eine performante Physikberechnung ist, schnell auf kleine zufällig verteilte Speicherbereiche zugreifen zu müssen.

Eine Graka liest auch nicht Bit für Bit den Speicher aus, sondern immer einen ganzen Block. Diese kleinste Einheit, die eingelesen werden kann ist aber schon viel zu groß für die paar Informationen die ein Objekt beinhaltet. Die Graka liest also viel zu viel überflüssige Daten ein, die man gar nicht benötigt.

Das Speicherzugriffsverfahren der PPU unterschiedet sich in dieser Hinsicht von dem einer GPU und erlaubt Zugriffe auf kleinere Blöcke, wodurch auch nur die nötigsten Informationen eingelesen werden.


Ersetze "Objekt" durch "Textur" und "Rendertarget" und schon sind wir wieder beim Grafikchip.

Wie ich schon sagte. Wir haben beide viel zu wenig Ahnung um darüber diskutieren zu können. Was meinst du warum dutzende Mitarbeiter jahrelang an einem Chip basteln? Bestimmt nicht, weil der nach solch einfachen Prinzipien funktioniert.


Ich denke, dass die PPU so schnell wieder vom Markt verschwinden wird wie sie aufgetaucht ist. Proprietaeres Zeugs hat sich noch nie durchgesetzt.
Solange es keine offene API fuer Physik gibt, werden sich Physik-"Prozessoren" nicht durchsetzen.


Das hat man von 3DFx und den Voodoo-Karten auch behauptet.

Eigentlich ist es sogar umgekehrt. Leider, muss man sagen. Propriätäre Sachen haben sich immer am ehesten durchgesetzt. Bestes Bespiel ist doch DirectX selbst oder EAX von Creative.
 
Zuletzt bearbeitet:
Also ich steh der neuen Ageia Karte zwar relativ aufgeschlossen gegenüber, sollte sich aber die Möglichkeit ergeben, das ganze per zweiter Grafikarte zu bewältigen ist das eindeutig für mich die erste Wahl.
Kann aber gut nachvollziehen das so eine neue tolle Physikkarte schon sehr verlockend ist, leider übersieht man gern die Unnötigkeit einer solchen, falls das alternativ gelöst werden kann.
NVidia und ATI werden nen Teufel tun, wenn das überhaupt nicht lauffähig auf GraKa's wäre. Und die Tatsache das sich nun beide zeitgleich genötigt sehen, in diese Nische einzusteigen, zeigt, daß es technisch kein Unding sein kann.
Ansonsten hätten sie ja wohl auch damals Creative das Wasser abgegraben, wäre es ihnen möglich gewesen, haben sie aber nicht ;)
 
Die Physikkarte ist klar besser als die Grafiklösung!

Die Physikkarte ist
  • Billiger (300 Euro am Anfang, später nur noch ~200 Euro, Graka 400 bis 500 Euro)
  • Leiser, da nicht so viel Stromverbraicht (max. 28W, Graka 70 bis 110W)
  • Kühler, da nicht so viel Stromverbrauch
  • Sparsamer, da nicht soviel Stromverbrauch
  • Sie kann vorraussichtilich viermal mehr berechnen (Ageia 32000, nV/ATI 8000 Objekte)
  • Realistischer, da die Lösungen von nV und ATI keine Interaktivität können
  • Einfacher ins System zu intigrieren, da man nur einen PCI oder PCIe 1x/4x Slot braucht und kein SLI/Crossfire oder einen 2. 8-fachen PCIe-Slot
  • effizienter, da sie speziell auf ihre Anwendung zugschnitten ist

Also was spricht für die Lösung mit Grafikkartenlösung?

Ich glaub manche wollens nicht verstehen.... :rolleyes:


Man leute kapierts doch, nV und ATI wollen nur ihren SLI- und Crossfirescheiß losbekommen, denn mit einer Karte Grafik und Physik wird nicht möglich sein, es sei denn man nimmt starke Einschränkungen bei der Grafik in Kauf.
 
Zuletzt bearbeitet:
Ne nicht wirklich, das sind FAKTEN (außer der Preisnachlass der Ageia Physikkarte).
 
Gut aufgelistet v_1. Das sind in der Tat die wichtgsten Fakten und ich kann auch keinen Grund sehen, warum eine Graka-Lösung besser sein sollte, außer in einem Fall.

Wenn man die Physikkarte hat und ein Spiel spielt, dass diese nicht unterstützt ist die Karte zwecklos. Die zweite Graka hingegen kann man immer gebrauchen, selbst wenn das Spiel kein Havok-FX verwendet. Das ist aber auch der einzige Vorteil, den ich sehe. Die Nachteile überwiegen schon recht stark.


Ansonsten sehe ich das wie folgt:

PPU:

Pro:
  • Vollständig interaktiv
  • Simuliert erheblich mehr Objekte
  • Hat eigenen Speicher
  • Belastet weder CPU noch GPU (Mal abgesehen von ein paar Verwaltungsaufgaben, die die CPU übernehmen muss)
  • Ist mir 28 Watt relativ sparsam und sollte sich auch recht einfach passiv kühlen lasssen.
  • Kann nicht nur Rigid-Bodys, sondern auch Flüssigkeiten, Gase, Kleidung, Haare simulieren
  • Kann physics-driven Sound berechnen. Sprich die Soundkullisse kann durch physikalische Eigenschaften verändert werden.
  • Besseres Preis/Leistungsverhältnis. Eine vergleichbare Gafikkarte für 300 EUR kann bei weitem nicht so viel leisten wie der PhysX.
  • Längerer Produktzyklus, als bei Grafikkarten
  • Features, können per Firmware-Upgrade nachinstalliert werden. (Bereits geschehnen mit der Kleidungssimulation). Die Karte wird also stetig verbessert, bis sie igendwann zu schwach für neuere Features ist.
Für den Programmierer wichtig:
  • Die Novodex-Engine ist kostenlos
  • Die Novodex-Engine ist die einzige Engine, die multithreading-fähig ist.
  • Soll auch recht einfach zu programmieren sein. Ich selbst habe mir das SDK angesehen und es sah wirklch recht easy aus. Ich habe allerdings auch noch nicht die Havok API gesehen

Contra:
  • Benötigt PCI oder PCIe Slot
  • PhysX-Karte ist nutzlos, wenn das Spiel nicht die Novodex-Engine unterstützt
  • Die Novodex-Engine ist ganz neu und man muss sich erst einarbeiten.


Havok-FX:

Pro:
  • Zweite Grafikkarte kann weiterhin zur Grafikbeschleungung verwendet werden, wenn keine oder wenig Physikberechnungen durchgeführt werden müssen.
  • Havok-Engine ist schon vielen bekannt und bereits geschriebene Funktionen, die auf diese Engine aufsetzen können weiter verwendet werden.
Contra:

  • Nicht vollständig interaktv. (Ganz großer Nachteil)
  • Kann aus diesem Grund auch kein Physics-driven Sound.
  • Belastet GPU und CPU
  • Physikberechnungen benötigen Grafikkartenspeicher
  • Simuliert viel weniger Objekte
  • Auch hier fehlt jegliche Unterstützung, wenn die Havok-FX Engine nicht im Spiel verwendet wird.
  • Hoher Stromverbrauch -> hohe Verlustleistung -> laute Kühlung
  • Eine zusätzliche Karte benötigt hier natürlich auch einen Slot

Bei folgenden Sachen bin ich mir nicht sicher:

In den Demos der Havok-FX ging es bisher nur um statische Objekte. Ich weiß nicht, ob dort auch Flüssigkeiten simuliert werden können. Theoretisch sollte es kein Problem sein, aber vielleicht fehlt ja die Rechenpower. Ich weiß nicht. Weder ATi noch nVidia haben bisher so etwas in ihren Demos gezeigt.

Mehr fällt mir jetzt erst einmal nciht ein, aber das wichtigste ist eigentlich die größere Leistungsfähigkeit der Karte bei geringerem Preis und vor allen Dingen die vollständige Interaktivität mit dem Gameplay.
 
PhysX-Karte ist nutzlos, wenn das Spiel nicht die Novodex-Engine unterstützt
Ich glaube Gabe Nevell (Valve) meinte dases kein Problem sei die Source-Engine von der PhysX Karte profitieren zu lassen. Mit einem Patch könnte man so HL², CS:S, DoD:S, usw. an die Karte anpassen und CPU damit entlasten. Auch wenn die Physik der Source Engine mehr geskriptet ist scheint es doch auch zu gehen es auf anderen Spielen anzupassen und nicht nur Games mit Novodex-Engine. Oder hab ich da was falsch verstanden.
 
schön aufgelistet NOXON! sehe ich genau so.
was viele auch hier übersehen ist, die verbreitung von SLI/CF Boards! Ich denke mal das wird ein endscheidender Punkt sein welches die AGEIA besser da stehen lässt.

Ich denke an die alten Systeme mit AGP, all die müssten sich noch einen SLI/CF Board besorgen :freak: was sicher nicht interessant wäre für die und deshalb hier zur AGEIA gegriffen wird so oder so. Wenn ich schon sehe welches Potential in dem sektor zu holen ist ca 40%. Dann müssen wir auch noch an alle denken die zwar PCIe besitzen aber kein SLI/CF Board . Also bin ich der Meinnung das zum Start AGEIA die POLE übernehmen wird und dies wäre schon allein ohne diese Tatsache möglich.

Warten wir es ab, der bessere wird gewinnen. Und nochwas, die nachfrage regelt das Angebot und deshalb wird AGEIA hier auf jedem Fall Referenz bleiben, weil neutral und unabhängig :-)

Mfg Selflex
 
Zuletzt bearbeitet:
10tacle schrieb:
Ich glaube Gabe Nevell (Valve) meinte dases kein Problem sei die Source-Engine von der PhysX Karte profitieren zu lassen. Mit einem Patch könnte man so HL², CS:S, DoD:S, usw. an die Karte anpassen und CPU damit entlasten. Auch wenn die Physik der Source Engine mehr geskriptet ist scheint es doch auch zu gehen es auf anderen Spielen anzupassen und nicht nur Games mit Novodex-Engine. Oder hab ich da was falsch verstanden.

Oh. Das hatte ich ganz vergessen. Ich glaube das habe ich auch irgendwo mal gelesen. Allerdings weiß ich nciht genau wie das gehen soll. Die benutzen ja schließlich die Havok-Engine, wenn ich mich recht erinnere und keine Eigenentwicklung.

Aber das ändert auch nichts an der Sache. Sie muss halt auf irgend eine Weise unterstützt werden. Trotzdem ist es natürlich schön zu sehen, dass sich auch Dritthersteller darum bemühen Vorteile aus der Karte zu ziehen.

Da kann man ja vielleicht noch hoffen, dass Crytek das auch mit der CryEngine 2 versuchen wird. Die sind bei solchen Dingen ja immer ganz vorne mit dabei. Siehe HDR oder 64 Bit Support.
 
Zuletzt bearbeitet:
Cryengine wurde von UBISoft freundlicherweise übernommen, inkl aller Rechte ;) .

Was den Fred angeht, ja die Karte ist eben sehr speziell, eben nur Physik. Da habt ihr recht.
 
@v_1
Schön aufgelistet. Ich muss ja immer gleich einen Aufsatz schreiben. :D

@noxon
Stimmt, das ist natürlich ein Vorteil für die GPU-Version. Dafür ist aber immer noch ein SLI/CF Gespann nötig und das verwenden nur die wenigsten. Also relativiert sich das wieder.
 
v_1 schrieb:
Die Physikkarte ist klar besser als die Grafiklösung!

Die Physikkarte ist
[*]Billiger (300 Euro am Anfang, später nur noch ~200 Euro, Graka 400 bis 500 Euro)

Grakas gibt es auch unter 100 Euro.

v_1 schrieb:
[*]Leiser, da nicht so viel Stromverbraicht (max. 28W, Graka 70 bis 110W)

Unsinn, da Stromverbrauch und Lautstaerke nicht direkt korreliert sind.

v_1 schrieb:
[*]Kühler, da nicht so viel Stromverbrauch[*]

Unsinn, da auch Temperatur und Stromverbrauch keine direkte Korrelation haben.

v_1 schrieb:
Sparsamer, da nicht soviel Stromverbrauch[*]

LOL. Schreib doch gleich: die karte ist sparsamer weil sie sparsamer ist.:rolleyes:

v_1 schrieb:
Sie kann vorraussichtilich viermal mehr berechnen (Ageia 32000, nV/ATI 8000 Objekte)

Spekulation!

v_1 schrieb:
[*]Realistischer, da die Lösungen von nV und ATI keine Interaktivität können

Falsch. Es muss fuer die Grakas nur implementiert werden, dann koennen sie das auch.

v_1 schrieb:
[*]Einfacher ins System zu intigrieren, da man nur einen PCI oder PCIe 1x/4x Slot braucht und kein SLI/Crossfire oder einen 2. 8-fachen PCIe-Slot

Schwaches Argument, wer glaubt eine PhysX Karte zu brauchen, der hat garantiert auch ein SLI Board.

v_1 schrieb:
[*]effizienter, da sie speziell auf ihre Anwendung zugschnitten ist

Wie oft willst du ein und dasselbe Argument denn wiederholen?


Wie du also siehst bleibt nicht viel uebrig, dass fuer eine PhysX Karte spricht.
 
Grakas gibt es auch unter 100 Euro.
Die sind aber für Physikberechnungen nix wert, bzw. nur auf einem SLI Board begrenzt (hinsichtlich der Leistungsfähigkeit) nutzbar, was die Einsatzfähigkeit einschränkt. Nicht jeder hat ein SLI-Board. Und selbst dann kommt das nicht gegen die PhysX an.
Unsinn, da Stromverbrauch und Lautstaerke nicht direkt korreliert sind.
Stimmt teilweise, aber wenn hoher Stromverbrauch da ist, ist auch im Grunde eine hohe Temperatur anwesend, was eine effiziente Kühlung benötigt und eine leise Kühlung ist selten billig.
Unsinn, da auch Temperatur und Stromverbrauch keine direkte Korrelation haben.
Wie auch im vorigen Punkt würde ich das nicht verneinen. Es hängt zu sehr von der Architektur ab.
Ein wichtiger Punkt hier ist, dass für Physik auf Graka am besten eine leistungsfähige und damit teuere Graka hergenommen werden muss.
Ist es kein bisschen. Worauf soll die Angabe für die Grakas aufbauen? Ich schätze, wenn alle Shader verwendet werden. Beim Marketing würde man diese Werte auf alle Fälle nutzen. Und da hauptsächlich Grafikberechnungen durchgeführt werden müssen, vergrößert sich der Unterschied um Welten.
Schwaches Argument, wer glaubt eine PhysX Karte zu brauchen, der hat garantiert auch ein SLI Board.
Eindeutig falsch!! Nicht jeder, der Hardcore-Gamer ist, hat ein SLI-Board, bzw. will eins haben (Ausnahme: Das Asus A8N-SLI war ja recht günstig und gut, also dürfte es gut verbreitet sein). Warum sollte man also darauf spekulieren. Vergiss nicht, dass ein großer Teil immer noch AGP nutzt!!!!
Wie oft willst du ein und dasselbe Argument denn wiederholen?
Weil es nun mal ein stichhaltiges Argument ist!
Wie du also siehst bleibt nicht viel uebrig, dass fuer eine PhysX Karte spricht.
Wieder falsch. Denn ich habe das meiste korrigiert. :D

Noch ein Argument. Muss seltener aufgerüstet werden als eine Graka.
 
Du kannst deine Grafikkarte auch als CPU Hilfe nehmen. Ist einfach eine Frage der Programmierung des Treiber und der Programme, damit die GPU als CPU genutzt werden kann. Ist auch ziemlich kompliziert. Es gab/gibt irgendwo ein Linux Projekt bei SourceForge. Weiss den Namen aber nicht mehr.
 
kisser schrieb:
Unsinn, da auch Temperatur und Stromverbrauch keine direkte Korrelation haben.

Aha. Dann verrate mir mal, was mit dem Strom passiert, den du in die Karte steckst? Löst der sich in Luft auf? Nö. Der wird zu 99% in Wärme umgewandelt. Was anderes, als Wärme und ein schwaches Videosignal produzert die Graka ja nicht.


Zu deinen ganzen anderen Argumenten möchte ich so langsam auch gar nichts mehr sagen. Du scheinst ja wirklich total verbohrt zu sein und noch nicht einmal die Fakten anzuerkennen und sie als Spekulation abzutun.




BTW: Es gibt ein neues Cellfactor Video. Einmal als Version in HDTV Auflösung und einmal als Version mit halber Auflösung.
 
Zurück
Oben