News PhysX-Karten erst nächstes Jahr?

Man darf nicht vergessen das daß ding nur die Physik berechnet und nichts anderes!!!Also nicht mit einem Normalen CPU zu vergleichen ist!:D MFG Hellmen
 
cR@zY.EnGi.GeR schrieb:
Bei ner PPU ist das wieder ganz anders, denn es gibt nur einige physikalische Formeln, wie z.B. p=m*v. Und die kann ne CPU ganz gut berechnen (im Gegensatz zu hochkomplexen Shaderbefehlen).

Aber sie kann das nicht 50 000 mal in der Sekunde berechnen und dazu noch den ganzen Rest machen. Und dazu hat man dann eben spezialisierte Chips.

Kloppt euch nicht und wartet ab ... über Sinn und Unsinn kann man erst sprechen wenn man ein lauffähiges Produkt getestet hat. Wegen solchen rumdiskutiereien entstehen Hypes oder ein Produkt stirbt schon, bevor es am Markt ist weil es ja "unsinnig" ist. :rolleyes:
 
Übrigens sind Shaderbefehle nicht hochkomplex. ;)
Es ist im Grunde genommen auch nur eine Andernanderreihung von einfachen Befehlen, die du sogar selbst mit dem Taschenrechner rechnen könntest. Genauso wie der Physik-Teil.
Beide Berechnungs-Teile sind somit von der komplexität her vergleichbar. Das einzige was hier den Bock fett macht ist das Volumen mit dem diese Berechnungen bei kompexen Scenen aufkommen. Wenn du glaubst dass die Dinge die diese PPU auf sich nehmen kann mit wenigen Formeln abgetan werden kann, irrst du dich. Es geht um Kollissionserkennung, Behandlung, Schattenberechnung, Finite Elemente Deformationen...
Du kannst der GPU auch keine komplexen Befehle geben wie "Berechne mal den Fresnel-Term", oder "mach mal eine korrekte Transmissions-Berechnung". Shader-Programme sehen fast aus wie normale C++-Codefetzen.
Eine GPU kann übrigens auch nur Interpolieren, teilen, malnehmen, addieren, subtrahieren usw.
Mehr wird die PPU auch nicht wirklich können, allerdings in einer Geschwindigkeit die neue Möglichkeiten bieten wird. ;)
 
noxon schrieb:
Wieso sollte die animiete Kleidung aus mehr Polygonen bestehen, als die jetzigen Polygonmodels? Die haben zum größten Teil auch schon Kleidungsobjekte an. Mit der Physikkarte wird das 3D-Modell nur ständig geändert anstatt starr zu bleiben. Mehr Polygone müssen deshalb aber nicht gerendert werden.

....

und ob :P. kleidung die sich bewegen soll, die überall falten werfen können soll, braucht einfach mehr polygone um gut auszusehen - und zwar bedeutend mehr. bei der kleidung wie sie heutige polygon helden tragen weiß man ja wie das gute stück sitzt. wo braucht man details und wo nicht. bei physikalisch korrekt animierter kleidung bräuchte man fast überall viel detail da man ja schlecht vorraussagen kann wo die kelidung nun verformt werden wird. mit heutigen modellen würde die kleidung einfach nur kantig aussehen sobald sie sich bewegt ;).

ausserdem müsste man auf dinge wie normalmaps verzichten, ausser es findet sich ein wenig die relativ fix für jeden frame neu zu berechnen - das ist in naher zukunft aber auch ausgeschlossen.

ansonsten kommt es natürlich auch drauf an für welche plattform man ein spiel schreibt. wenn man nur die aktuelle highend generation im auge hat, im hintergrund auf ein paar polygone verzichten kann und selten mehr als 2-3 personen zeitgleich zu sehen sind wären solche hoch aufgelösten modelle sicher in echtzeit zu rendern. aber das ist dann doch schon sehr speziell.



cR@zY.EnGi.GeR schrieb:
@ Siberian..Husky:
Schon witzig, dass es immer wieder welche gibt, die behaupten, man wiederspreche sich selbst, weil sie keine vernünftigen Gegenargumente bringen können.

Ich habe schon DX9 Andwendungen programmiert, und wenn man das dann mittels Software-Rendering berechnen lässt, ist das nicht nur deutlich langsamer (also anstatt z.b. 100 fps hat man dann nur noch 2,5 fps), sondern es können einfach nicht alle Effekte dargestellt werden, da die CPU das nicht berechnen kann (theoretisch kann die natürlich alles berechnen, aber das muss dann auch von den Treibern unterstützt werden und dann stellt sich einem noch die Frage, ob das überhaupt sinnvoll ist, da man dann ne Ewigkeit warten muss, bis nur ein Bild berechnet wurde). Das sieht man sehr deutlich an den CPU Benchmarks von 3DMark05, bei denen viele Effekte von der CPU nicht dargestellt werden können.

Bei ner PPU ist das wieder ganz anders, denn es gibt nur einige physikalische Formeln, wie z.B. p=m*v. Und die kann ne CPU ganz gut berechnen (im Gegensatz zu hochkomplexen Shaderbefehlen). Außerdem muss das Game so programmiert sein, dass alle Physikberechnungen auch von der CPU durchgeführt werden können, denn die meisten werden keine PPU besitzen.
Der einzige Unterschied wird darin bestehen, dass bei der Berechnung durch eine PPU nur mehr Objekte von der Physikengine betroffen sind.
Die Havok Physik Engine, die ja schon in zig Games, ala HL², FarCry etc. zum Einsatz kommt, wird ebenfalls weiterentwickelt und verbessert und tritt als Konkurrenz zur Novodex Physik Engine an. Und wer weiß, ob die überhaupt von ner PPU profitieren wird.

Außerdem werden die Physikengines immer nur stückchenweise besser, da die Spieleentwickler auch die neuen Möglichkeiten umsetzen müssen. Und ein Game mit realer Physik zu kreieren, bei dem man alles zerstören kann etc., kann man nicht von heute auf morgen entwickeln, genausowenig, wie man Games mit fotorealistischer Grafik von heute auf morgen entwickeln kann, denn die Entwickler müssen sich erstmal mit den Befehlen auseinandersetzen und ausprobieren, was damit alles möglich ist und ob das Game dadurch überhaupt spielbar bleibt (nicht umsonst gibt es unsichtbare Wände oder nicht zerstörbare Objekte in Games).

Und bis Games eine nahezu echte Physikengine besitzen, werden die CPUs und GPUs entweder so schnell sein, das man keine PPU mehr braucht, oder ne PPU wird in der CPU oder GPU integriert sein wie z.B. die Co-Prozessoren der 486er oder die 3D-Karten in den Grafikkarten.

Wenn ne PPU nur etwa 50€ kosten würde, wäre es ne Überlegung wert, aber für 250-300€ kauf ich mir lieber ne schnellere CPU, davon hat man eindeutig mehr. Denn was hab ich davon, wenn ich ein Haus in die Luft jage und es dann anstatt in 1000 Objekte in 30000 Objekte zersprengt wird? Sowas iss nur nice to have, aber nicht unbedingt notwendig. Wichtig iss nur, dass das Haus zerspengt wird. ;)

Und wenn die ersten Games ala Unreal Tournament 2007, die ne PPU unterstützen, erscheinen, wird es bereits Quad-Core CPUs geben.
Und wenn ich z.B. Serious Sam 2 (bei 1280*1024 und maximalen Details) zocke, macht es keinen Unterschied, ob meine CPU mit 1300MHz oder mit 2500MHz läuft (und die iss schon 2,5 Jahre alt), da werden die neuen Physikengines die CPU endlich mal fordern.


du tust es doch schon wieder. argumente waren in meinem post übrigens genug zu finden....

hast du schonmal einen shader selbst programmiert? dann würdest du wissen das die einzelnen befehle die man dort hat ebenfalls extrem simpel sind.

dazu kommt das du von diesem chip keine ahnung hast. der chip wird von keinem spieleprogrammierer selbst programmiert werden müssen wie das bei gpus üblich ist. die novodex physik engine wird die karte ganz selbstständig benutzt. wenn keine karte vorhanden ist funktioniert die auch wunderbar auf der cpu. wenn du willst kannst du dir das ja mal ansehen, die gibts auf der website kostenlos(als non commercial version) zum download.

das novodex physik sdk ist übrigens sehr einfach zu benutzen. da muss man sich nicht erst jahre einarbeiten um gute ergebnisse zu erzielen. die arbeit übernimmt die physik engine, und nicht der programmierer der sie benutzt.

was du offenbar ebenfalls nicht verstehen willst ist das ein vergleich von physikkarte heute und cpu von morgen absoluter unsinn ist. wie kommst du darauf das sich ausschließlich die cpus weiterentwickeln werden? von wirklich akkurater physik wie sie im maschienenbau benutzt wird ist die novodex engine noch meilenweit entfernt, und 30000 gleichzeitig berechnete feste objekte sind für eine realistische darstellung ein absoluter witz. die anforderungen an die physik werden sich auch weiterhin jedes jahr drastisch erhöhen, genauso wie bei der grafik.

offenbar ist dir garnicht bewusst wie weit wir noch von photorealismuss entfernt sind. selbst software renderer im cg bereich sind heute nicht in der lage wirklich realistische bilder zu liefern. dort wird mit massenhaft hacks und fakes gearbeitet damit man ein bild bekommt das der mensch für relativ real hält - und diese bilder brauchen dann selbst auf den stärksten rechnern stunden. bis wir in der lage sind solche dinge in echtzeit zu rendern werden noch viele jahre vergehen, und genauso wird es auch mit realistischer physik sein.

der physik chip ist nur ein nächster schritt auf einem sehr langen weg. da helfen dir auch die cpus in 2 jahren noch nicht weiter.


das letzte argument kann man erstmal so gelten lassen. wobei das natürlich eine frage der preferenzen ist. ich mag realistische physik, und ein haus das in 30000 stücke zerfällt wäre mir schon einiges wert ;).
du musst aber auch beachten das man dich als kunden ganz leicht über den tisch ziehen kann. wenn ein unreal 2007 und ein halflife 3 inklusive counterstrike nurnoch mit physikkarte laufen wirst du bald probleme bekommen überhaubt noch ein aktuelles spiel auf deinem rechner ohne karte zum laufen zu bekommen ;). du unterschätzt da die kaufkrauft einiger spieler aber ganz gewaltig.
 
Zuletzt bearbeitet:
cR@zY.EnGi.GeR schrieb:
Denn was hab ich davon, wenn ich ein Haus in die Luft jage und es dann anstatt in 1000 Objekte in 30000 Objekte zersprengt wird? Sowas iss nur nice to have, aber nicht unbedingt notwendig. Wichtig iss nur, dass das Haus zerspengt wird. ;)

Hehe. Das Argument ist gut.
Wofür brauche ich Texturen auf dem Haus. Er reicht doch wenn ich die einfarbigen Polygone sehe.

Natürlich ist das ein "Nice To Have"-Feature, wie du es nennst, aber ist das nicht mit allem so?

Und wenn die ersten Games ala Unreal Tournament 2007, die ne PPU unterstützen, erscheinen, wird es bereits Quad-Core CPUs geben.
Klasse. Das bringt's echt.


Und wenn ich z.B. Serious Sam 2 (bei 1280*1024 und maximalen Details) zocke, macht es keinen Unterschied, ob meine CPU mit 1300MHz oder mit 2500MHz läuft (und die iss schon 2,5 Jahre alt), da werden die neuen Physikengines die CPU endlich mal fordern.

Und was ist mit der KI? Entwickler würden heut zu Tage so gerne eine komplexere KI entwickeln, wenn die CPUs eines Durchschnittrechners nur stark genug dafür wären. Leider sind sie's nicht, und so muss man auf schwächere und einfacher zu berechnende Algorithmen setzen.

Warum soll die CPU bitte für Aufgaben herhalten, die andere Komponenten besser beherrschen? Die Rechenleistung der CPU lässt sich für andere Dinge viel sinnvoller einsetzen.


@104:
ausserdem müsste man auf dinge wie normalmaps verzichten, ausser es findet sich ein wenig die relativ fix für jeden frame neu zu berechnen - das ist in naher zukunft aber auch ausgeschlossen.

Warum das denn? Normal-Maps kann man doch immer noch auf die Kleidung zeichnen.
Ich glaube wir haben da zwei unterschiedliche Ansätze. Du würdest gerne jede Falte mit echten Polygonen darstellen, die von der PPU berechnet werden und ich fände es schon ausreichend, wenn sich zum Beispiel Supermans Cape einfach nur leicht knicken und biegen könnte wie eine Fahne im Wind. Die Falten kommen dann per NormalMaps auf die Oberfläche.


PS:
Ich habe mir auch mal das SDK der Novodex Engine angesehen und es scheint wirklich recht simpel zu sein. Ich kann das jetzt zwar nicht mit anderen Engines, wie zum Beispiel der Havok-Engine vergleichen, aber ich glaube nicht, dass die einfacher zu programmieren sind.

Die Novodex-Engine scheint also wirklich ganz gut zu sein, weswegen sich wahrscheinlich auch schon viele Hersteller entschlossen haben diese Engine für ihre Spiele zu verwenden, selbst wenn sie kaum einen Nutzen aus der Physikkarte ziehen würden.

Sie ist einfach als Software-Engine auch schon sehr konkurrenzfähig, was der Verbeitung der Karte sehr zu Gute kommen wird. Ich denke auch mal, dass die Engine auch sehr billig zu lizensieren ist. Schließlich ist Ageia erst einmal darauf bedacht die Engine so weit wie möglich zu verbreiten und wenn ich sehe, dass selbst so kleine Firmen wie FAKT Software (Hersteller von Crazy Machines) sich die Engine leisten können, dann kann die wirklich nicht viel kosten.

Technologisch scheint sie auch auf dem neusten Stand zu sein. Laut Ageia ist es zur Zeit die einzige multithreading-fähige Physik-Engine die es gibt. Da ist es eigentlich auch nur all zu verständlich, warum die Unreal3 Engine diese Physik-Engine gewählt hat. Schließlich ist dort auch alles auf Multithreading ausgelegt.
 
Zuletzt bearbeitet:
Gut dann formulieren wir es mal anders. :)
Natürlich ist eine PPU für Physikberechnungen besser als ne CPU, aber es ist einfach unsinnig, dafür ne extra Karte einzubauen.

Ich hab mir z.B. auch nie ne 3D-AddOn Karte ala Monster 3D gekauft, weil ich keine zusätzliche Karte im Rechner haben wollte. Das wurde ja mittlerweile auch geändert, indem die 2D und 3D Karten kombiniert wurden.

In Zukunft wird es wohl so sein, dass ein Teil einer CPU oder GPU speziell für Physikberechnungen ausgelegt sein wird und somit die Funktionen der PPU übernimmt.

Wer also 300€ für ne PPU ausgeben möchte, der kann das natürlich gerne machen, ich hingegen steck das Geld lieber in was sinnvolleres. ;)
 
noxon schrieb:
...
Warum das denn? Normal-Maps kann man doch immer noch auf die Kleidung zeichnen.
Ich glaube wir haben da zwei unterschiedliche Ansätze. Du würdest gerne jede Falte mit echten Polygonen darstellen, die von der PPU berechnet werden und ich fände es schon ausreichend, wenn sich zum Beispiel Supermans Cape einfach nur leicht knicken und biegen könnte wie eine Fahne im Wind. Die Falten kommen dann per NormalMaps auf die Oberfläche.
....
naja, etwas ein bissel im wind wehen zu lassen geht auch ohne physik engine. cloth simulation bedeutet das der sitzt der kleidung durch die animation von festen gegenständigen mit animiert wird. wenn also ein charakter kleidung trägt animiert man den nakten charakter, legt die kleidung oben drauf und die physik engine regelt den rest. eben das was man unter cloth simulation im cg bereich versteht.

dabei kommt es automatisch zu faltenwurf etc. wie man es eben von der realität her kennt -> das bedeutet man braucht viele polygone dazu.

für ein einfaches bewegen der kleidung braucht man wiegesagt keine physik engine, das kann man alles wunderbar und viel einfacher "von hand" animieren. so eine simulation bietet nur einfach mehr details mit weniger aufwand, aber eben nur wenn die auflösung des meshes hoch genug ist.

normal maps sind ein anderes thema. auf verformbare objekte kannst du einfach keine normalmaps benutzen, weil sich die normals ja durch die verformung ebenfalls ändern. das sieht dann extrem komisch aus.


@cR@zY.EnGi.GeR:
der vergleich hinkt aber hinten und vorne. erstmal haben 2d grakas kaum mehr zutun als framebuffers und ein in hardware gegossenes bitblt anzubieten. die hat also kaum etwas zutun. und ausserem brauchen die 3d karten nun aber selbst ebenfalls den ganzen 2d krempel(um die verschiedenen rendering framebuffer hinterher auf einen zu vereinigen, und für textur krempel). es macht also sinn das ganze in einem chip zu vereinigen, anstatt den 2d bereich doppelt zu bauen oder die daten jedesmal über den bus zu jagen.

ein physik chip macht dagegen vollkommen andere arbeit als eine gpu oder gar die cpu. wenn du etwas zeit hast kannst du dir ja gerne mal ODE, den opensource vorgänger von den novodex entwicklern, ansehen. da siehst du mal wie komplex alein des kolisions managment is, und dabei ist das noch lange nicht so ausgereift wie die actual shape kollisionen der novodex engine(novodex ist schneller und dabei noch genauer).

wenn die physik komplett auf diese karte ausgelagert werden würde währen bei den aktuellen cpus wieder wesentlich mehr resourcen für andere dinge vorhanden. es geht dabei ja nicht nur um umherfliegende trümmer teile sondern eben vorallem auch um dinge die kollisions abfragen. diese karte würde also auch berechnen ob du einen gegner getroffen hast oder nicht. ob du gegen eine wand gelaufen bist oder nicht. alles dinge die die cpu bei aktuellen spielen am meisten belasten. du wirst also mit so einer karte vermutlich mehr mehr-leistung von der cpu bekommen als du mit einer neueren cpu bekommen würdest.

vorallem bei single player spielen wäre dann endlich platz für halwegs ordentliche AI, bis es dafür endlich auch einen spezialisierten und bezahlbaren chip gibt.
 
Zuletzt bearbeitet:
Was der Bauer nicht kennt, das nimmt er nicht. Es ist eine völlig normale menschliche Reaktion auf Neuerungen. Bei PCIE hat auch jeder geschriehen "Wozu? der Agp-Port hat doch die ganze zeit gereicht...". Wenn etwas völlig neues kommt wird es so lange abgestoßen bis man in Realität merkt dass es irgendwo sinn hat...
 
Wer braucht dafür ne extra Karte?
Wir sind jetzt bei DualCore, spätestens wenn QuadCore gibt werden solche Karten ja wohl übeflüssig! Und wennschon, dann doch BITTE auf der Graka!
 
komet1024 schrieb:
Was der Bauer nicht kennt, das nimmt er nicht. Es ist eine völlig normale menschliche Reaktion auf Neuerungen. Bei PCIE hat auch jeder geschriehen "Wozu? der Agp-Port hat doch die ganze zeit gereicht...". Wenn etwas völlig neues kommt wird es so lange abgestoßen bis man in Realität merkt dass es irgendwo sinn hat...

Ja und die Leute hatten recht, denn AGP reicht auch heute noch vollkommen aus. Was nützt Dir eine 10 Fache Bandbreite wenn Du sie nicht nutzen kannst bzw. sie nicht nötig ist?
 
PCIe 16x hat gerade mal die doppelte Bandbreite von AGP8x. Das allein ist nicht der entscheidende Vorteil. Der wirkliche Vorteil ist der, dass die ca. 4GB/Sek (bei PCIe 16x) nun auch in der anderen Richtung möglich ist, was teils neue Renderingtechniken ermöglicht. Das mal nur so am Rande.
 
Das ist korrekt aber zur Zeit gibt es einfach nichts im Spielebereich was auch nur annähern diese Bandbreiten nutzen könnte. Ich bin schon für Fortschritt sonst geht es ja nicht weiter aber ich bin auch dafür erst mal Sachen die man hat zu nutzen und dann eben erst eine Stufe weiter zu gehen.
 
Naja, es gibt aber eben nicht nur Spiele, auch wenn das die Leute hier gern so sehen. :D
Es gibt ein sehr breites Spektrum an wissenschaflichen Darstellungs-Engines, die von solchen Dingen u.U. enorm profitieren. Und vielleicht erhalten solche Techniken durch PCIe dann auch mal irgendwann Einzug in die Spielewelt. ;)
 
Green Mamba schrieb:
Und vielleicht erhalten solche Techniken durch PCIe dann auch mal irgendwann Einzug in die Spielewelt. ;)

Wie so oft. Vieles im Unterhaltungssektor kommt aus früher professionellen Anwendungsbereichen.

Und wie soll etwas was neu erscheint gleich voll ausgenutzt werden? Alles brauch´ immer eine Weile anlauf. So war´s auch mit der Surround Sound unterstützung. Vielleicht gibt´s 2006 irgendwann die Möglichkeit den PCIe Rückkanal gut zu nutzen.
Dann sehe ich schon die Comments "Ein Glück habe ich ja rechtzeitig auf PCIe und so gesetzt". :rolleyes:
 
na da wart ich ma auf objektive benchmarks

und vor allem ist das nur ne demo wo keinerlei grafische schwierigkeiten auftreten, sondern nur physik effekte

aber potenzial ist da mit sicherheit vorhanden
 
Jo, mal schauen wie es in Spielen aussieht, ist ja einiges angekündigt.
Aber wie du schon sagst, es steckt einiges an potenzial in der Karte. :)
 
Zurück
Oben