News Erste Bilder einer PhysX-Karte von Asus

Mal ehrlich, 250 - 300 Euro für eine Karte die theoretisch (vielleicht) mehr können wird als sie praktisch hergeben wird.
Bei den Videos zu dieser Karte hätte ich mir fast vor Lachen in die Hosen geseicht wenn ich nich vorher auf Toilette gewesen wäre.
Nun, eigentlich ist man es doch gewohnt, dass wenn Hersteller ein neues Produkt bewerben die so richtig auf die Kacke hauen. Was haben die sich aber bei diesen Videos gedacht? Die sind doch mehr als peinlich.
Da bewegt sich nichts an der Pistole, kein Arm, keine Hand kein gar nix, aber große Holzkisten auf die geschossen wird bewegen sich? Sorry, aber für eine Karte welche den Anspruch auf physikalische Berechnungen erhebt ist das wohl traurig und lächerlich zugleich.
Eine Bombe fällt auf ein Geländer und prallt ab, aber sonst geht´s noch, oder? Kein Ruckeln am Geländer, keine Delle geschweige denn ein Bruch.
An den ganzen Videos ist nichts was nicht auch mit herkömmlichen Mitteln zu bewerkstelligen wäre ohne gleich Super CPU´s bzw. GPU´s zu bemühen.
Ohnehin frage ich mich was die Karte eigentlich macht!
Mir schwant da böses. Kann es sein, dass die ganze Karte nicht mehr ist als ein Zufallsgenerator?
 
GRAKA0815 schrieb:
Nun, eigentlich ist man es doch gewohnt, dass wenn Hersteller ein neues Produkt bewerben die so richtig auf die Kacke hauen. Was haben die sich aber bei diesen Videos gedacht? Die sind doch mehr als peinlich.

Das Problem an de Sache ist, das Ageia diese Demo erst in letzter Minute vor der E3 zusammengestickt hat.
Sie sind halt keine Spieleentwickler sondern Chipentwickler. Sie sind somit auch nicht in der Lage eine vernünftige Demo zu basteln. Genau so wenig wie du es wahrscheinlich bist. Man wird sehen, was die Spieleentwickler daraus machen. Jetzt liegt es an denen das Potential der Karte auch effizient umzusetzen.
 
Zuletzt bearbeitet:
noxon schrieb:
Sie sind halt keine Spieleentwickler sondern Chipentwickler. Sie sind somit auch nicht in der Lage eine vernünftige Demo zu basteln.
Das ist wohl weder eine Begründung noch eine Entschuldigung.
ATI und Nvidia sind auch nur Chipentwickler und keine Spielehersteller.;)

Genau so wenig wie du es wahrscheinlich bist.
Ich muss das ja auch nicht verkaufen, aber sei Dir versichert, bei mir wäre es eine Demo gewesen die sich gewaschen hätte.

Man wird sehen, was die Spieleentwickler daraus machen. Jetzt liegt es an denen das Potential der Karte auch effizient umzusetzen.
Wieviel Realismus ist in Spielen gefragt / gewünscht?
Schau Dir bsw. mal BF2 an.
Da bastelt man bei Panzergeschossen eine balistische Kurve auf 200m wo reell gar keine wäre, reell hätte der Richtschütze gar nichts mit dem Zielen zu tun, sondern würde das Ziel nur mit nem Laserpointer markieren und der Zielcomputer im Panzer würde den Rest erledigen, Abschuß - Treffer.
In Mohaa oder COD wackelte das Zielen des Soldaten weil er atmete, warum ist das in anderen Spielen nicht so?
Ist Realismus überhaupt ein wesentlich gewünschter Bestandteil von Spielen oder ist es nicht vielmehr so, dass der Spielspaß nicht auch dadurch kommt *weil* man die Grenzen der Physik nicht so sehr beachtet, sie aushebelt, sie weg läßt oder gar über deren Grenzen geht?
 
GRAKA0815 schrieb:
Das ist wohl weder eine Begründung noch eine Entschuldigung.
ATI und Nvidia sind auch nur Chipentwickler und keine Spielehersteller.;)

Die haben aber auch mächtig viel Kohle um sich ne gute Demo schreiben zu lassen. Wie dem auch sei. Vielleicht war das wirklich nicht die beste Demo, aber daraus kann man nicht schließen, wie das später in en Spielen aussieht.

Soweit ich weiß waren die Demos auch gar nicht für die Öffentlichkeit gedacht sondern wurde nur hinter verschlossenen Türen gezeigt. Offiziell wurde das von Ageia nämlich nie zum DL angeboten.


Wieviel Realismus ist in Spielen gefragt / gewünscht?
Schau Dir bsw. mal BF2 an.
Da bastelt man bei Panzergeschossen eine balistische Kurve auf 200m wo reell gar keine wäre, reell hätte der Richtschütze gar nichts mit dem Zielen zu tun, sondern würde das Ziel nur mit nem Laserpointer markieren und der Zielcomputer im Panzer würde den Rest erledigen, Abschuß - Treffer.
In Mohaa oder COD wackelte das Zielen des Soldaten weil er atmete, warum ist das in anderen Spielen nicht so?
Ist Realismus überhaupt ein wesentlich gewünschter Bestandteil von Spielen oder ist es nicht vielmehr so, dass der Spielspaß nicht auch dadurch kommt *weil* man die Grenzen der Physik nicht so sehr beachtet, sie aushebelt, sie weg läßt oder gar über deren Grenzen geht?

Es kommt auf das Spiel an. Natürlich darf der Realismus nicht den Spielspaß kaputt machen. Was wäre Spiderman für ein Spiel, wenn der nu zu Fuß laufen könnte? ;)

Aber bleiben wir mal bei BF2. Was ich mir da wünschte wäre, dass die Gebäude auch kaputt gehen, wenn ich da mit dem Panzer darauf schieße. Ich nöchte auch kleinere Mauern mit dem Panzer durchbrechen können. Du etwa nicht?

Das würde das Gameplay doch erheblich verbessern, wenn an immer unterschiedlichen Stellen Löcher in Hauswänden wären, wohinter sich ein Anti-Tank Soldat verstecken kann. Da fährt man gleich viel vorsichtiger durch die Straßen.

Aber es geht auch nicht nur um's Gameplay, sondern auch um die grafischen Effekte. Eine Explosion mit tausenden echten Trümmerteilen sieht nun mal besser aus, als wie das jetzt de Fall ist. Wär doch klasse, wenn du gelegentlich auch von einem umherfliegenden Trümmerstück getötet würdest anstatt das dein Schaden immer nur von der Entfernung der Explosionsquelle abhängt. Endlich kann es mal richtige Druckwellen geben, die sich in engen Gängen schneller ausbreiten als auf offener Fläche. Helikopter könnten diese Druckwelle spüren und müssten gegensteuern.

Wenn eine Rakete in das Wasser einschlägt, dann soll das Wasser auch richtig spritzen und Flugzeuge könnten endlich physikalisch korrekt Staub aufwirbeln, wenn sie nach über den Boden fliegen. Es gibt so viel, was man damit machen könnte.

Wenn sich die PPUs erst einmal durchsetzen, dann wird es sehr schnell auch viel leistungsfährigere Chips geben. Damit lässt sich dann bestimmt viel anstellen.
 
Zuletzt bearbeitet:
noxon schrieb:
Aber bleiben wir mal bei BF2. Was ich mir da wünschte wäre, dass die Gebäude auch kaputt gehen, wenn ich da mit dem Panzer darauf schieße. Ich nöchte auch kleinere Mauern mit dem Panzer durchbrechen können. Du etwa nicht?

Stimmt, da gebe ich Dir recht. Dies ist ein Feature das ich mir auch wünsche.
Da gibt´s aber glaube ich schon ein Spiel bei dem man div. Dinge zerstören kann.
Aber mal egal, so etwas ist aber keine Frage der Hardware, sondern immer noch eine Sache des Programmieraufwandes. Auch bei einer PhysX Card müßte so etwas programmiert werden, von alleine macht das auch die Hardware nicht! Ich bin mir sicher, dass so etwas auch ohne den Einsatz einer zusätzlichen Hardware mit heutigen Mitteln möglich ist.

Wenn sich die PPUs erst einmal durchsetzen, dann wird es sehr schnell auch viel leistungsfährigere Chips geben. Damit lässt sich dann bestimmt viel anstellen.
Und genau hier bin ich anderer Meinung.
Das ganze ist bis dato immer noch keine Frage der Hardware.
Vieles was möglich wäre, wird nicht genutzt. Es ist und bleibt eine Frage des Programmieraufwandes, ob ich das ganze für eine CPU, GPU oder eine PPU schreibe ist vollkommen egal, denn geschrieben werden muß es sowieso. Wenn also heutige Möglichkeiten ungenutz bleiben kann mir auf der anderen Seite niemand erzählen das ich für bestimmte Features eine neue Hardware brauche.
Das ist verarsche und kein Feature.;)
 
Wenn Du willst, dass man vernünftig programmiert, sodass es auch auf einem XP2000+ läuft, dann wirst Du nicht nur einmal 250 € für nen Hardwarebeschleuniger zahlen, sondern für jedes Game, das so programmiert wird, dass es auch so läuft! Ich sag es jetzt mal so überspitzt, denn nichts anderes ist der Sinn dieser Karte.
 
sebbekk schrieb:
Wenn Du willst, dass man vernünftig programmiert, sodass es auch auf einem XP2000+ läuft, dann wirst Du nicht nur einmal 250 € für nen Hardwarebeschleuniger zahlen, sondern für jedes Game, das so programmiert wird, dass es auch so läuft! Ich sag es jetzt mal so überspitzt, denn nichts anderes ist der Sinn dieser Karte.
Erzähl mir bitte nicht das next Generation Spiele trotz PhysX Card und entsprechender Programmierung noch auf einem XP2000+ laufen.
Wer das glaubt, glaubt auch an den Weihnachtsmann.
Das was Du da geschrieben hast glaubst Du selber nicht.:mad:
 
sebbekk schrieb:
...Ich sag es jetzt mal so überspitzt...
vielleicht versuchst Du bitte mal zwischen den Zeilen zu lesen. Was ich mit dem Vergleich aussagen wollte, wurde hoffentlich klar, wenn man es nicht falsch verstehen wollte.
 
Nö, ich habe das schon richtig verstanden.
Aber wer glaubt das durch den Einsatz einer solchen Karte der Rest seiner Hardware auch nur einen Tag länger halten wird als es heute der Fall ist (und nichts anderes wird versucht hier hinein zu interpretieren) der wird sich getäuscht sehen.
 
Mal ne andere Frage: Sollte denn nicht ein DualCoreProzessor genau diese Arbeit der Physikberechnung mit übernehmen? Also ein Kern für normale Anforderungen und der andere für aufwendige Physik? Wenn das so ist, wofür dann die extra Karte? Oder ist der DualCore nur ne Mogelpackung, um wieder nur mehr Kohle von den Verbrauchern rauszukitzeln?
 
Weil die PhysX 30 mal schneller als ne High End CPU ist.

Schau Dir den CPU Test im 3DMark05 an. Hier wird sowhol der leistungstechnische als auch qualitative Unterschied zwischen CPU- und GPU-Berechnung deutlich.

Ein Vergleich zwischen PhysX- und CPU-Berechnung wird ganz ähnlich ausfallen, sodass es nicht weiter verwundert, dass Futuremark Ageia's PhysX SDK lizenziert hat.
 
STEEL schrieb:
Mal ne andere Frage: Sollte denn nicht ein DualCoreProzessor genau diese Arbeit der Physikberechnung mit übernehmen? Also ein Kern für normale Anforderungen und der andere für aufwendige Physik? Wenn das so ist, wofür dann die extra Karte? Oder ist der DualCore nur ne Mogelpackung, um wieder nur mehr Kohle von den Verbrauchern rauszukitzeln?
Letztlich ist jeder angebliche Meilenstein eine Mogelpackung bei der mehr versprochen als gehalten wird.
Würde man wenigstens das was da ist vernünftig ausnutzen, sähe die Sache schon wieder anders aus. Wie schon gesagt, vieles was möglich wäre aber nicht ist, liegt nicht an der entsprechenden Hardware, sondern am Kosten- und Zeitdruck der Programmierer und Spielehersteller. Daran wird weder eine PhysX-Karte noch eine extra KI-Karte irgendetwas ändern.;)
 
Zuletzt bearbeitet:
GRAKA0815 schrieb:
Aber mal egal, so etwas ist aber keine Frage der Hardware, sondern immer noch eine Sache des Programmieraufwandes. Auch bei einer PhysX Card müßte so etwas programmiert werden, von alleine macht das auch die Hardware nicht!

Das stimmt natürlich, dass der Programmieraufwand höher ist, aber so hoch ist er nun auch wieder nicht. Programmierer würden gerne diesen Mehraufwand betreiben, wenn sie daduch eine völlig zerstörbare Umgebung bekämen. Das habe ich jedenfalls schon in Interviews gelesen, dass bestimmte Effekte, die sie geplant hatten mit heutigen Mitteln nicht möglich wären und deshalb verworfen werden mussten.

Siehe Driv3r. Als Erstes war geplant, dass sich die ganze Karosserie eines Autos verdrehen und verbiegen kann, sodass man seinen Wagen wirklich um einen Baum wickeln könnte, wenn man seitlich davor prallte. Dieses Feature haben sie dann aber wieder schnell von der Liste gestrichen, weil es zu rechenaufwändig war. Ein verbogenes Automodell, dass dann durch Achsverdrehung auch noch die Fahrweise verändert war einfach zu viel für heutige Hardware. Der Bedarf an komplexer Physik ist aber da.

Mittlerweile findest du auch kaum noch Spiele ohne eine Physikengine und in zukünftigen Engines, wie die von Alan Wake oder FarCry2 wird Physik eine immer größere Rolle spielen.

Ich habe auch schon solche Schlagworte wie Physic-driven KI und Physic-driven Sounds gehört, weiß aber auch nicht genau, was man sich darunter vorstellen soll. Anwendungen soll es jedenfalls genug geben.


GRAKA0815 schrieb:
Ich bin mir sicher, dass so etwas auch ohne den Einsatz einer zusätzlichen Hardware mit heutigen Mitteln möglich ist.
STEEL schrieb:
Mal ne andere Frage: Sollte denn nicht ein DualCoreProzessor genau diese Arbeit der Physikberechnung mit übernehmen? Also ein Kern für normale Anforderungen und der andere für aufwendige Physik? Wenn das so ist, wofür dann die extra Karte? Oder ist der DualCore nur ne Mogelpackung, um wieder nur mehr Kohle von den Verbrauchern rauszukitzeln?

Ich frag mich wieso alle immer der Meinung sind, dass so eine Physik auch mit heutigen Dual-Core CPUs auch schon möglich wäre. Ladet euch mal das Novodex Testprogramm runter. Da werdet ihr sehen, dass ab einer bestimmten Anzahl von Objekten die CPU stark in den Keller geht. Der Rechenaufwand erhöht sich ja nicht linear. Wenn auf einer CPU 100 Objekte möglich sind, dann sind auf zweien keine 200 möglich. Schließlich muss jedes Objekt mit jedem verglichen werden, ob es eine Kollision verursacht hat oder nicht.

Außerdem handelt es sich bei heutigen Kollisionsabfragen meistens um reine Quader- oder Kugelabfragen. Selbst wenn das Objekt eine leicht andere Form hat. Wenn du wirklich eine genaue Kollisionsabfrage eines komplexen Modells machen willst, dann erhöht sich der Rechenaufwand enorm. Das kann die Karte einfach besser.

Ist aber auch logisch. Da wo der Prozessor nur wenige einfache Berechnungen gleichzeitig durchführen kann können Chips, wie zum Beispiel GPUs hunderte von, komplexen und für die Anwendung spezielle, Berechnungen gleichzeitig durchführen. Auch die PPU arbeitet massiv parallel und kann so viel mehr erreichen als es eine CPU jemals könnte.

Rein theoretisch natürlich. Mir ist auch klar, dass am Anfang die Vorteile der PPU nicht sonderlich groß sein werden, aber das wird sich mit steigender Erfahrung der Programmierer, der weiterentwicklung der Physikengine und besseren Features in den nachfolgenden Chips schnell ändern.
 
noxon schrieb:
Das stimmt natürlich, dass der Programmieraufwand höher ist, aber so hoch ist er nun auch wieder nicht. Programmierer würden gerne diesen Mehraufwand betreiben, wenn sie daduch eine völlig zerstörbare Umgebung bekämen. Das habe ich jedenfalls schon in Interviews gelesen, dass bestimmte Effekte, die sie geplant hatten mit heutigen Mitteln nicht möglich wären und deshalb verworfen werden mussten.
Zerstörbare Objekte bleiben auch bloß eine Sache des Programmieraufwandes, in BF2 kann man sich bei einigen Bretterzäunen einen Durchgang sprengen, bleibt aber dabei, ob ich es einfach programmiere und nur an bestimmten Stellen ein Loch in den Zaun bohren kann, oder ob ich Zeit habe und gleich vernünftig programmiere und an "jeder" belibigen Stelle den Zaun zerstören kann, also komplett jedes einzelne Brett dafür vorsehe! Das ist bei allen graphischen Teilen eines Spieles so, das hat nichts mit "besserer" Hardware zu tun, sondern mit entsprechender Programmierung

Siehe Driv3r. Als Erstes war geplant, dass sich die ganze Karosserie eines Autos verdrehen und verbiegen kann, sodass man seinen Wagen wirklich um einen Baum wickeln könnte, wenn man seitlich davor prallte. Dieses Feature haben sie dann aber wieder schnell von der Liste gestrichen, weil es zu rechenaufwändig war. Ein verbogenes Automodell, dass dann durch Achsverdrehung auch noch die Fahrweise verändert war einfach zu viel für heutige Hardware. Der Bedarf an komplexer Physik ist aber da.
Brauche ich in einem Spiel die realistische Berechnung eines Schadensmodell oder würde nicht genauso ein "glaubhaftes"Schadensmodell ausreichen?
Bleiben wir bei deinem Beispiel.
Ob ein Fahrzeug (Auto) bei einer Geschwindigkeit von X bei einer Kollission in einem *Spiel* nun physikalisch exakt verbeult ist oder einfach nur glaubhaft verbeult ist, sollte wohl kaum einen Unterschied machen. Da reicht es doch vollkommen aus, ein kleines, mittleres und großes Schadensmodell anzufertigen (je nach Geschwindigkeit des Wagens) und per Zufallsgenerator die entsprechende Beule, Delle, Kratzer, Zerstörung etc. aus einer Datenbank herauszusuchen, damit die Zerstörungen nicht immer gleich aussehen.
Oder sehe ich das Falsch?

Mittlerweile findest du auch kaum noch Spiele ohne eine Physikengine und in zukünftigen Engines, wie die von Alan Wake oder FarCry2 wird Physik eine immer größere Rolle spielen.

Ich habe auch schon solche Schlagworte wie Physic-driven KI und Physic-driven Sounds gehört, weiß aber auch nicht genau, was man sich darunter vorstellen soll. Anwendungen soll es jedenfalls genug geben.
Das die Physik bzw. der Realismus eine immer größere Rolle spielen wird ist ja unbestritten.
Fraglich bleibt nur der effektive Nutzen.
Wie ich bereits erwähnt habe, reicht eine glaubhafte Darstellung bei weitem aus, denn auch die beste PhysX Karte wird nie ein 100% realistisches Schadensmodell abliefern, weil dazu erstens der Input viel zu gering sein wird und zweites selbst wenn der Input ausreichend groß wäre auch eine solche Karte damit überfordert ist.

Dem Chip selbst traue ich noch nicht einmal die exakte physikalische Berechnung eines Fliegenschiss von einer sitzenden Fliege zu.
Schau z.B. mal in die Automobilindustrie. Da werden kleine Supercomputer bzw. ganze Rechenzentren benötigt um halbwegs realistische Crashsimulationen durchzuführen. Selbst bei Simulatoren für Flugzeuge, Hubschrauber, Züge, Schiffe etc. sind zig Computer im Einsatz um etwas Realität auf den Bildschirm zu zaubern.
Würde dieser Chip auch nur einen Bruchteil dessen schaffen, wäre er einige 10.000 Dollar wert!;)
 
GRAKA0815 schrieb:
Zerstörbare Objekte bleiben auch bloß eine Sache des Programmieraufwandes, in BF2 kann man sich bei einigen Bretterzäunen einen Durchgang sprengen, bleibt aber dabei, ob ich es einfach programmiere und nur an bestimmten Stellen ein Loch in den Zaun bohren kann, oder ob ich Zeit habe und gleich vernünftig programmiere und an "jeder" belibigen Stelle den Zaun zerstören kann, also komplett jedes einzelne Brett dafür vorsehe! Das ist bei allen graphischen Teilen eines Spieles so, das hat nichts mit "besserer" Hardware zu tun, sondern mit entsprechender Programmierung

Es ist hauptsächlich eine Sache der Rechenleistung. Ich hab mir das SDK der Novodex Engine noch nicht angesehen, aber ich denke, dass es sehr einfach zu programmieren sein wird.
Du gibst einfach die physikalischen Eigenschaften der Wand an und dann war's das auch schon. Am den Rest kümmert sich die Engine. Als Programmierer hast du da sehr wenig Aufwand. Das ist ja de Sinn einer fertigen Engine. Die Stellt dem Programmierer eine sehr einfach Schnittstelle bereit und er muss sich im das was dahinter steckt nicht kümmern.


Brauche ich in einem Spiel die realistische Berechnung eines Schadensmodell oder würde nicht genauso ein "glaubhaftes"Schadensmodell ausreichen?
Bleiben wir bei deinem Beispiel.
Ob ein Fahrzeug (Auto) bei einer Geschwindigkeit von X bei einer Kollission in einem *Spiel* nun physikalisch exakt verbeult ist oder einfach nur glaubhaft verbeult ist, sollte wohl kaum einen Unterschied machen. Da reicht es doch vollkommen aus, ein kleines, mittleres und großes Schadensmodell anzufertigen (je nach Geschwindigkeit des Wagens) und per Zufallsgenerator die entsprechende Beule, Delle, Kratzer, Zerstörung etc. aus einer Datenbank herauszusuchen, damit die Zerstörungen nicht immer gleich aussehen.
Oder sehe ich das Falsch?

Was du beschreibst entspricht in etwa dem Schadensodell von GTA oder Mafia. Findest du das wirklich gut?
Ich bin schon der Meinung, dass sich Fahrzeuge korrekt verformen müssen, wie bei Driv3r oder Flatout. Nur halt etwas genauer. Ich bin auch der Meinung, dass ein Auto auch aus viel mehr Einzelteilen bestehen muss. Flatout ist mit 16 Elementen, die sich vom Fahrzeug lösen können, schon auf dem richtigen Weg. Es sieht einfach viel besser aus, wenn bei einem Massen-Crash dutzende oder hunderte von Einzelteilen durch die Luft fliegen.

Findest du nicht, dass das hier viel besser aussieht?
Click mich.
Mich auch.
Und mich erst recht


Das die Physik bzw. der Realismus eine immer größere Rolle spielen wird ist ja unbestritten.
Fraglich bleibt nur der effektive Nutzen.
Wie ich bereits erwähnt habe, reicht eine glaubhafte Darstellung bei weitem aus, denn auch die beste PhysX Karte wird nie ein 100% realistisches Schadensmodell abliefern, weil dazu erstens der Input viel zu gering sein wird und zweites selbst wenn der Input ausreichend groß wäre auch eine solche Karte damit überfordert ist.

Also ich finde Spiele mit einer gute Physikengine viel spaßiger als grafisch hochwetige Spiele. Bestes Beispiel ist Flatout. Das ist zwar grafisch auch ganz gut, aber nicht der Oberhammer. Trotzdem ist das ein absolutes Fun-Spiel und ich kann es immer wieder und wieder spielen. Es erhöht einfach die Abwechslung.

Es ist doch so, dass Spiele dessen Umgebung sich ändert und mit in's Gameplay integriert wird viel mehr Möglichkeiten und Abwechslung bietet.


Dem Chip selbst traue ich noch nicht einmal die exakte physikalische Berechnung eines Fliegenschiss von einer sitzenden Fliege zu.
Schau z.B. mal in die Automobilindustrie. Da werden kleine Supercomputer bzw. ganze Rechenzentren benötigt um halbwegs realistische Crashsimulationen durchzuführen. Selbst bei Simulatoren für Flugzeuge, Hubschrauber, Züge, Schiffe etc. sind zig Computer im Einsatz um etwas Realität auf den Bildschirm zu zaubern.
Würde dieser Chip auch nur einen Bruchteil dessen schaffen, wäre er einige 10.000 Dollar wert!;)

Das der Vergleich Schwachsinn ist weißt du hoffentlich selber. Ein echtes Auto ist ein sehr viel kompexeres Gebilde als ein kleines Polygonauto und die Genauigkeit mit der bei Crashsimulationen gerechnet werden muss ist um ein vielfaches größer. Schließlich führen selbst kleinste Rechenungenauigkeiten zu neuen Ungenauigkeiten, die sich immer mehr aufadieren und zu immer ungenaueren Ergebnissen führen, je weiter die Simulation voranschreitet. Deshalb wird bei diesen Simualtionen auch mit zig Nachkommastellen und mit sehr sehr sehr hochdetailierten Modellen gerechnet. Tut man das nicht kann es am Ende zu ganz anderen Ergebnissen führen.
Das ist das Gleiche wie bei der Wettervorhersage. Je weiter man in die Zukunft blickt um so ungenauer werden die Berechnungen, da selbst kleinste Abweichungen am Anang darüber entscheiden, ob es in ein paar Tagen regnet oder nicht.

Bei Computerspielen ist die Genauigkeit nicht so wichtig. Mich interessiert es nicht, ob der Reifen nach 30 Frames ein Pixel zu weit nach links geflogen ist oder nicht. Hauptsache die Illusion stimmt und für solche Dinge ist die Karte sehr gut geeignet.
 
Zuletzt bearbeitet:
@Graka0815:

Ich denke, die Unterschiede, die Du zwischen realer und glaubhafter Physik herausstellst, werden sich in den Einstellungsmöglichkeiten zukünftiger Games einfach widerspiegeln.
So wie man im Sound EAX an- und abwählen kann, wird man sicher auch reale Physik gegenüber glaubhfter Physik an- und abwählen können.

Also kein Grund zur Aufregung. Genauso wie man immer noch guten Sound hat, wenn man auf EAX verzichtet, wird man auch noch gute Physik (s. Havoc) zu sehen bekommen. Hier gilt aber sicher auch, was man nicht kennt, vermitsst man nicht - Havoc & Co haben gengeüber PhysX ihre Grenzen ;o) Für den Enthusiasten gibt es aber auch noch AddOnSoundkarten, HighEndGrafikbeschleuniger und fortan auch Physik-, später vielleicht auch KI-Karten.

Wer sich darüber aufregt, sollte sich eher entspannt zurücklehnen und die Enthusiasten Geld in die Innovationnen stecken lassen, bis der Tag dann gekommen ist, an dem deren Subvention die neuen Technologien für den 0815-user (kl. Wink mim Zaunpfahl ;o) tragbar und sinnvoll erscheinen lässt. Und der Tag ist ja z.B. bei Grafikkarten schon lange gekommen, so hat sie doch längst breite Akzeptanz gefunden und das könnte hier zwar nicht ganz so drastisch ausfallen, aber den Status einer guten Soundkarte kann man der PhysX sicher postulieren.
 
@ 2 Vorredner

Also Aufregen habe ich mir abgewöhnt, 15 Jahre PC Erfahrung haben auch bei mir spuren hinterlassen.

Ich glaube eher, dass man die Karte hier in die falschen Hände gibt.

Wir sind uns ja darüber einig, dass sowohl der Programmieraufwand als auch der Rechenaufwand viel zu groß wäre um überhaupt ein annähernd realistisches Schadensmodell zu kreieren. Daher ja auch meine Meinung, dass ein glaubhaftes Schadesmodell mehr als ausreichend ist, weil es die PhysX Card reel betrachtet ja auch nicht anders macht.
Warum also beläßt man diese Karte nicht gleich bei den Spieleprogrammieren?
Sollen die doch dort mit der Karte bsw. ein Auto mit verschiedenen Geschwindigkeiten und verschiedenen Auftreffwinkeln ausrechnen lassen und den jeweiligen Schaden in eine Datenbank einfügen auf der dann später im Spiel darauf zugegriffen wird anstatt es beim User ausrechnen zu lassen.;)
Geht es sonst noch schneller oder Ressorcenschonender? Bestimmt nicht.:cool_alt:

Das was mich bei Spielen am meisten ärgert, ist, dass man auf der einen Seite vorhandene Ressourcen kaum oder gar nicht nutzt, während man auf der anderen Seite massiv Ressourcen verschwendet. Da hat man Dinge wie HT, MMX, SSE, 3Dnow auf der CPU und viele andere Dinge auf den Grafikchips, zieht aber keinen oder nur wenig Nutzen daraus. Was soll das bitte?
Aber wir galoppieren immer weiter in der Hardware.
Demnächst werden wir sicherlich SSE4 haben, mit DXnext werden neue Features in die Grafikprozessoren einfließen und wer weiß was sonst noch alles kommen wird. Da brauche ich bei BF2 mind. 2GB Arbeisspeicher um die Auslagerungsdatei abschalten zu können obwohl BF2 wohl kaum ein techn. Meisterwerk ist, dass ist doch der Wahnsinn in Reinstform.
Was solls? Die Hardwareevolution gallopiert voraus und die Software kommt nicht mehr hinterher.:freak:
Also verschwenden wir auch weiterhin in Zukunft Ressourcen bzw. nutzen vorhandene nicht.
 
Ich unterstreiche Deinen Frust bzgl. solcher Verbrechen wie BF2. Aber wieso sind Hersteller wie Ageia jetzt dafür verantwortlich? Die Entwickler wie die von BF2 haben einfach den Arsch auf und vielleicht auch nicht gerade die Mittel, gescheit zu arbeiten. Statt Geld in die Entwicklun zu investieren lässt man lieber den User Geld in die Hardware investieren. Solange der Markt hier Recht gibt, kann man daran nichts ändern (Arbeitsspeicher und Rechenpower sind halt verhältnismäßig billig geworden).

Und jetzt sag nicht, die Entwickler sind einfach verwöhnt und unverschämt. Epic oder Ensemble arbeiten da schon wesentlich besser möchte ich meinen. UT2004 läuft auf betagter Hardware 1a und sieht trotz seines für ein Game hohen Alters schauts noch geil aus. Es geht also auch anders. Das neue UT2007 wird PhysX unterstützen, aber wenn es nichts neues featuren würde, wäre das Geschrei auch wieder groß, warum solle man sich nen warmen Abklatsch als UT2004-Gamer zulegen?

Irgendwo muss der Fortschritt halt greifen und ich denke, den Weg bestimmt hauptsälich der Markt. Die Idee, lieber ein paar Standardsamples direkt beim Hersteller berechnen zu lassen, lassen sich helle Köpfe wie z.B. bei Epic sicher auch durch den Kopf gehen und das finde ich auch gut. Damit wären wir wieder bei den Einstellungsmöglichkeiten: Voranimiert vs. Echtzeitberechnung (die halt jedes mal anders aussieht und mir nicht nach dem 4. Crash einen alten Bekannten präsentiert.)

Über diese Einstellungsmöglichkeit zu entscheiden bleibt hoffentlich jedem freigestellt. Ich werde mir gern mal ansehen wollen, was PhysX so besser kann.
 
Zuletzt bearbeitet:
Die Idee mit dem Vorsimulieren und dann in eine Datenbank abspeichern find ich lustig.
Wie soll das zum Beispiel bei Flüssigkeiten oder Gasen funktionieren?

Der ganze Sinn hinter einer Physikengine ist ja der, dass nicht immer alles gleich abläuft, sondern das man jede Menge Parameter ändern kann, wodurch immer eine andere Ausgangssituation entsteht.
 
sebbekk schrieb:
Ich unterstreiche Deinen Frust bzgl. solcher Verbrechen wie BF2. Aber wieso sind Hersteller wie Ageia jetzt dafür verantwortlich? Die Entwickler wie die von BF2 haben einfach den Arsch auf und vielleicht auch nicht gerade die Mittel, gescheit zu arbeiten. Statt Geld in die Entwicklun zu investieren lässt man lieber den User Geld in die Hardware investieren. Solange der Markt hier Recht gibt, kann man daran nichts ändern (Arbeitsspeicher und Rechenpower sind halt verhältnismäßig billig geworden).
Was leider weder ein Einzelfall noch die Ausnahme bildet, sondern nackte Realität ist.
Langsam aber sicher wird der PC als Spielegerät immer unwirtschaftlicher, zumal sich sein Preis-Leistungsverhältnis ohnehin schon lange nicht mehr rechnet.

Irgendwo muss der Fortschritt halt greifen und ich denke, den Weg bestimmt hauptsälich der Markt. Die Idee, lieber ein paar Standardsamples direkt beim Hersteller berechnen zu lassen, lassen sich helle Köpfe wie z.B. bei Epic sicher auch durch den Kopf gehen und das finde ich auch gut. Damit wären wir wieder bei den Einstellungsmöglichkeiten: Voranimiert vs. Echtzeitberechnung (die halt jedes mal anders aussieht und mir nicht nach dem 4. Crash einen alten Bekannten präsentiert.)

Über diese Einstellungsmöglichkeit zu entscheiden bleibt hoffentlich jedem freigestellt. Ich werde mir gern mal ansehen wollen, was PhysX so besser kann.
Die Entwickler, Programmierer und Spielehersteller sind doch letztlich die Deppen welche für alles verantwortlich gemacht werden.
99% dessen was wir vorgesetzt bekommen ist nicht die Schuld an mangelhafter Hardware, sondern liegt am Zeitdruck und am Gelddruck der Spielehersteller / Programmierer.
Es ist doch wohl hoffentlich jedem klar, dass ein Team welches 3 Jahre Zeit hat für ein neues Game ein viel effektvolleres und detailreicheres Game abliefern wird als ein Team das bloß 2 Jahre zeit hat. Auch dürfte es jedem klar sein, dass wenn ich für ein Projekt 30 Programmierer für eine Zeit x zur Verfügung habe ein ansehnlicheres Game herauskommen wird als bei einem Team das 30 benötigt aber bloß 20 hat und aus Geldmangel oder Profitgier keine weiteren bekommen wird.
Das sind die Probleme, und nicht neuere Hardware in immer kürzer werdenden Produktionszyklen auf welche sich die Softwarehersteller immer weniger drauf einstellen können.

noxon schrieb:
Die Idee mit dem Vorsimulieren und dann in eine Datenbank abspeichern find ich lustig.
Wie soll das zum Beispiel bei Flüssigkeiten oder Gasen funktionieren?

Der ganze Sinn hinter einer Physikengine ist ja der, dass nicht immer alles gleich abläuft, sondern das man jede Menge Parameter ändern kann, wodurch immer eine andere Ausgangssituation entsteht.
Das Beispiel bezog sich auf Auto´s etc.
Aber auch bei Flüssigkeiten und anderen Objekten wären bessere Löungenswege möglich ohne gleich KI- / Physik PPU´s direkt beim Enduser zu platzieren.
 
Zuletzt bearbeitet:
Zurück
Oben