News Video: GPU-PhysX in Mirror's Edge

<NeoN> schrieb:
Bei aktuellen Marktstrategien kann ich mir sogar vorstellen, dass Nvidia ne PhysX-GPU vorraussetzt, um das Spiel zocken zu können.
Das kann man sich gar nicht leisten.
Wenn man davon ausgeht das 40% ne ATi karte haben und die hälfte der nVidia-Karten nicht PhysX-fähig sind bleibt kaum noch ein Kundenkreis über.
 
Deswegen hab ich das folgendes dazugeschrieben:
Zumindest, wenn es einen ausreichenden Hype gibt und die keine Angst um ihre Gewinne haben müssen.
Wenn Nvidia die Chance sieht das viele Leute sich extra wegen PhysX ne Geforce anschaffen, wäre das sehr wohl denkbar. Immerhin könnte man so AMD/ATI langsam aber sicher vom Markt verdängen.
 
das beste wäre wenn irgendeine Firma ein Spiel rausbrinen würde bei dem alles von Physx berechnet wird also, wenn zb. auf jemanden mit einer pumpgun geschossen wird, das dieser dementsprechende schäden abbekommt also das Körperteile zerfetzen, den Leuten der schädel explodiert und alles andere abartige :freak:
 
bruder und ich hams ein tag für die ps3 ausgeliehen und man hat innerhalb 5-6stunden durch.
evtl. auch länger, wenn man an jeder stelle 50 mal stirbt.
zum ende hin werden einige stellen echt frustrierend, immer mit dem stick schiessen zu müssen.

grafisch nicht so der bringer, erinnert alles ein bischen ans schlichte "Portal".
 
Es scheint "IN" zu sein, sinnlose Posts abzugeben, ohne Ahnung von der Materie zu haben?! Endlich kommt eine Erweiterung für Grafikkarten, die endlich das tut, was bisher nie der Fall war: Der oberlahmen CPU endlich die Arbeit zu erleichtern und das Spielerlebnis zu verbessern.

Was nutzt eine supertolle Grafikkarte, die ein Spiel mit über 100 FPS darstellt, wo 30-60 reichen würden. Anstatt der Überleistung kann man die ungenutzten FPS auch in Spieleffekte wie Physikbereichnung / KI oder was weiß ich stecken. Und kommt mir nicht mit Quad-Cores. Im Vergleich zu einer GPU sind die CPUs arschlahm.

Die Empfehlung für 9800 GTX+ dürfte sich wohl bei einer einzelnen Karte ohne Sli bewahrheiten. Immerhin braucht die Grafikkarte genug Power um das Spiel und die PhysX-Berechnung gleichzeitig ausführen zu können. Aber den Hauptvorteil sehe ich, sobald eine Hauptgrafikkarte von Nvidia (8800er oder höher) und eine als zusätliche Karte als PhysX (alle GF?) arbeitet.
Diese Kombination würde sogar auf Crossfire-Boards funktionieren, da man keine SLI-Brücker hierfür braucht. Die zweite Karte braucht überhaupt nicht Leistungsstark sein. Genau das sehe ich als Fortschritt.

Wer dann allerdings bei 2x GTX280 eine Karte als PhysX laufen lässt, ist selbst schuld. Es gibt ja auch die Möglichkeit von Sli+PhysX gleichzeitig (SLI-Boards only).
 
Habs zwar noch nicht gespielt, finds aber dennoch interessant, auch wenn vllt schnell eintönig. Naja jedem das seine, war doch bis jetz immer so.

Zur Grafik generell, find es eigentlich recht hübsch und detailreich, zudem siehts sehr echt aus.

Aber zur Physikimplementierung...naja befürworte ja den Fortschritt. Aber wenn man ältere Spiele zur Hand nimmt issts "schwach". Selbst bei Splinter Cell 3 Chaos Theory hatte man einigermaßen gut animierte Vorhänge, da kennte man das Wort PhysX noch nicht mal.
Zieht man aber Cellfactor (Paradebeispiel von Ageias´s PhysiX) heran, sieht man eigentlich was Ageia schon vor über nem Jahr zu leisten im Stande war. Dagegen sind die Effekte in Mirror´s Edge kleine Fische.
 
@r4yn3
muss ich dir voll zustimmen, das cellfactor von ageias war schon welten voraus, was die physik betrifft!
 
Hardware_Hoshi schrieb:
Was nutzt eine supertolle Grafikkarte, die ein Spiel mit über 100 FPS darstellt, wo 30-60 reichen würden. Anstatt der Überleistung kann man die ungenutzten FPS auch in Spieleffekte wie Physikbereichnung / KI oder was weiß ich stecken. Und kommt mir nicht mit Quad-Cores. Im Vergleich zu einer GPU sind die CPUs arschlahm.

öhm klär mich mal auf...
meines wissens werden in heutigen normalen anwendungen max 2 cores genutzt
ich weiß dass es schwer ist die anderen beiden cores zu nutzen (parallelisierung und so) aber der trend geht doch eindeutig in richtung mehrere kerne, also warum nicht die vorhandene infrastruktur nutzen? komm mir nicht damit, dass 2 zusätzlich genutzte kerne zu langsam sind... die berechnungen sind aufwendig, aber man nutzt das vorhandene potential nicht mal ganz aus
 
Ich denke Hardware_Hoshi hat sicher ein gutes Argument, warum die überschüssige Rechenkraft nicht sinnvoll investieren, aber die Frage ist wohl eher ob man hier dann nicht die Leistung der Karte drosseln sollte, und so weniger Strom zu verbrauchen und gleichzeitig weniger Abwärme zu erzeugen. Und die Physik trotzdem über einen kleinen hochspezialisierten Chip erledigen, ohne dafür die Grafikarte zu bemühen!

Wäre doch sinnvoller, oder nicht?

mfG
Mr.Jules
 
den hochspezialisierten chip könnte man vllt auch auf die platine der graka packen oder in die gpu integrieren...
auch hier geht der trend doch in multicore...
 
Die Idee vom Chip auf der Platine verfolgte ja schon Ageia. Ich nehm an, das sich die GPU Hersteller einfach Kosten ersparen wollen, und den Chip, in einer anderen Form einfach direkt in den DIE zu implementieren. Ansätze sind ja da wie man sieht. Wer weiß, vllt bauen neuere Generation dies aus.
 
naja wies bisher aussieht hat nVidia einfach deren Firma gekauft, und die Software von PhysX per CUDA auf der Grafikkarte lauffähig gemacht! Eine Hardwarelösung auf der Platine oder im DIE wär sicher eine Überlegung, aber da spart man vllt. doch lieber Kosten und lässt es per Software berechnen!
 
v.v...wenn ich mir das hier wieder ansehe...
"Mal schaun wie weit Nvidia damit kommen wird."
oder sonst ähnliches....wenn ihr Physik wollt, braucht ihr leistung!
ATI stellt diese leistung nicht bereit, Nvidia tut es...wo ist dann der fehler? Nvidia tut damit was für die zockergemeinschaft und nicht nur für sich selbst
wenn ihr ne ATI habt und des dann net zocken könnt, beschwert euch net. Ihr könntet es nicht zocken wenns erscheint, und wenns nich erscheint -.-"
 
Turbostaat schrieb:
Und welchen Grund hast du jetzt mich zu beleidigen? :rolleyes:

Wenn die HD 3200 sich locker über HD3300 Niveau übertakten lässt und ich dank 400Mhz mehr (900 statt 500Mhz Takt) C&C Red Alert 3 in 1680x1050 in mittleren Details, statt minimum Detaiös und Fallout 3 in 1024x768 mit mittleren Details, statt 800x600 in niedrigen Details spielen kann, dann hat es sich wohl gelohnt.
Und da ich eher ein Gelegenheitszocker bin der mal ab und an 1x die Woche 2-3h spielt und brauche ich nicht zwingend 70 - 200€ nochmal für eine zusätzliche Grafikkarte ausgeben und den Leistungsgewinn habe ich mir mit 4W zusätzlich erkauft.


Ich glaube, daß der Titel "größter Nerd aller Zeiten" eher als Kompliment von ihm an dich gemeint war! ;)
 
Ich finde auch, dass die Physik von der gpu berechnet werden sollte.
Dem quadcore kann man mit der Berechnung von KI und soundberechnung genug einheizen.
Anstatt dem creative eax Mist endlich mal ne realistische Berücksichtigung der Raumgeometrie beim sound z.B.

Aber phys-X ist auch problematisch. Da sollte amd ganz schnell nachziehen und das kopieren damit sie nicht ins Hintertreffen geraten. Dann müssen die Spieleentwickler sich halt die doppelte Arbeit machen und ihre Physik auf beiden Systemen implementieren.:rolleyes:
 
Zurück
Oben