-
Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!
Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News Microsoft Game Studios lizenzieren Havok
- Ersteller Sebastian
- Erstellt am
- Zur News: Microsoft Game Studios lizenzieren Havok
cosmicparty
Banned
- Registriert
- Aug. 2007
- Beiträge
- 843
Sebastian schrieb:Das stimmt soweit ich weiß aber nicht, dass Crysis auf Havok setzt. Crytek hat eine eigene Physik-Engine geschrieben.
ich meinte das gelesen zu haben, aber es mag auch sein, dass ich irre... gebs dann natürlich auch zu =)
aber die crysis-physik dürfte auch über die cpu laufen dann, oder?
the witcher
Commander
- Registriert
- Dez. 2007
- Beiträge
- 2.312
@cosmicparty
Das einzige was so ziemlich an den haaren herbeigezogen ist, ist das du wirklich der meinung bist das havok von der leistung her besser ist......
Desweiteren kannst du nicht einfach ein strategiespiel mit einem ego shooter vergleichen zumal crysis seine eigene physik engine hat und wie diese programmiert ist weißt du nicht oder?
daher finde ich es ziemlich mutig, wenn du diese mit havok gleichsetzt.
bestes beispiel CSS, als es rauskam hatte ich einen athlon xp 2600 also keine schlechte cpu aber bei inferno musste ich immer die details runterschrauben um es rucklefrei zocken zu können.
Und da hat es auch ne weile gedauert bis man es mit hohen frameraten zocken konnte...
nämlich bis die ersten ordentlich getakteten X2`s auf dem markt waren...
und jetzt kommst du daher und behauptest das havok die cpu nicht überfordern würde![Augen rollen :rolleyes: :rolleyes:](/forum/styles/smilies/rolleyes.gif)
Hast du dir den CB test nicht angeschaut?!
mfg
Das einzige was so ziemlich an den haaren herbeigezogen ist, ist das du wirklich der meinung bist das havok von der leistung her besser ist......
Desweiteren kannst du nicht einfach ein strategiespiel mit einem ego shooter vergleichen zumal crysis seine eigene physik engine hat und wie diese programmiert ist weißt du nicht oder?
daher finde ich es ziemlich mutig, wenn du diese mit havok gleichsetzt.
bestes beispiel CSS, als es rauskam hatte ich einen athlon xp 2600 also keine schlechte cpu aber bei inferno musste ich immer die details runterschrauben um es rucklefrei zocken zu können.
Und da hat es auch ne weile gedauert bis man es mit hohen frameraten zocken konnte...
nämlich bis die ersten ordentlich getakteten X2`s auf dem markt waren...
und jetzt kommst du daher und behauptest das havok die cpu nicht überfordern würde
![Augen rollen :rolleyes: :rolleyes:](/forum/styles/smilies/rolleyes.gif)
Hast du dir den CB test nicht angeschaut?!
mfg
ww2warlord schrieb:CUDA ist eh Schnee von Gestern weil die Spieleentwickler fast nur noch für Konsolen ihre Spiele programmieren und diese dann mit ein wenig Aufwand auf den PC Portieren.
Da aber in einer Xbox keine GeForce und keine CUDA Hardware vorhanden ist, sehe ich auch zukünftig keine Chance mehr für Nvidias Technologie. Außerdem wird DX11 schon dafür sorgen, dass keiner mehr auf CUDA setzen muss...
Was ihr immer mit CUDA wollt, das Konzept ist nicht dazu gedacht, euch bunte Bildchen auf den Monitor zu zaubern. Auch der Part mit PhysX ist nicht der Hauptgedanke hinter CUDA.
Wikipedia als Quelle ist zwar eher schlecht als recht in diesem Fall, aber es reicht, um mal einigen die Augen zu öffnen. http://de.wikipedia.org/wiki/CUDA
F
franzi3
Gast
@mixn_mojo
Als ob du damit rechnen dürftest, dass in einem von Fanboys infizierten Forum, die sich noch dazu nur auf den Gaming Sektor beziehen, verstehen würden, dass CUDA nur sekundär für Spiele genutzt wird und von Nvidia ganz bewusst für den Profibereich entwickelt wurde.
Die Fanboys behaupten dann wieder, dass mit DX11 CUDA eh überflüssig wird, kappieren aber bis heute nicht, dass DX... nicht in einer einzigen Profianwendung benutzt wird und es auch nie wird.
Nvidia ist es sowas von latte, ob später ihre Karten in Spielen über DX.. angesprochen werden. Die Industrie, die jetzt bereits auf CUDA gewechselt ist, freut sich schon jetzt über immense Geschwindigkeitsvorteile und Ersparnis beim Energieverbrauch...achne, die warten ja auf DIE EINE Applikation, die dann DX11 benutzt. Ich lache mich tot.
Als ob du damit rechnen dürftest, dass in einem von Fanboys infizierten Forum, die sich noch dazu nur auf den Gaming Sektor beziehen, verstehen würden, dass CUDA nur sekundär für Spiele genutzt wird und von Nvidia ganz bewusst für den Profibereich entwickelt wurde.
Die Fanboys behaupten dann wieder, dass mit DX11 CUDA eh überflüssig wird, kappieren aber bis heute nicht, dass DX... nicht in einer einzigen Profianwendung benutzt wird und es auch nie wird.
Nvidia ist es sowas von latte, ob später ihre Karten in Spielen über DX.. angesprochen werden. Die Industrie, die jetzt bereits auf CUDA gewechselt ist, freut sich schon jetzt über immense Geschwindigkeitsvorteile und Ersparnis beim Energieverbrauch...achne, die warten ja auf DIE EINE Applikation, die dann DX11 benutzt. Ich lache mich tot.
Zuletzt bearbeitet:
cosmicparty
Banned
- Registriert
- Aug. 2007
- Beiträge
- 843
@ thw witcher: die cpus sind heutzutage aber ne ecke besser und ich wüßte nicht, welches game cpu limitiert.
css zählt da ja wohl kaum noch zu.
es ist eher das gegenteil heutzutage der fall, dass sich die cpus langweilen und die gpu malochen muß...
css zählt da ja wohl kaum noch zu.
es ist eher das gegenteil heutzutage der fall, dass sich die cpus langweilen und die gpu malochen muß...
ww2warlord
Commander
- Registriert
- Juli 2006
- Beiträge
- 2.970
Vielleicht habe ich mich nur unklar ausgedrückt.
Aber ich wollte damit andeuten, dass der Spielemearkt auch zukünftig kaum von CUDA und deren Erungenschaften betroffen sein wird.
Der Profimarkt vielleicht schon - aber nur mit entsprechender Software ansonsten sehe ich ganz schnell schwarz.
Und durch DX11 sehe ich auch keine Daseinsberechtigung für den Spielemarkt mehr.
Wer CUDA und PhysX so toll findet, soll mir mal den gewissen Vorteil von AOE III zu Company of Heroes nennen
Falls man überhaupt die Physik spürt in dem altbackenden RTS.... in CoH hingegen merkt man eine Anwesenheit der Physik.
Prost.
Aber ich wollte damit andeuten, dass der Spielemearkt auch zukünftig kaum von CUDA und deren Erungenschaften betroffen sein wird.
Der Profimarkt vielleicht schon - aber nur mit entsprechender Software ansonsten sehe ich ganz schnell schwarz.
Und durch DX11 sehe ich auch keine Daseinsberechtigung für den Spielemarkt mehr.
Wer CUDA und PhysX so toll findet, soll mir mal den gewissen Vorteil von AOE III zu Company of Heroes nennen
![Zwinkern ;) ;)](/forum/styles/smilies/wink.gif)
Prost.
M
M@rco
Gast
CUDA ist aber nicht nur für Spiele gedacht und daher ist es sicherlich noch nicht Schnee von gestern...ww2warlord schrieb:CUDA ist eh Schnee von Gestern weil die Spieleentwickler fast nur noch für Konsolen ihre Spiele programmieren und diese dann mit ein wenig Aufwand auf den PC Portieren.
the witcher
Commander
- Registriert
- Dez. 2007
- Beiträge
- 2.312
@ww2warlord
zu deiner info AOE 3 nützt definitiv havok.
und es kommt auch drauf an, was die CPU in dem game noch alles zu bewerkstelligen hat und das ist in dem fall einfach zuviel des guten.
Und da ist die art der physik effekte erstmal zweitrangig, wobei ich sie nicht schlecht finde wie z.b. die einheiten durch die luft fliegen wenn ich mit meiner pferdeartellerie in die menge schieße oder wie bei den schiffen bei jedem einschlag teile davon fliegen usw.
Also so wirklich schlecht sind die effekte in diesem spiel nicht!
von daher ist die physX variante einfach eine bessere lösung, zumindest in dem fall und da gibts bestimmt noch weitere tittel denen es ähnlich ergeht![Zwinkern ;) ;)](/forum/styles/smilies/wink.gif)
@cosmicparty
ja nach 4 jahren ist CSS kein problem mehr, aber man kann auch alles schönreden![Augen rollen :rolleyes: :rolleyes:](/forum/styles/smilies/rolleyes.gif)
In 4 jahren kann man crysis auch ohne probleme auf ultra high flüßig durchzocken...
Aber wenn dir CSS zu alt ist, dann nimm einfach AOE als aktuelleres beispiel![Zwinkern ;) ;)](/forum/styles/smilies/wink.gif)
mfg
zu deiner info AOE 3 nützt definitiv havok.
und es kommt auch drauf an, was die CPU in dem game noch alles zu bewerkstelligen hat und das ist in dem fall einfach zuviel des guten.
Und da ist die art der physik effekte erstmal zweitrangig, wobei ich sie nicht schlecht finde wie z.b. die einheiten durch die luft fliegen wenn ich mit meiner pferdeartellerie in die menge schieße oder wie bei den schiffen bei jedem einschlag teile davon fliegen usw.
Also so wirklich schlecht sind die effekte in diesem spiel nicht!
von daher ist die physX variante einfach eine bessere lösung, zumindest in dem fall und da gibts bestimmt noch weitere tittel denen es ähnlich ergeht
![Zwinkern ;) ;)](/forum/styles/smilies/wink.gif)
@cosmicparty
ja nach 4 jahren ist CSS kein problem mehr, aber man kann auch alles schönreden
![Augen rollen :rolleyes: :rolleyes:](/forum/styles/smilies/rolleyes.gif)
In 4 jahren kann man crysis auch ohne probleme auf ultra high flüßig durchzocken...
Aber wenn dir CSS zu alt ist, dann nimm einfach AOE als aktuelleres beispiel
![Zwinkern ;) ;)](/forum/styles/smilies/wink.gif)
mfg
cosmicparty
Banned
- Registriert
- Aug. 2007
- Beiträge
- 843
@ the witcher: dann ist aber der einwand von ww2warloard doch gerechtfertigt.
wie gibts denn mit coh keine probleme? und die physik ist mit sicherheit besser als bei aoe3.
wie gibts denn mit coh keine probleme? und die physik ist mit sicherheit besser als bei aoe3.
ww2warlord
Commander
- Registriert
- Juli 2006
- Beiträge
- 2.970
Ja scheint wohl, dass ich mich geirrt habe. Ich habe der Liste direkt von Nvidia mehr Glauben geschenkt, als die News auf CB.
Die Physikeffekte in AOE III sind auch nicht wirklich auf gleicher Höhe, wie in CoH. Das liegt unter Anderem an die unterschiedliche Veröffentlichung.
AOE III gibts seit November 2005 und CoH wurde Ende September 2006 veröffentlicht.
Aber mal ohne Witz. Ich finde die fast schon erbärmlichen PhysX-Effekte in GRAW total für den Eimer. Wenn ich bedenke, dass für so eine langeweile eine mehrere hundert Euro Karte benötigt wurde und HAlf Life 2 läuft hingegen mit einer etwas stärkeren CPU aus dem jahre 2004 wunderbar.
Die Physikeffekte in AOE III sind auch nicht wirklich auf gleicher Höhe, wie in CoH. Das liegt unter Anderem an die unterschiedliche Veröffentlichung.
AOE III gibts seit November 2005 und CoH wurde Ende September 2006 veröffentlicht.
Aber mal ohne Witz. Ich finde die fast schon erbärmlichen PhysX-Effekte in GRAW total für den Eimer. Wenn ich bedenke, dass für so eine langeweile eine mehrere hundert Euro Karte benötigt wurde und HAlf Life 2 läuft hingegen mit einer etwas stärkeren CPU aus dem jahre 2004 wunderbar.
the witcher
Commander
- Registriert
- Dez. 2007
- Beiträge
- 2.312
@cosmicparty
ich glaube bei dir rede ich gegen eine wand....
Es mag ja sein das die physik bei company of heroes besser ist, wobei der unterschied nicht so rießig ausfallen wird wie ihr ihn darstellt ihr unterschätzt da AOE 3 gewaltig![Zwinkern ;) ;)](/forum/styles/smilies/wink.gif)
Aber der springende punkt ist, das die CPU ja noch andere dinge zu berechnen hat, außer der physik engine und da wären z.b. die hunderte von KIs bei AOE 3 und irgendwann geht der CPU dann halt die puste aus und es wird zuviel des guten.
Und genau in diesem punkt ist es sinnvoller, diese arbeit auf die GPU auszulagern
mfg
Edit:
@ww2warlord
graw kenne ich nicht, aber jeder macht mal anfänge und die physX karten gibt es ja in der form wie du sie beschreibst nicht mehr. bzw es werden keine neuen mehr produziert![Zwinkern ;) ;)](/forum/styles/smilies/wink.gif)
Und von daher würde ich das nicht mit der heutigen leistung gleichsetzen zumal du ja in deinem ersten post cuda bzw. nvidia angesprochen hast und jetzt von den ageia produkten redest![Zwinkern ;) ;)](/forum/styles/smilies/wink.gif)
ich glaube bei dir rede ich gegen eine wand....
Es mag ja sein das die physik bei company of heroes besser ist, wobei der unterschied nicht so rießig ausfallen wird wie ihr ihn darstellt ihr unterschätzt da AOE 3 gewaltig
![Zwinkern ;) ;)](/forum/styles/smilies/wink.gif)
Aber der springende punkt ist, das die CPU ja noch andere dinge zu berechnen hat, außer der physik engine und da wären z.b. die hunderte von KIs bei AOE 3 und irgendwann geht der CPU dann halt die puste aus und es wird zuviel des guten.
Und genau in diesem punkt ist es sinnvoller, diese arbeit auf die GPU auszulagern
mfg
Edit:
@ww2warlord
graw kenne ich nicht, aber jeder macht mal anfänge und die physX karten gibt es ja in der form wie du sie beschreibst nicht mehr. bzw es werden keine neuen mehr produziert
![Zwinkern ;) ;)](/forum/styles/smilies/wink.gif)
Und von daher würde ich das nicht mit der heutigen leistung gleichsetzen zumal du ja in deinem ersten post cuda bzw. nvidia angesprochen hast und jetzt von den ageia produkten redest
![Zwinkern ;) ;)](/forum/styles/smilies/wink.gif)
Zuletzt bearbeitet:
(Ergänzung)
C
captain carot
Gast
Ich hatte ehrlich gesagt um die Zeit keine Lust mir alles durchzulesen, aber erstens ist bisher DirectX wirklich keine Alternative für professionelle Software, zweitens stellt sich für mich als Spieler die Frage, besteht bei einem Physik Shader nicht sinnigerweise jede Physikengine über eine Schnittstelle, eben DX11 oder ein Open Gegenspieler, auf der Grafikkarte zu beschleunigen?
Denn mir persönlich wäre eine große Bandbreite im Physikengine Markt sehr recht. Vor allem, weil ich Physx einerseits für eine wirklich gute Engine halte, Havok genau das aber auch ist.
Wobei mir persönlich Physx teilweise realistischer vorkommt.
offensichtlich haben ja schon aktuelle GPU´s viel Leistung (je nach Auflösung, Qualitätseinstellung, etc.) um umfangreichere oder eben realistischere Physik als bisher in Spielen möglich war darzustellen.
Denn mir persönlich wäre eine große Bandbreite im Physikengine Markt sehr recht. Vor allem, weil ich Physx einerseits für eine wirklich gute Engine halte, Havok genau das aber auch ist.
Wobei mir persönlich Physx teilweise realistischer vorkommt.
offensichtlich haben ja schon aktuelle GPU´s viel Leistung (je nach Auflösung, Qualitätseinstellung, etc.) um umfangreichere oder eben realistischere Physik als bisher in Spielen möglich war darzustellen.
Modfather_XII
Lieutenant
- Registriert
- Aug. 2007
- Beiträge
- 595
Hi
Einfach so mal in den raum gestellt( nicht aufregen wen falsch ist)![Breites Grinsen :D :D](/forum/styles/smilies/biggrin.gif)
Kann das aber sein das Microsoft sich auf Intel seite stellt, weil Intel so wieso fast so stark ist wie Microsoft.
Weil damals AMD schon vor Intel 64 bit hatte, es aber nicht nutzen konnte weil es kein passendes program gabst.
Und kaum hatte Intel 64 bit prozzezoren, schon hatte microsoft eine 64 bit windows XP raus gebracht.
Ich denke das wäre für beide seiten Schlecht für intel sowie für Microsoft sich zu streiten.
Und AMD ist ja auch auf Intel seite gegangen weil Intel so stark ist.
Ihr müsst mal so überlegen, sehr viele (sagen wir mal ''Normale'') Normale Pc käufer kännen AMD nicht ATI nicht und Nvidia nicht aber Intel kännt fast jeder.
Und deswegen wär es schlecht für beide seiten wen die sich streiten würden ( Microsoft und Intel) schlecht.
Microsoft ist sehr stark, aber auch nur weil die bis jetzt das richtige gemacht haben.
Microsoft kann sich auch nicht alles erlauben, sonst würden ganz viele firmen sich von Microsoft abwenden.
Ein beispiel, warum hat Microsoft das kopier schutz von Vista entwas züruck geschraubt?
Weil viele firmen sich beschwert hatten.
Und eine Frage.
Nutzen nicht Wii, PS3 und Xbox 360 PhysikX ?
Einfach so mal in den raum gestellt( nicht aufregen wen falsch ist)
![Breites Grinsen :D :D](/forum/styles/smilies/biggrin.gif)
Kann das aber sein das Microsoft sich auf Intel seite stellt, weil Intel so wieso fast so stark ist wie Microsoft.
Weil damals AMD schon vor Intel 64 bit hatte, es aber nicht nutzen konnte weil es kein passendes program gabst.
Und kaum hatte Intel 64 bit prozzezoren, schon hatte microsoft eine 64 bit windows XP raus gebracht.
Ich denke das wäre für beide seiten Schlecht für intel sowie für Microsoft sich zu streiten.
Und AMD ist ja auch auf Intel seite gegangen weil Intel so stark ist.
Ihr müsst mal so überlegen, sehr viele (sagen wir mal ''Normale'') Normale Pc käufer kännen AMD nicht ATI nicht und Nvidia nicht aber Intel kännt fast jeder.
Und deswegen wär es schlecht für beide seiten wen die sich streiten würden ( Microsoft und Intel) schlecht.
Microsoft ist sehr stark, aber auch nur weil die bis jetzt das richtige gemacht haben.
Microsoft kann sich auch nicht alles erlauben, sonst würden ganz viele firmen sich von Microsoft abwenden.
Ein beispiel, warum hat Microsoft das kopier schutz von Vista entwas züruck geschraubt?
Weil viele firmen sich beschwert hatten.
Und eine Frage.
Nutzen nicht Wii, PS3 und Xbox 360 PhysikX ?
Was das genau mit dem Thread zu tun hat, ist mir noch schleierhaft. Jedenfalls sind deine Gedankengänge eher unpassend.
Microsoft und Intel waren in der Vergangenheit nicht wirklich gut aufeinander zu sprechen. Ist nun mal nicht ungewöhnlich, wenn zwei Platzhirsche aufeinander treffen.
Das lag aber auch an der 64 Bit Geschichte, wie du schon richtig vermutest, nur andersrum. Intel hatte zwar eher 64 Bit (Itanium), war aber für die Microsoft Welt nicht zu gebrauchen. AMD64 bot hingegen einen einfachen Upgradepfad, welcher zudem abwärtskompatibel war. Microsoft entschied sich für AMD und Intel musste sich notgedrungen geschlagen geben und AMD64 lizenzieren (EM64T bzw Intel64). Microsoft und Intel sind sich heute scheinbar immer noch nicht grün, während Microsoft und AMD die Zusammenarbeit intensivieren (siehe Microsoft Compiler).
Microsoft und Intel waren in der Vergangenheit nicht wirklich gut aufeinander zu sprechen. Ist nun mal nicht ungewöhnlich, wenn zwei Platzhirsche aufeinander treffen.
![Lächeln :) :)](/forum/styles/smilies/smile.gif)
Ähnliche Themen
- Antworten
- 100
- Aufrufe
- 20.472
- Antworten
- 50
- Aufrufe
- 4.988
T
- Antworten
- 39
- Aufrufe
- 4.778