News PhysX-Beschleunigung auf ATi Radeon HD 3800?

Ich versteh nicht, warum alle immer meinen, ATI hat dann Havok UND PhysX... dass ist unfug.

Wenn ATI PhysX unterstützt, dann werden die Hersteller die Engine wählen, die den meisten zugänglich ist -> PhyX ... und NVidia hat in dem Punkt gewonnen.

Ferner habe ich noch nicht einen nennenswerten Ansatzt zu Havok und GPU-basierte Berechnung gesehen. Diese Demo mit HavokFX und der Partikelphysik ist etwas spärlich, um von Physik zu reden.

Weiter denke ich, dass Intel die Havoktechnologie für sich umsetzen will. Denkt ihr alle ernsthaft, dass die Intel F&E mal eben so für AMD/ATI arbeitet? Ich lach mich scheckig!

Ich !vermute!, dass Intel an die Integrierung eines Cores speziell für diese art von Berechnungen in die CPU denkt. Und wenn es Intel schaffen sollte, dass sämtliche Anwendungen davon profitieren -was theoretisch möglich ist, da die CPU das eh berechnung muss und entscheiden kann, wie sie das tut- dann steht der klare gewinner fest.

Das ist dann unabhängig von jedem PhysX-Vorsprung Intel+Havok... Die Architektur wird dann an AMD lizensiert und der Schuh passt.

Lg, Cadenza
 
NVidia verteilt PhysX so voluntär, damit Sie Kunden binden - richtig, dass bringt jetzt nicht soviel profit. Nur wenn sie Lizenzen verkaufen würden, dann wären auch nur x.000 EUR/Lizenz zu holen und der Support wäre mager, weil der Etat für Spielentw. eh meist knapp ist.

Jetzt kann eigentlich jeder PhysX einbauen, was wohl viele Endbenutzer dazu animiert, auch auf die PhysX-Performance zu achten. Wenn sich nun hunderttausende Kunden ne neue Graka holen, dann ist der Profit daraus schon recht beachtlich.
 
Ja nun kommt das böse erwachen für amd.
Die haben angenommen eine gute serie auf den markt zu werfen 4xxx und dann bringt die auch wirklich ganz gute leistung gegen nvidias neuen karten und dann zeigt nvidia das wahre können und bringt eine neue innovative idee, die nun in die karten von amd sicher nicht so einfach integriert werden könnne, da nvidia hardwaretechnisch sicher etwas mehr in ihre karten integriert hat, was amd nun fehlt.
Wenn man alleine mal sieht, wie gut man rechenlast von der cpu auf die grafikkarte verteilen kann. Das cuda paket von nvidia ist einfach spitze und das sieht man auch an den ersten benchmarks. Das wird sehr schwer und teuer für amd.

Außerdem kann die amd karte nicht wirklich physix so ohne weiteres anbieten. Dieser irrglaube, dass nun jemand mal schnell was dafür geschrieben hat ist sowas von unrealistisch.
 
Damit ist AMD in einer win-win-Situation. Sie haben eine Hardwareunterstützung für PhysX und Havok und decken somit den kompletten Spielemarkt ab. PhysX läuft bei AMD nicht über CUDA, sondern über eine eigene GP-Schnittstelle.
@über mir: Du überschätzt das 1.) total und 2.) hat AMD eigene Schnittstellen dafür. Da gibt es keinen Nachteil. Und als Vektorprozessor sind die AMD-Chips besser geeignet, da deutlich breiter (bis zu 256Bit) mit deutlich weniger Latenz.
 
Zuletzt bearbeitet:
Cadenza schrieb:
Wenn ATI PhysX unterstützt, dann werden die Hersteller die Engine wählen, die den meisten zugänglich ist -> PhyX ... und NVidia hat in dem Punkt gewonnen.
Viele werden auch weiterhin auf Havok setzen. Die wird dadurch nicht vom Markt verschwinden.

Das Konzept, das hinter Havok steckt soll auch deutlich ausgeklügelter sein, als das von PhysX. PhysX verlagert praktisch alles auf die GPU, während Havok einen Mittleweg zwischen CPU und GPU Physik finden will. Die Lastverteilung soll dort intelligenter vorgenommen werden, als bei PhysX.

Wer weiß. Aus diesem Grund werden vielleicht auch viele weiterhin die Havok Engine verwenden auch wenn diese von nVidia nicht unterstützt wird.



Diese Demo mit HavokFX und der Partikelphysik ist etwas spärlich, um von Physik zu reden.
Das hat ja auch gar nichts mit dem zu tun, wie man heute Physik auf den GPUs berechnet. Damals war das das SM3 und wurde über die teilweise ungenutzten Vertex-Shader druchgeführt.
 
Mal abgesehen davon, dass ich ganz klar sagen muss: ICH kaufe eine Grafikkarte, nicht wegen PHYSIK oder KI Berechnung, sondern wegen der GRAFIK!

Physik soll die drecks CPU berechnen, die dreht in den meisten games eh nur däumchen weil die Grakas heißlaufen. Besser wäre wenn die Grafikkarte bei der KI Berechnung helfen würde, aber das liegt wohl auch der CPU besser, nehme ich stark an. Denn das würde tatsächlich was bringen, die CPUs bremsen ja bei RTS games nach wie vor "dank" der hohen Belastung durch berechnung der KI und was weiß ich noch...
 
Ist euch schon aufgefallen, dass bei diesem Screen ganz unten bei Adress Ho ho ho steht?
Das könnte doch auch für einen Fake sprechen.
 
AMD hat auch ein PhysX unterstützung ,was damit genau gemeint ist weis ich netIhr könnt es euch mal durchlesen.Ich hab da ein bild gemacht
 

Anhänge

  • PhysX.jpg
    PhysX.jpg
    201,7 KB · Aufrufe: 703
Ich habe gehört, dass AMD sich zumindest in Sachen Physik mit Intel zusammentun möchte und die Havok-Engine auf den neueren Karten einführen möchte. :cool_alt:
Daher wundern mich diese News ein wenig.
 
Vendetta schrieb:
Physik soll die drecks CPU berechnen, die dreht in den meisten games eh nur däumchen weil die Grakas heißlaufen.

Vielleicht ist die Berechnung auf der GPU einfach x-mal schneller?!
Sieht man ja schon an den h.264 benchmarks.
Intel müsst neue CPU's rausbringen, wo ein oder zwei Cores für Physikberechnung optimiert werden.
 
Falls dieser Schritt wirklich so klein war, dürfte der nächste
Schritt dann CUDA auf ATI sein. Das dürfte dann nvidia nicht
mehr so kalt lassen :)

LG
 
Interessant ist höherwertige Spielphysik auf jeden Fall. Z.B. wird bei Mirrors Edge Physx dazu benutzt, die Masseträgheit der Charaktere inklusive Hauptchara zu simulieren, laut DICE sogar für Nahkampfangriffe.
Wichtig wäre einfach, dass die Physiknutzung nicht auf Kosten des Gameplays geht und Spieler mit etwas älteren Karten nicht in die Röhre gucken, weil ein Titel nicht vernünftig läuft.
 
Ein gemeinsamer Standard und keine extra Karte - danke, denn genau so habe ich mir das im besten Fall vorgestellt.
 
Tochter freenet hat Mutter mobilcom gekauft. mc hatte bedeutend mehr umsatz + mitarbeiter.
 
Es gibt Neuigkeiten:

physx-gpu-acceleration-radeon-update

Radeon PhysX Creator: 'NVIDIA Offered To Help Us', 'Expected More From AMD'
NGOHQ schrieb:
Nvidia is now helping us with the project and it seems they are giving us their blessings. It’s very impressive, inspiring and motivating to see Nvidia's view on this. Why they help us? My best guess would be: They probably want to take on Intel with CUDA and to deal with the latest Havok threat from both AMD and Intel.

Andy
 
Zuletzt bearbeitet:
Das klingt ja nun wirklich gut

Also kann man es ausschliessen das es ein Fake war.

Wenn sogar Nvidia selbst auf den "kleinen" Programmierer zu kommt und ihm die Hilfe anbietet ist das bestimmte eine riesen ehre für ihn :D

Aber iwie schonwarm das ein Privat Programmierer sich an sowas setzten muss und nicht ATI selbst eben wat schreibt
 
ähm...was spricht gegen eine 60 oder 70€ Graka ala 3850? ô.ò

kommt natürlich drauf an wieviel man von der physik sieht...
 
kann ich irgendwo diese modifizierten treiber ladne damit ich es auch für ati benutzen kann?
 
Gibt es jetzt modifizierte treiber für ATI's?
Wenn ja wo?
Wann kommt denn endlich ein Physik Treiber für ATI?
Überall wird nur drüber gesprochen aber ich sehe keine Ergebnisse!?
 
Zurück
Oben