• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

News Havok bringt neue Generation der Physics Engine

Kartenlehrling schrieb:
Havok ist Intel und seit 2008 arbeite schon AMD
Trotzdem ist es immer noch das selbe Unternehmen und es heißt noch so. Es wurde ja nur von Intel aufgekauft. In wie weit sich AMD dort wirklich beteiligt weiß ich nicht, aber ich bezweifle, dass die sehr viele Resourcen dort investieren.
Besonders seitdem AMD die ganzen Linux Kernel Developer hier in Deutschland rausgeschmissen hat und den Treibersupport der älteren Grafikkarten eingestellt hat habe ich den Eindruck, dass sie Geld in der Softwareentwicklung einsparen wollen.

Ich glaube der Weg ist geebnet...
Scythe1988 schrieb:
wenn jetzt die konsolen auf havoc setzen, dann war es das ja bald mit physx.

Na ich weiß nicht, ob nVidia das so einfach mit sich machen lässt. Laut dieser Liste gibt's für die PS4 jedenfalls zwei Physik Middleware Pakete. Havok und PhysX. Drei, wenn man Naturalmotions Euphoria-Engine auch noch als Physik-Engine ansehen will.

Warum die Havok-Engine jetzt unbedingt besser sein sollte als PhysX würde ich jetzt gerne mal wissen. Jetzt speziell im Konsolenbereich. So wie ich den Artikel interpretiere wird die Havok-Engine nämlich auch nicht per Hardware beschleunigt, sondern läuft nur auf der CPU. Dann kann man auch die PhysX-Engine verwenden.



PiPaPa schrieb:
OpenCL hat sogar noch den Vorteil das es Teile auf die CPU "auslagern" kann, sprich beide Prozessoren, sowohl CPU als auch GPU, genutzt werden.
Was nützt das einem Spieleentwickler, wenn er nicht die passenden Tools dazu hat. Developer brauchen vernünftige Profiler und Debugger um effizienten Code schreiben zu können und da bietet dir nVidia wenigstens auch etwas ordentliches an.

Bei nVidia ist es halt das Gesamt-Paket. Es ist nicht nur die PhysX-Engine, sondern auch die entsprechenden Tools, die sich dann auch perfekt in die Entwicklungsumgebung integrieren lassen. Das ist nicht so eine zusammengewürfelte Toolsammlung wie bei OpenCL.


Geschwindigkeitsvergleiche sind immer recht schwer zu treffen, da es immer auf den Anwendungsfall ankommt. Manche Aufgaben kannst du mit CUDA besser erledigen und manche mit OpenCL.
Die Texture-Dekompression in Rage war ja anscheinend nunmal ein Fall der mit OpenCL nicht zu bewältigen war, sonst hätte der OpenGL Verfechter Carmack das sicherlich mit OpenCL erledigt und nicht mit CUDA.
 
Zuletzt bearbeitet:
Diablo III (Havok was initially used but later replaced by a custom engine)[5]
http://en.wikipedia.org/wiki/Havok_(software)
Gut zu wissen, bleibt noch der Blizzard fail.

Und warum redest du hier eigentlich von der CPU?
Weil das Game nur mit Sandy oder Ivy max. OC in Massenschlachten richtig flüssig läuft. Müsst ihr mal testen mit zb. einem Core 2 Quad und einer Titan, lasst den Paladin dort wo ihr ihn aufgreift die Holzfalle die Treppe runter stoßen, sonst passiert gar nix am Bildschirm und durch die Domino Kettenreaktion ist schon schluss mit lustig bei den FPS für die Zeit in dem das Holz wohl korrekt die Treppe runter kullert.
 
zehnmal weniger Speicher
Wieviel ist denn 10 mal weniger? Soll ein Zehntel des Ursprungverbrauch gemeint sein? Wie rechnet man das?

Ist weniger dann 0,01 oder -0,09?
 
Zuletzt bearbeitet von einem Moderator:
abulafia schrieb:
Wieviel ist denn 10 mal weniger? Soll ein Zehntel des Ursprungverbrauch gemeint sein? Wie rechnet man das?
Na da steht doch 10 Mal weniger und nicht ein Zehntel weniger. Sollte doch wohl klar sein.


Towelie schrieb:
Naja. Das gilt ja auch heute noch. News & CUDA Compiler SDK
Theoretisch hat AMD das Recht CUDA in seine Treiber zu implementieren. Dann würde auch die PhysX-Engine auf AMD Karten laufen.
Ganz so einfach wie nVidia das behauptet soll es aber in Wirklichkeit laut AMD wohl nicht sein. Die genauen Details kenne ich da leider nicht. Ob das stimmt weiß ich nicht.
Also entweder will AMD das nicht oder nVidia legt AMD da wirklich Steine in den Weg. Ich denke mal beides ist der Fall.
 
Zuletzt bearbeitet:
Ausserdem steht da verhandeln, das kann ein Übersetztungfehler sein aber für mich heisst Handeln immer noch ein geben und nehmen.

So habe Luciano Alibrandi, PR-Direktor von Nvidia in Indien, gegenüber CustomPC verlauten lassen,
dass PhysX eine offene Plattform werden soll. Jeder, der diese nutzen möchte, könne mit Nvidia darüber verhandeln.
 
Zuletzt bearbeitet:
Ich nehme aber auch mal stark an, das AMD das überhaupt nicht möchte.
Ich würde das jedenfalls nicht wollen. Die setzen voll und ganz auf OpenCL. Warum sollten sie dann die API ihres Konkurrenzen in ihre Treiber implementieren? Damit behindern sie ja den Fortschritt von OpenCL.

AMD würde sich höchstens dazu gezwungen sehen, wenn sie dadurch übermäßig viele Käufer verlieren würden. Momentan scheint sich das wohl noch in Grenzen zu halten. Ich denke mal, dass recht wenige wegen dem CUDA Support eine nVidia Karte der ATi Karte vorziehen, obwohl ich sagen muss, dass das für mich persönlich schon einer der Gründe ist, warum ich in letzter Zeit nur noch nVidia Karten kaufe.

Ich bin doch schon immer wieder froh nVidia Karten zu haben, wenn ich ein PhysX-Spiel spiele und ich ärgere mich auch ab und zu, wenn ich auf der Arbeit mal wieder ein Passwort-Knacker habe, der CUDA voraussetzt und ich nur eine AMD Karte im Rechner habe. Das ist letzten Monat erst wieder passiert.

Von daher ist das für mich schon ein nicht ganz so unwesentlicher Punkt, warum ich zu nVidia Karten greife. Vielleicht sollte sich AMD da doch mal Gedanken zu machen, wenn sie den Anschluss nicht völlig verlieren möchten.
 
noxon schrieb:
Ich denke mal, dass recht wenige wegen dem CUDA Support eine nVidia Karte der ATi Karte vorziehen,
Bei den Home-Karten mag der Unterschied noch gering sein. Im Serverbereich kann CUDA sehr wohl den Unterschied zwischen 2 Herstellern bedeuten.
 
Bei mir sind auch allg. Nvidia Features der Grund zum Kauf (neben CUDA und PhysX) auch NVENC, 3d Vision (funkt weit besser als AMDs Pendant), adaptiv vsync, fps limiter/power target, Leistungsaufnahme allg .... und hätt ich das Geld Surround (inkl. Bezel). Der Treiber gefällt mir auch besser (speziell mit nvInspector).
Bei AMD ist nur (Preis/)Leistung (ink. Übertaktung) und GPU Leistung speziell in OpenCL wirklich interessant. ZeroCore-Power-Feature theor. auch, praktisch verwende ich aber eher Energiesparmodi als Bildschirm aus.
 
zett0 schrieb:
Besonders realistisch sieht das aber nicht aus, da die blauen Objekte nicht miteinander interagieren

+1

sieht iwie nach runtergeplummst und liegengeblieben aus an vielen stellen. ich hatte von der demo viel mehr erwartet. aber so? nee, danke. hat mich noch lange nicht überzeugt.
 
MahatmaPech schrieb:
ich hatte von der demo viel mehr erwartet. aber so? nee, danke. hat mich noch lange nicht überzeugt.
Die Demo soll ja auch nicht schön aussehen, sondern nur die Technik demonstireren. Daher auch Tech-Demo.
Die Demo zeigt halt nur mit wie vielen Objekten die Engine umgehen kann. Dafür ist die Interaktion der einzelnen Objekte nicht erforderlich. Dafür gibt es andere Tech-Demos, die dies demonstrieren.
 
noxon schrieb:
Die Demo soll ja auch nicht schön aussehen, sondern nur die Technik demonstireren. Daher auch Tech-Demo.
Die Demo zeigt halt nur mit wie vielen Objekten die Engine umgehen kann. Dafür ist die Interaktion der einzelnen Objekte nicht erforderlich. Dafür gibt es andere Tech-Demos, die dies demonstrieren.
Es ist wohl ein großer Performance-Unterschied, ob für jedes Feature eine unabhängige Tech-Demo gemacht wird oder alle in einer gezeigt werden...
 
Es gibt Tech-Demos, die alle Features einer Engine präsentieren sollen, wie zum Beispiel die Tech Demo der Unreal 4 Engine oder aber auch Tech-Demos, die nur als Textprogramme dienen sollen. Ich bin mir sicher, dass du bei dieser Havok-Demo auch jede Menge Debug-Informationen wie zum Beispiel den Speicherverbrauch anzeigen lassen kannst und das diese hier nur ausgeblendet wurden.

Wenn es dich also interessiert, wie groß der Speicherbverbrauch der Engine ist, wenn sie eine frei einstellbare Anzahl an Elementen verwaltet, dann kannst du das mit dieser Demo machen.
Da darfst du jetzt keine zusätzlichen Features einbauen, die den Speicherverbrauch oder die Performance unnötig belasten, sonst nützt dir die ganze Demo nichts. Das ganze sind hier Entwickler-Testprogramme die du sicherlich auch im SDK wiederfinden wirst und keine Anschauungsobjekte.
 
Zuletzt bearbeitet:
noxon schrieb:
Es gibt Tech-Demos, die alle Features einer Engine präsentieren sollen, wie zum Beispiel die Tech Demo der Unreal 4 Engine oder aber auch Tech-Demos, die nur als Textprogramme dienen sollen. Ich bin mir sicher, dass du bei dieser Havok-Demo auch jede Menge Debug-Informationen wie zum Beispiel den Speicherverbrauch anzeigen lassen kannst und das diese hier nur ausgeblendet wurden.

Wenn es dich also interessiert, wie groß der Speicherbverbrauch der Engine ist, wenn sie eine frei einstellbare Anzahl an Elementen verwaltet, dann kannst du das mit dieser Demo machen.
Da darfst du jetzt keine zusätzlichen Features einbauen, die den Speicherverbrauch oder die Performance unnötig belasten, sonst nützt dir die ganze Demo nichts. Das ganze sind hier Entwickler-Testprogramme die du sicherlich auch im SDK wiederfinden wirst und keine Anschauungsobjekte.
Was mich im Endeffekt interessiert ist, wie die Engine in einem fertigen Spiel und auf welchem PC läuft und dazu gehören weit mehr als nur ein paar blaue Bälle die schnurstracks den Weg zum Boden finden.
 
Zurück
Oben