News Catalyst 13.35 Beta mit Mantle und HSA Ende Januar

lechus85 schrieb:
@Herdware
verstehe, danke für die Info. Also im prinzip ähnlich wie beim alten Hybrid Crossfire, da konnte man ja leider auch nur eine schwache dedizierte Karte dazustecken.
Schade, denn das System, die Physikberechnungen auf die APU zu legen finde ich nicht so schlecht.


Jetzt vermischt du schon wieder zwei Funktion.

Dual-Graphics ist eigentlich bis jetzt ein Crossfire, es wird auf beiden das gleiche verarbeite bzw. abwechselt,
darum verdoppelt sich auch nicht der Grafik-Ram bei Crossfire Karten.
Das soll sich auch ändern das jeder Crossfire-Karte was anders erledigt, aber das kommt erst noch.

Diese Einbindung als Co-Prozessor, kann man wohl wie Quicksync bei Intel nehmen, oder der Cuda/PhysX Chip bei Nvidia.

Ich nutzte zb. den Intel iGPU für Virtual-vsync von Lucidlogix und zum komprimierten Aufnehmen von Gameplay und live Stream, auch von TVsendunge.
der APU von AMD könnte auch die aufgaben von CPU-PhysX übernehmen wenn nicht sogar die GPU-PhysX von Nvidia.
 
Herdware schrieb:
Ich gehe mal davon aus, das das mit allen AMD-Grafikkarten gehen wird. Vielleicht sogar mit Nvidia-Karten.

Sehe kein Grund, weshalb das nicht mit Nvidia Grafikkarten laufen soll.
Wenn es um High-End geht, wird aber kaum einer AMD APU benutzen... Von daher irrelevant(?).
 
Herdware schrieb:
Ich sehe da eher noch weniger Chancen, dass sich eine spezielle Physik-Berechnung nur für HSA-fähige AMD-APUs durchsetzen würde. Noch dazu, wenn die nur dann wirklich sinnvoll ist, wenn zusätzlich zur APU auch noch eine dedizierte Karte (von AMD?) vorhanden ist. Das dürfte ja eher der Ausnahmefall sein, bei APU-Systemen.

HSA hat immerhin die PS4 im rücken. da sehe ich gute chancen, dass entwickler es nutzen werden und es auch für den pc genutzt wird.
 
Gotha229 schrieb:
Mit diesem PhysX Zeugs werden doch auch garnicht wirkliche Pysiksachen berechnet finde ich, da wird eher was fürs Auge gemacht. Dass sich jetzt ein Fetzen Stoff irgendwie bewegt oder Steinchen von ner Mauer wegspritzen, ohne dass die Mauer kaputt geht finde ich kein richtiges Physik-Feature.

So wie ich das verstanden habe, hat das damit zu tun, dass diese Physik-Berechnungen quasi an der CPU vorbei passieren. (Was ja der Sinn der Aktion ist, die CPU zu entlasten.) Wenn man z.B. Mauern einstürzen lassen würde und die dann keine Deckung mehr vor Feindfeuer geben, muss die CPU (bzw. die darauf laufende Software) Bescheid wissen, welcher Mauerteil weg ist und wo die Trümmer liegen usw. Bei GPU-berechneter Physik ist das aber nicht der Fall. Spätestens im Multiplayer wäre das höchst problematisch, weil bei jedem Spieler die Trümmer wo anders landen könnten usw.
Deshalb nutzt man es halt nur für rein optische Effekte.

Daran dürften HSA bzw. APUs nichts ändern.
 
Zuletzt bearbeitet:
Regenwürmer schrieb:
Von daher irrelevant(?).

Naja... nen A10 7850K mit ner 670er NV und das wäre ja ein schönes Gaming System... irrelevant ist da a weng hart oder nicht?
 
Herdware schrieb:
So wie ich das verstanden habe, hat das damit zu tun, dass diese Physik-Berechnungen quasi an der CPU vorbei passieren. (Was ja der Sinn der Aktion ist, die CPU zu entlasten.) Wenn man z.B. Mauern einstürzen lassen würde und die dann keine Deckung mehr vor Feindfeuer geben, muss die CPU (bzw. die darauf laufende Software) Bescheid wissen, welcher Mauerteil weg ist und wo die Trümmer liegen usw. Bei GPU-berechneter Physik ist das aber nicht der Fall. Spätestens im Multiplayer wäre das höchst problematisch, weil bei jedem Spieler die Trümmer wo anders landen könnten usw.
Deshalb nutzt man es halt nur für rein optische Effekte.

Daran dürften HSA bzw. APUs nichts ändern.

Okay, dann muss man in Zukunft wohl einfach hoffen, dass Spiele immer mehr auf multi-core optimiert werden, so wie bei X-Plane 10, das laut Systemanforderungen sogar mehrere Prozessoren nutzen kann.
 
Kartenlehrling schrieb:
jedenfall konnte man bei AMD immer einen recht kleine Nvidiakarte für PhysX beipacken um ausreichend viele FPS zu bekommen.
Und ich habe festgestellt das ein schneller Ramtakt auf der Grafikkarte wichtig war,
und die Grafikkarte nie 100% belaste wurde.

PhysX ist ehrlich gesagt, der letzte Schrott. Wer mal Kerbal Space Program gespielt hat, weiß das. Die Physikengine erzeugt Phantomkräfte auf die Objekte und sobald mal eine große Kraft wirkt, gerät alles durcheinander und es entstehen die merkwürdigsten Dinge.
 
@ e-Laurin

Es ist sehr schwer eine phsyikalische Simulation so hinzubekommen, dass sie numerisch stabil ist.

Nomalerweise macht man zusätzliche Anforderungen an die Eingabedaten oder an die Simulation selbst, wie zum Beispiel dass nur Geschwindigkeiten bis 30 km/h auftreten dürfen weil sonst die Simulation instabil wird. Um solche Instabilitäten zu vermeiden werden dann zusätzlich meist entsprechende Variablen auf einen maximalen Wert begrenzt. All das führt meist zu einer Vielzahl an Magic Numbers, welche man alle entsprechend wählen muss.

Alternativ kann man die Simulation auch regelmäßig bewerten und gegebenfalls die Simulation anpassen: Ist mein Zeitschritt noch klein genug? Ist die SP/DP-Genauigkeit noch ausreichend? Sind die physikalischen Vereinfachungen, die man getroffen hat, noch im Rahmen der Fehlergenauigkeit? Ist das verwendete numerische Verfahren im Moment gültig und sinnvoll? Das Ganze ist nicht nur relativ aufwändig zu implementieren, sondern sorgt auch für einen großen Geschwindigkeitverlust.

Da Physx in Echtzeit laufen soll, hat sich NVIDIA für die erste der beiden Lösungen entschieden. Somit ist es die Aufgabe des Benutzers der Bibliothek dafür zu sorgen, dass die Magic Numbers und die Eingabedaten passend gewählt sind, damit die Simulation stabil ist. Deswegen vermute ich einfach einmal, dass die Probleme in Kerbal Space Program (ohne es jemals gespielt zu haben) nicht an Physx selbst liegen, sondern an der schlechten Implementierung davon. Alternativ könnte es auch sein, dass es für die spezielle Problemstellung des Spiels, wegen den vielen speziellen Annahmen die eine solche Bibliothek trifft, weniger geeignet ist.
 
Zuletzt bearbeitet:
Die Physikengine wird in KSP in so ziemlich allen Bereichen gefordert: Aerodynamik, Gravitation, Scherr-, Zug- und Druckkräfte, Reibung, Kollision usw. Was eigentlich nur noch fehlt, ist partielle Zerstörung a la Red Faction. Der Geschwindigkeitsbereich geht im Normalfalls bis ca. 20 km/s, in Extremfällen auch mal 50 km/s. Insbesondere im Extremfall ist es nicht unüblich, dass die Physik völlig am Rad dreht und einen mal eben auf 10fache Lichtgeschwindigkeit beschleunigt. Aber selbst bei moderaten Bedingungen fangen Dinge an, sich aufzuschaukeln, weil von irgendwo her plötzlich eine Phantomkraft wirkt.

Machen können die Entwickler von KSP hier nicht viel. Einige Workarounds haben sie schon eingebaut (zB, dass intern mit Big Integers statt Doubles gerechnet wird, da die Präzision und die Zahlendichte sonst nicht ausreichen), aber mehr ist leider nicht drin. Sie könnten höchstens noch versuchen eine eigene Physikengine zu bauen, aber das wird auf absehbare Zeit nicht passieren.
 
e-Laurin schrieb:
PhysX ist ehrlich gesagt, der letzte Schrott. Wer mal Kerbal Space Program gespielt hat, weiß das. Die Physikengine erzeugt Phantomkräfte auf die Objekte und sobald mal eine große Kraft wirkt, gerät alles durcheinander und es entstehen die merkwürdigsten Dinge.

Wie Nai geschrieben hat liegt da nicht unbedingt der Fehler bei PhysX. Das Problem hat man auch bei Sandbox Universe. Wenn man dort den Zeitraffer zu schnell einstellt, dann werden die Berechnungszeitschritte im Verhältnis zur zurückgelegten Strecke der Planeten zu groβ. Im nächsten Berechnungsschritt sind die Planeten dann schon einfach zu weit gewandert, sodass er aus seiner Bahn fällt.
Und das Ganze wird von der CPU berechnet, wobei man auch eine Art Warnlämpchen hat, das einem anzeigt, wenn der Berechnungsfehler zu groβ wird.
 
Ich finde die Stellungnahme von AMD im Bezug auf die sog. Mikroruckler interessant. Vor einiger Zeit war die Einstellung ja noch ungefähr diese: Mikroruckler existieren nicht und wenn doch, dann ist das überhaupt nicht störend. Zu dieser Zeit hat NVidia schon dagegen schon erweiterte Maßnahmen gesetzt. Jetzt ist AMD allerding auf Offensive und geht gegen dieses Problem vor, als ob es der Erzfeind allen Spielgenusses ist :evillol:

Auf jeden Fall eine tolle Entwicklung. Ich hoffe, dass HSA zukünftig auch mit den Intel Grafikeinheiten funktioniert. Das ist ungenutztes Potential!
 
Wenn man irgendwann soweit ist, dass die gängigen Grafikkarten von Software gescheit genutzt werden, dann ist da Intel auch ganz schnell dabei, denke ich. Dass sie auch auf gute Grafikleistung machen können sieht man ja, und mit dem Geld was Intel zur Verfügung hat, ist das sicher kein Problem da noch aufzuholen. Und wenn nicht, dann wird auch nicht alle Welt gleich von heute auf morgen auf AMD umsteigen.
 
Zurück
Oben