News Ageia bringt PhysX fürs Notebook

Die Firma wird eher wieder pleite gehen als sie dachte.. so ein blödsinn, die karte an sich schon. aber dann für notebooks.
frage mich ernsthaft, was da für typen am werk sind.
dachten sie machen den ganz großen reibach und greifen voll ins klo. selbst schuld, wie ich finde.
 
Hab deren Stand vorhin gar net gesehen, schade, hätte mich interresiert...(habe vllt. zuviel den Hostessen hinterher gegafft :))
sehe auch Potenzial in der Karte...

offtopic:

wir hatten doch letztens so nen "Progamer" in nem Tread, der absolut keinen PC unter 5000€ kaufen wollte....
auf der GC gabs den Thorshammer Rheingold für 29.990 €, vielleicht genau das richtige für den....
 
Zuletzt bearbeitet:
Also in der aktuellen PCGH haben die solche Karten getestet.

Man sieht in diesem Test u.a. 2 Screenshots. Einer mit und einer ohne PhysX Karte.
Bei dem Screen mit der Karte wurden zb. bei einer Explosion mehr Teile, die durch die Luft fliegen, angezeigt.

Schreibe das, weil einige meinten, dass das gar nichts bringen würde.
 
Ich bin ja am überlegen ob ich mir eine PhysX Karte in meinen PC baue, aber in´s Notebook Geld für sowas zu investieren.....

Sinn hat so eine Karte nur in einem 5000€ Dell Notebook....also ein paar seltene male auf dem Markt....rentiert sich nie!
 
Fencheltee04 schrieb:
das läuft doch bei ner gf8800 oder hd2900 bei 1% deren leistung mit.

Das wohl weniger. Du darfst nicht vergessen, dass der PhysX-Chip auf genau solche Berechnungen optimiert wurde, da reicht auch eine niedrigere Taktung aus um eine hohe Leistung zu erreichen.

Aber wie du schon richtig angesprochen hast, is Crysis ein gutes Beispiel das beweist, dass so eine Spezialkarte nicht zwangsläufig notwendig is, um trotzdem überzeugende physikalisch korrekte Effekte zu erzeugen.

Die Idee dahinter is ja nicht schlecht, aber das ganze Konzept stammt aus einer Zeit, in der noch nicht so klar war, dass Multi-Core-CPUs zum Standard werden. Und eben mit diesen reduziert sich der Bedarf an solchen Spezialchips, auch wenn sie durch die Optimierung leistungsfähiger sind. Aber wenn wir sowieso bald vier, acht, sechzehn und mehr Cores haben, wer braucht dann noch so einen Schnickschnack?
 
in Zeiten von MehrKern-CPUs vollig überflüssig - hätten sowas vor 5 Jahren aufn Markt bringen sollen
heutzutage wäre jede MehrKern-CPU in der Lage die nötigen Berechnungen "nebenbei" durchzuführen...
 
Das denk ich nicht. Das Ding hat eine ernorme Leistung für solche Berechnungen, die von aktuellen Spielen warsch. kaum genutzt wird.
Ich glaub schon, dass es sinnvoll ist für die Firma, sowas für Notebooks parat zu haben. Es gibt ja durchaus Gamer, die nurnoch auf dicken Notebooks zocken. Und wenn Notebookzocker sschon prinzipiell außen vor wären, würde noch mehr dagegen sprechen, Spiele dafür zu entwickeln.

Zum Thema Graka: Ich weiß ja nicht, ob Grakas für korrekte Berechnungen zu gebrauchen sind. Die haben zwar viel Leistung, aber die ist halt genau auf die Anforderung des Darstellens ausgelegt. Grakas werden zum Beispiel auch nicht für 3D Renderiungs genutzt, weil die Genauigkeit einfach nicht da ist, die eine CPU hat.

Aber wenn die den Stromverbrauch weiter senken, und das Drumrum kleiner machen, könnten wir vllcht bald onBoard Physikbeschleunigung auf den ersten Zockermainboards sehen :D
 
das teil für den desktop zu bringen war schon schwachsinn, für ein NB ist es einfach nur noch dumm.

sorry, aber wie nVidia und AMD/ATi ja schon oft genug gesagt haben, können ihre karten das auf dauer auch und ich glaube, dass wenn man den preis für so eine PPU in eine bessere graka steckt hat man da mehr von im großen und ganzen.

so eine karte könnte vllt interessant sein, wenn man echt sachen berechenen muss die nur mit Physik zu tun haben (projekte von UNI´s usw). aber für spiele ist es auf dauer nicht das wahre, siehe Alan Wake, welches einen eigenen Physik-Thread auf der CPU bekommt und somit sowas nicht brauchen wird (soweit ich informiert bin)
 
Traurig ist eher die dummheit und ahnungslosigkeit der vielen nutzer.
Es wird immer nur an spiele gedacht, mehr passt in den kopf eines normalmenschens nicht mehr rein.
 
das bereits viele renderprogamme wie 3D max, maja und co die karten unterstützen weis keiner... das spart ne ganze menge zeit. ich meine auch mal gelesen zu haben das einige FEM programme die karten nutzen. also im industiebereich.

Zum Thema Graka: Ich weiß ja nicht, ob Grakas für korrekte Berechnungen zu gebrauchen sind. Die haben zwar viel Leistung, aber die ist halt genau auf die Anforderung des Darstellens ausgelegt. Grakas werden zum Beispiel auch nicht für 3D Renderiungs genutzt, weil die Genauigkeit einfach nicht da ist, die eine CPU hat.

das ist leider nicht ganz richtig. die neuen gens von GPU's sind frei programmierbar. so nutzt z.b. folating@home ATI karten bei der berechnung und die sind nicht grade unfix. bisher wurden die GPU's beim rendern nicht mit einbezogen weil es schlicht und einfach nicht möglich war die GPU frei anzusprechen. das ändert sich jedoch seit kurzen.
nun müssen nurnoch die progammcoder das mit in den code aufnehmen. von Nvidia gibt es doch schon so eine rechenbox mit 2 GPU's
nvidia tesla
die rechnen wissenschaftliche sachen und andere dinge die mit C umgesetzt werden.
 
RaiseHell schrieb:
Meiner Meinung nach sind diese PhysX-Karten reine Geldmacherei. Es is halt immer wieder dasselbe: man versucht, dem Konsumenten irgendwelche Dinge schmackhaft zu machen, die eigentlich niemand braucht.

Ha ha ha. Der ist gut. Eine 3d-Karte ist auch reine Geldmacherei. Ein Sound ist auch reine Geldmacherei. Über 90% der Computer sind wohl reine Geldmacherei. Also die Idee ist wirklich gut, einem Bauteil eines Computers vorzuwerfen, es seine reine Geldmacherei...:p
(Nur als kleinen Denkanstoß: Man schaue sich in der Wirtschaft um, wie viele Produkte reine Geldmacherei sind)

Wenn die Mehrleistung stimmt, würde ich mir so eine Karte vielleicht zulegen. Gegen mehr Physik im Spiel hätte ich nichts einzuwenden, ist ja leider mit das wenige was mir an heutigen Spielen gefällt. Ageia muss halt zeigen, das ihre Karte mehr leisten kann, als eine neue Spieleengine wie z.B. bei Crysis. Ob übrigens die Leistung heutiger CPUs dafür ausreicht würde ich nicht so einfach festlegen. Meist sind diese Physik-Prozessoren hochoptimiert und in dieser speziellen Berechnung selbst aktuellen Prozessoren um den Faktor 100 überlegen. Selbst Mehrkerncpus dürften da enorme Schwierigkeiten haben gleichzuziehen. Ein Quadcore kommt da imho bei weitem noch nicht hin.
Ob jemanden der Mehrpreis für so eine Karte gerechtfertigt erscheint oder nicht, darf ja jeder selbst entscheiden.
 
Ich habe mir nun sämtliche Beiträge durchgelesen und möchte nun auch ein Wörtchen zu dem Thema sagen.
Wie einige Wenige, die sich überhaupt einmal die Mühe gemacht haben sich einmal richtig mit dem Thema zu befassen, schon gemerkt haben sind hier gut 75% einfach nur solche, die man als "Nachredner" bezeichnet. Einige sind nicht einmal in der Lage zu beschreiben, warum diese Karten "doch total für den Arsch sind". Es gab jedoch auch einige Argumente, die man durchaus als solche bezeichnen konnte, zum Beispiel zum Thema Multi-Core Prozessoren und GPUs sowie niedrigere Frameraten und die technischen Daten eines solchen Physikbeschleunigers. Zu diesen Argumenten werde ich während meines posts eingehen.

Physikkarten und KI Karten sind die genialste Erfindung seit langem. Hinter diesem zwei Beschleunigern stecken unglaubliche Potenziale und ich werde erläutern, warum dem so ist.




Von vornherein ist zu bemerken, dass der Post hauptsächlich das Ziel hat, das Thema zu verstehen und der Community meine Auseinandersetzung mit dem Thema zu präsentieren, mit der Hoffnung, dass einige mehr verstehen. Die technische Fachsprache wird also nicht immer vorhanden sein. Sofern Denkfehler vorhanden sind könnt ihr mich gerne darauf aufmerksam machen. Ich bitte außerdem darum, dass zuerst der komplette Artikel gelesen wird, bevor Hinweise und Kritik verfasst wird.

Damit der post bei dieser Länge auch übersichtlich wird, werde ich den post in mehrere parts strukturieren:
1. Wozu Physik? Ist Physik überhaupt notwendig?
2. Verschiedene Kandidaten: Multi-Core CPU, GPU, PhysX
3. Einsatzbereiche
4. Problematik



1. Wozu Physik? Ist Physik überhaupt notwendig?

Um diese Frage zu beantworten, muss man ersteinmal wissen, was genau Physik ist, bzw. wofür sie zuständig ist. Mit Physik wird natürlich die Physik auf der Computerebene gemeint.
Der Physikbeschleuniger übernimmt im Prinzip sämtliche Bewegungsabläufe und was daraus resultiert. Vorrausgesetzt, es ist dementsprechend programmiert worden. Dazu gehören wirklich alle Bewegungen, die in einem virtuellen Raum, zum Beispiel einer Karte in einem Computerspiel, vorkommen. Dazu gehören Bewegungen der Spieler, Bewegungen der NPCs, herumfliegende Raketen, bewegte Büsche, Gräser oder Bäume, einstürzende Wandteile oder ganze Gebäude, Schüsse, Kolissionen zwischen mehreren Objekten und alles, was man als Bewegungen difinieren kann. Wer allein schon diesen Gedanken nachvollziehen kann, weiß, warum hinter einem Physikbeschleuniger solch ein potential steckt. Außerdem können sämtliche Bewegungen und Kolissionen korreckt und genau berechnet werden, was vor allem bei jetzigen Spielen aufgrund der geringeren Perforemence stark abstrahiert wird. Als Beispiel wären da zum Beispiel Waffen, die in einer Wand herumhängen oder verschiedene Objekte, die sich zum Teil überschneiden zu nennen. Abgesehen davon werden so ziemlich sämtliche physikalischen Effekte in Spielen aus demselben Grund, nämlich der Perforemence, weggelassen. Beispielsweise fährt ein Panzer gegen einen Gartenzaun. Was passiert? Der Panzer bleibt am Zaun hängen. Das geschieht einfach deshalb, weil es für beide Objekte keine physikalischen Eigenschaften gibt. Wenn man genau darüber nachdenkt muss man es einfach akzeptieren. Sämtliche Spiele, die es derzeit auf dem Markt gibt, sind einfach total undynamisch. Der größte Teil aller Karten, Spielwelten etc. sind einfach statisch, sie verändern sich nicht oder wenn sich etwas bewegt, dann nur kaum, abgesehen von NPCs und Spielern, wobei auch genau wegen diesen die Anzahl an NPCs und Spielern mächtig gedrosselt wird. Das Spiel wäre ansonsten unspielbar. Es gibt einfach keine dynamischen Welten, in denen man beispielsweise "alles zerstören kann", wie sich viele Spieler wünschen würden. Solch eine Welt/Karte wäre nur mit einem zusätzlichen Physikbeschleuniger möglich.
Physikkarten sind also durchaus für die Beschleunigung, zur Entlastung und für das erzeugen einer realistischen und dynamischen Welt/Karte zuständig. Dies wird aber noch einmal später bei der Betrachtung der Problematik behandelt. Ich hoffe, dass die meisten nun im groben erkannt haben, warum ein Physikbeschleuniger nun solch ein Potenzial hat.
Betrachtet man nun die gesammelten Argumente, müsste man eigentlich feststellen, dass die eigentliche Fragestellung ganz anders lauten müsste. Nicht ob ein Physikbeschleuniger wirklich nötig ist, sondern wie man es umsetzt, bzw. die so ziemlich wichtigste Frage, auf welcher Hardware soll die Physikbeschleunigung ablaufen? Genau damit beschäftigen wir uns im zweiten part.





2. Verschiedene Kandidaten: Multi-Core CPU, GPU, PhysX

Von der breiten Masse der poster gab es nun einige, die erkannt haben, dass dank Physikbeschleunigung einiges dynamischer werden kann, auch wenn nicht das eigentliche Potential erkannt wurde. Die Hauptaussage war jedoch: "Wieso muss das ganze auf einer extra dafür spezialisierten Karte laufen? Man kann es doch ganz einfach auf die GPU packen! Oder noch besser, es gibt ja Prozessoren mit mehreren Kernen, die das einfach übernehmen! Und das ganze mal nebenbei! Guckt dir doch mal die teschnischen Werte von der PhysX an!"
Bevor ich an diesem Punkt erläutere, warum hinter dieser Aussage nicht wirklich viel steckt, muss vorher noch etwas ganz klar festgelegt werden. Prinzipiell gilt, ein Prozessor ist das Kernstück eines PCs. Der Prozessor ist ersteinmal für sämtliche Berechnungen zuständig, die für eine Software nötig sind. Ein Prozessor arbeitet also lediglich auf "softwarebasis", wenn man es so sagen darf. Jeder kennt wahrscheinlich den Begriff "software-renderer". Wenn man auf einen software-renderer zurückgreift, wird das rendern einzig und allein von der CPU übernommen. Bevor es einen spezialisierten Chip für die 3D-Beschleunigung gab, wurde die Grafik sozusagen von dem Prozessor über die Software ermöglicht. Es gilt jedoch, "hardwaremäßig" (damit ist eine Berechnung über einen Extrachip gemeint, der direkt von der Software angesprochen wird) läuft es besser, als dabei auf einen Prozessor zurückzugreifen. Genau aus dem Grunde gibt es bereits einige diverse Chips, die für bestimmte Dinge zuständig sind, dazu gehören die Grafikchips sowie die Soundchips. Inzwischen könte man sich Spiele , die nicht von einer Grafikkate berechnet werden nicht mehr vorstellen. Die Perforemence liegt ganz klar bei der Grafikkarte, ganz abgesehen von dem dargestellten Bildern.
Nun wird sämtliche Physik (abgesehen von Spielen, die schon auf Physikbeschleuniger zurückgreifen) derzeit "softwaremäßig" berechnet. Genau dies ist der springende Punkt, warum es mit Prozessoren gar nicht schneller laufen kann. Ein spezialisierter Chip wird ein und dieselben Berechnungen wesentlich schneller erledigen können, als die Softwarelösung über die CPU. Mehrere Kerne geben zwar mehr Leistung, aber dies bedeutet nicht, dass diese ganzen Kerne auch mehr an Leistung bringen(was die Physik anbelangt), als ein reiner Physikchip. Wenn man damals schon Multi-Core CPUs gehabt hätte, wäre es auch sehr dumm zu sagen: "ok, wir brauchen keine Grafikkarte!" Multi-Core Prozessoren sind kein Wundermittel, die unendlich Leistung bringen. Der Leistungsgewinn mit einem spezialisiertem Chip ist einfach um einiges größer, als wenn man stattdessen 8 Kerne für die Physikberechnung abspaltet.
Irgendjemand brachte vorhin die Aussage, die technischen Werte der PhysX seien "so schlecht", nichtmal mehr als 500MHz, dies könnte eine GPU mal "ganz nebenbei" berrechnen. Nun soll diese Person einmal die technischen Daten von GPUs und CPUs vergleichen. Na? Was sieht da wesentlicher "besser und leistungsstärker" aus? Ist eine CPU jedoch schneller in 3D Berechnungen? Natürlich nicht. Genau dasselbe gilt nun auch für die PhysX. Dieser "techisch lächerliche Chip", ist in Physikberechnungen um ein vielfaches schneller als eine GPU. Dies ist auch nicht weiter schlimm, denn eine GPU hat ja auch einen ganz anderen Aufgabenbereich. Zudem müsste für das Berechnen der Physik auf einer GPU ohnehin eine ganze GPU "geopfert" werden, die mehr Strom verbraucht, viel mehr kostet, mehr Wärme generiert, genauso einen Steckplatz verbraucht und noch dazu sehr viel langsamer ist als eine PhysX. In facto kann man also gleich eine PhysX kaufen. Das einzige, was nun also diese Aufgabe der Physikberechnung mal "nebenbei erledigen" kann, ist ein Physikchip, wie der von Ageia.
Diese anderen zwei Möglichkeiten sind lediglich Marketingtricks, um dem aufsteigendem Segment nicht einfach freie Bahn zu lassen. Es würde mich sehr stark wundern, wenn die großen Konzerne dies einfach ignorieren würden.





3. Einsatzbereiche

Da wir nun viel theoretisches gehört haben, wollen wir uns einmal genau angucken, wo man solche Physikbeschleuniger anwenden kann und uns einige Beispiele dazu angucken.

Zum einen wäre da die Möglichkeiten, von denen normale Anwender profitieren könnten, ohne überhaupt einen solchen Physikbeschleuniger verbaut zu haben. Dies sind die Server
Ein sehr gutes Beispiel dafür wäre ein CS Server oder auch ein Battlefield Server. In Anlehnung an part 2 muss man ersteinmal erwähnen, dass Grafikkarten in den allermeisten Fällen gar nicht in Servern verbaut werden. Dies wäre auch unnötig weil Grafikkarten lediglich für die Darstellung der berechneten Dinge zuständig sind. Grafikkarten agieren also auf der "letzten Schiene", wenn es nämlich darum geht, die errechneten Sachen auf den Bildschirm zu zaubern. Es wird, um es anschaulich zu erklären, eine Situation berechnet und es wird der GPU genau gesagt, was da nun passiert, worauf sich die GPU mit der Darstellung dessen befasst. Da der Server nun aber einzig und allein "die zu berechnenen Sachen berechnet" und das Ganze selbst nicht lokal irgendwo ausgeben muss wird hier die Grafikkarte überflüssig. Genau aus diesem Grund wäre eine "Physik in GPU Lösung" für Server eher schlecht. Denn niemand verbaut für die Physikberechnung extra eine Grafikkarte in einen Server. Wo kommt nun aber die Physikberechnung ins Spiel? Ich bin zwar nicht der Experte, aber die Physikberechnung hat genauso wenig mit der lokalen Ausgabe wie sämtliche anderen Berechnungen von der CPU auch. Deshalb sage ich jetzt einfach, es geschieht parallel zu den CPU Berechnungen. Auf jeden Fall gehört es zu dem Teil, in dem die ganze "Situation" berechnet wird und anschließend an die GPU zur Darstellung weitergeleitet wird. Genau dies zeigt nun auch, dass die Physik nichts mit der Grafik zu tun hat und deshalb streng unterschieden werden muss. Aber nun zurück zu unseren CS und Battlefield Server. Was benötigt bei einem solchen Server überhaupt so viel Leistung? Was ist denn da so besonderes? Nun wir gucken es uns einmal an, da gibt es einmal die Karte, die geladen werden muss. Dies sollte nicht einmal für einen normalen PC ein Problem sein, zumal die Karten auf den clients sowieso geladen werden müssen. Als zweites muss der Server die Kommunikationen zwischen sämtlichen clients steuern. Nun gut, dafür sind Server eigentlich generell zuständig und für einen FTP Server beispielsweise auch kein problem. Wieso braucht nun so ein Gameserver so viel Leistung? Richtig, wegen den Spielern, die sich auf der geladenen Karte fröhlich hin und her bewegen. Die Leistung, die ein Server braucht, steigt proporzional mit der Spieleranzahl. Mit einem Physikbeschleuniger dürfte das absolut kein Problem mehr darstellen (es gehören natürlich noch andere Faktoren wie die Größe der Karte dazu). Im Prinzip könnte man mit einem Physikbeschleuniger ohne Probleme seine 8000 Player auf einer Karte halten (es wurde deshalb die Zahl 8000 benutzt, weil Schüsse, Kolissionen und eventuelle Objekte wie Granaten in die Überlegung mit einbezogen wurden). Nun kommt noch ein weiterer sehr wichtiger Aspekt dazu. Nämlich gibt es da noch andere Faktoren, die dafür sorgen, ob es flüssig läuft. Zum Beispiel könnte es die Bandbreite des Internetanbindung sprengen, weil 8000 clients, die mit Informationen gefüttert werden müssen nicht gerade wenig sind. Außerdem müssen die clients in der Lage sein, die Informationen, die sie vom Server bekommen haben auch lokal darzustellen. Genau an dieser könnte es dennoch ruckeln. Dies wird jedoch später bei der Problematik genauer behandelt. Aber hej, das Leistungsproblem wäre gelöst! Und wie wir alle wissen, machen gerade bei onlinegames, wenn überhaupt, zu 95% (subjektiv geschätzt) eher die Server aufgrund von mangelnder Leistung Ärger, nicht die clients. Das tolle an der Sache, trotz fehlender PhysX Hardware bei den clients würde es dennoch dank Physikbeschleunigung um einiges schneller laufen, da Physik nicht zweimal berechnet werden muss. Der Server teilt dem client lediglich mit, was passiert, aber was passiert muss er selbst errechnen. Nun stellt euch das Onlinegame World of Warcraft vor, in dem man sämtliche Festungen und Städte zerstören könnte und analog dazu auch dank einer KI Karte gleichzeitig ganze NPC Armeen eine Stadt belagern würden. Genau deshalb bin ich der Meinung, das Potential ist riesig.

Als zweiter Anwendungsbereich wäre da natürlich der Desktop Bereich. Warum wurde hoffentlich schon genau genug erläutert. Man könnte Spiele programmieren, die vollkommen dynamisch und vollkommen realistisch sind, Spiele, in denen man "alles zerstören kann" wie manch ein Spieler träumt oder enfach nur für mehr Leistung sorgen, indem der Physikbeschleuniger sämtliche Bewegungsabläufe übernimmt.
Andererseits wäre es für die Programmierer wesentlich einfacher dynamische Spiele zu erstellen (für den Anfang eher das Ggenteil aber auf lange Sicht). Wenn man bestimmte Bibliotheken entwickeln würde, wäre es möglich jedem Objekt ganz einfach physikalische Eigenschaften zu übertragen und der Rest würde wie von selbst laufen. Der Aufwand wäre nur am Anfang ein größerer, weil man verschiedenste Materialien etc. definieren müsste, jedoch in der restlichen Entwicklung eines Spieles mittelt weniger Zeilen zu erreichen. Als Beispiel dazu erinnern wir uns an unseren Panzer und dem tollen Gartenzaun zurück. Für gewöhnlich müsste es ungefähr so ablaufen, dass man sowohl dem Panzer als auch dem Zaun eine bestimmte Schlüsseleigenschaft zuweist. Wenn nun der Panzer in den Holzzaun hineinfährt und der Schlüssel zum Zaun passen würde, dann vollführt der Zaun eine extra programierte Animation und das Objekt wird zumindest als virtuelles Hindernis gelöscht (ein Beispiel, wie man es programmieren könnte, die Experten unter uns wissen bestimmt bessere Wege). Nun ist das Umfallen des Zaun physikalisch total unkorreckt, denn die Animation ist immer diesselbe. Wenn man sich Mühe gibt, könnte man noch unterscheiden, dass, jeh nach dem von welcher Richtung der Panzer nun kommt, eine andere Animation vollführt wird, also eine andere Fallrichtung. Nun gelten diese definierten Sachen nur für den Panzer und nur für den Zaun. Es müssen für alles mögliche unmengen an Animationen geschrieben werden. Außerdem braucht diese Methode sehr viel leistung (verglichen), wenn solch ein Zaun umfällt. Wenn man eine ganze Karte programmieren möchte, in der wirklich alles zerstörbar ist, na dann wünsche ich demjenigen zumindest mit meiner Methode viel Spaß ;) Ganz anders geht es, wenn man die bereits programmierte Bibliothek(wobei dies auch ersteinmal geschehen muss) verwenden würde. Rein physikalisch besteht der Panzer aus bestimmten Material. Aus dem Material errechnet sich ein Gewicht. Außerdem wird der Panzer von einem Motor angetrieben. Dadurch kann man die Fahrtkraft bestimmen. Wenn nun der Panzer gegen den Holzzaun fährt wird automatisch physikalisch berechnet, ob der Holzzaun nun zusammenbricht oder nicht, bzw. welche Bewegungen der Zaun vollführt, nachdem der Panzer auf den Zaun gestoßen ist. Wenn man nun für alle Objekte physikalische Eigenschaften definiert, passiert der Rest physikalisch vollkommen korreckt und komplett ruckelfrei.

Ein weiterer wichtiger Aspekt wäre für die Forschung. Dies haben aber auch potentielle Physikbeschleuniger-Feinde bereits erkannt. Oft werde für verschiedenste wissenschaftliche Berechnungen riesige Anlagen aus Server benutzt, in denen meist tasende Prozessoren an einer Berechnung verwickelt ind. Physikalische Berechnungen, Simulationen und alles was dazu gehört könten von Physikbeschleunigern wesentlich schneller und wesentlich Kostensparender durchgeführt werden. Forschungsinstitute und Universitäten sind also die ersten Kandidaten, die bereits davon profitieren.





4. Problematik

Nun werden wir uns verschiedene Problemstellungen zu dem Thema Physikbeschleunigung anschauen.
Es kam vorhin der Hinweis, dass Physik nicht unbedingt etwas mit der besseren Perforemence zu tun haben muss. Dem ist nur zur Zeit so. Derzeit gibt es das Problem, dass die Physikbeschleuniger nicht sämtliche physikalischen Berechungen durchführen, sondern lediglich kleine Zusatzeffekte berechnen. Dies ist zum Beispiel in dem Spiel Ghost Recon Advanced Warfighter der Fall. Wie wir schon vorhin erkannt haben, ändern es nichts an der Tatsache, dass wenn der Physikbeschleuniger nicht vorhanden wäre, diese Effekte dennoch von der CPU übernommen werden müssten. Und das würde schon wieder weitaus mehr FPS schlucken. In diesem fall würde der FPS Abfall nicht 2FPS, sondern eher 10FPS betragen(subjektive Schätzung). Die Berechnung an sich geht viel schneller von Statten, jedoch müssen diese Extraeffekte trotzdem auf dem Bildschirm landen. Egal ob nun ein Prozessor eine Situation berechnet oder ein Physikbeschleuniger dabei hilf, muss das Ergebnis von der GPU dreidimensional auf dem Bildschirm landen. Es ist sogar ein gesetz, jeh mehr Details in einem virtuelen Raum vorhanden sind, desto langsamer läuft etwas. Es stört den COmputer in diesem Moment jedoch nicht, dass sich dort ein Objekt bewegt hat, sondern dass da überhaupt ein Objekt ist, nicht mehr und nicht weniger. Die Berechnung der Physik hat der Physikbeschleuniger jedoch erfolgreich übernommen. Das muss man sich auf jeden Fall klar machen. Aber in dem Moment, in dem wirklich sämtliche Bewegungsabläufe auf den Physikbeschleuniger übertragen werden, bekommt man seine Leistungssteigerung im vierstelligen Prozentbereich. Solch ein Spiel gibt es derzeit jedoch nicht.

Ein klarer Nachteil den ich auch nicht abstreiten möchte ist der Kostenfaktor. Es ist nötig mehr Geld auszugeben, wenn man nun diese Vorteile genießen möchte. Jedoch denke ich, dass ein Preis der bei 100€ liegt erträglich ist. Der Preis wird sicherlich fallen, wenn einige Spiele die PhysX vorraussetzen und noch ein wenig Zeit verstreift. Im Gegensatz dazu eine extra Grafikkarte zu kaufen wäre nun wirklich alles andere als wirtschaftlich. DIe PhysX läuft im gegensatz zu einer Grafikkarte noch recht gemächlich (bezogen auf die Abwärme, dem Stromverbrauch und der Kühlung).

Ein weiteres Problem ist, das Physikbeschleuniger derzeit noch nicht viel Freunde gefunden hat. Warum das dementsprechend ist, ist mit ein Rätsel. Höchstwahrscheinlich haben die meisten einfach eine falsche Sichtweise und/oder haben Angst, noch eine extra Standarthardwarekomponente in den zukünftigen PC gehört.
Physikbeschleuniger sind noch Recht jung, deshalb muss auch angefangen werden Programme mit Physikunterstützung zu programmieren und die Einbindung von Physikbeschleunigern in Spielen vereinfacht werden. Es liegt also noch ein gewisser Prozess bevor, das dürfte klar sein.






Ich hoffe damit konnte ich einen guten Einblick in das Thema geben und freue mich auf eine weiterführende, hoffentlich gepflegte Forendiskussion.


Ganz nebenbei möchte ich, damit es keinerlei Missverständnisse gibt, ein Wort zu mir selbst sagen. Ich bin kein fanatischer Zocker. Ich bin genauso wenig jemand, der zu viel Geld hat. Dieser post wurde nicht geschrieben, weil der Autor selbst eine PhysX oder einen ähnlichen Physikbeschleuniger besitzt. Derzeit taumelt mein System noch bei einer Radeon 9600Pro und einem Pentium 4 Northwood 2,53GHz herum. Außerdem bin ich begeisterter Linuxuser, weshalb ein Einsatz der Karte bei fehlendem Treibersupport ohnehin nicht in Frage kommt.
Der Artikel wurde aufgrund des riesigen Potentials und der Fähleinschätzung vieler Personen verfasst.

Mit freundlichen Grüßen, BigChiller
 
Zuletzt bearbeitet: (Rechtschreibfehler)
Hut ab, den Post finde ich absolut genial. Entspricht genau dem was ich mir dabei immer gedacht habe. Ich hoffe jetzt haben alle den Sinn dieser Karten verstanden. :)
 
@ Straputsky:

Ja, war schlecht formuliert. Natürlich läuft im Endeffekt jedes Produkt auf Geldmacherei hinaus. Aber ich glaub, du weißt schon, wie das wirklich gemeint war. Der Kosten-/Nutzen-Faktor sollte ein hoher sein. Und ich seh zB nicht wirklich ein, warum ich 120 Euro für eine zusätzliche Karte ausgeben soll, wenn beispielsweise Crysis beweist, dass es auch gut ohne so einer Karte funktionieren kann. Und in naher Zukunft werden wohl relativ viele Spiele (zumindest Shooter) auf Basis der Crysis-Engine erscheinen.



@ BigChiller:

Also in einem Punkt kann ich dir nicht zustimmen. Du scheinst, wenn ich dich richtig verstanden habe, an der Idee der Extra-Karte festzuhalten.

Für Server und den Bereich der wissenschaftlichen Forschung könnte man sicher den PhysX-Chip auf einer eigenen Karte anbieten, da macht das ja Sinn.
Für den Spieler aber eher weniger. Auch hier könnte man selbstverständlich Extra-Karten anbieten, nämlich für diejenigen, die ihren PC damit aufrüsten wollen. In allen anderen Fällen bin ich der Meinung, dass ein PhysX-Chip auf der Grafikkarte (also entweder als zusätzlicher Chip oder eventuell direkt in der GPU integriert) weitaus mehr Sinn macht.

Zum Einen würden sich die Physik-Beschleuniger wesentlich schneller durchsetzen, weil im Kopf des Konsumenten eine Extra-Karte eben viel deutlicher mit Extra-Kosten verbunden wird, und zusätzlich so manch einer nicht einen extra Slot dafür opfern will (ich hab zB Soundkarte, TV-Karte und SCSI-Controller, da würde sich auf den meisten aktuellen Boards gar keine PhysX-Karte mehr ausgehen).

Zum Anderen würde das in der Massenproduktion die Kosten senken, weil ein zusätzlich integrierter Chip auf einer Grafikkarte in der Produktion sicher günstiger kommt, als das Ganze auf einer eigenen Karte zu realisieren.

Außerdem könnten dann auch Spieleentwickler davon ausgehen, dass viele Konsumenten auch wirklich einen PhysX-Chip haben, wenn er sowieso standardmäßig auf Grafikkarten verbaut wird. Dadurch würden sich entsprechend optimierte Spiele schneller am Markt etablieren.


Weiters möcht ich schon auch noch darauf hinweisen, dass man auch ohne PhysX-Beschleuniger Spiele mit dynamischer Umwelt verwirklichen kann – siehe Crysis, das ja dank Multi-Core-CPUs auch sehr realistische Effekte bereitstellt.
Dass ein extra für solche Berechnungen optimierter Chip wesentlich effizienter ist, das steht außer Frage. Ob es in Zeiten von 4+ Prozessorkernen wirklich zwingend notwendig is, steht aber auf einem anderen Blatt geschrieben. Immerhin läuft ja Crysis anscheinend auch ohne PhysX ganz passabel, und das, obwohl Crysis bisher "nur" für Dual Core optimiert wurde (opimierter Quad Core Support befindet sich ja derzeit in Arbeit).
 
Zuletzt bearbeitet:
Alles Gewohnheitssache. Die Soundkarten sind auch als Zusatzkarten akzeptiert. Warum nicht direkt von creative aufs Mobo? Richtig, weil man die Wahl haben will.
Im Grunde ists wurscht wo das Ding steckt oder auch nicht. Man muß die Käufer dran gewöhnen, und alles ist Paletti. Bin jedoch auch der Meinung, das Ageia das an Nvidia/Ati verticken sollte. Wobei ... dann kommen wieder das Geschrei übers abgezockt werden ("so ein sinnloser Scheiß" "Das ist auf der GraKa obwohl ichs gar nicht will" "treibt den Preis in die Höhe" "abzockerei" "mein sauer verdientes Geld"). ;)
 
Mal davon abgesehen, dass sich auch On-Board-Sound immer weiter verbreitet und Akzeptanz findet, kannst du das mit dem PhysX-Chip nicht so 1:1 vergleichen. Zum Beispiel aus dem Grund, dass man je nach Anwendungsbereich unterschiedliche Anforderungen an die Features sowie Anschlüsse der Soundkarte hat. Ein Musiker braucht was anderes, als jemand, der nur im Internet surft und sich ab und zu mal ein Flash-Video ansieht.

Beim PhysX-Chip is das ja wohl nicht so. Das Teil is beim Desktop-PC eindeutig für den Spieler und ein Standard, da braucht man nicht verschiedene Spezifikationen für verschiedene Anwendungsbereiche. Und wegen deinem Argument, dass ein integrierter Physik-Chip die GraKa verteuern würde und manche das beanstanden würden: Im Low-Cost-Bereich sollte man das sowieso weglassen (wer zocken will, wird sich sicher nicht eine Grafikkarte im untersten Preissegment kaufen), aber auf den besseren und teureren Grafikkarten macht's auch keinen Unterschied, weil jemand, der sowieso bereit ist, 250, 300 oder gar mehr Euro für eine Grafikkarte auszugeben, dem werden die 20 Euro mehr für den PhysX-Chip auch egal sein.

Meiner Meinung nach gibt's einige wesentliche Vorteile für eine GPU-PhysX-Kombination, und die hab ich oben schon angeführt. Extra-Karte werd ich mir jedenfalls definitiv nicht kaufen, und da bin ich sicher nicht der Einzige.
 
Zuletzt bearbeitet:
Extra-Karte werd ich mir jedenfalls definitiv nicht kaufen, und da bin ich sicher nicht der Einzige.

sag niemals niemals ^^. interesant finde ich diese meldung von pcgameshardware.de zum x38 chipsatz link

besonders der letzte satz
Neben zwei PCI-Express-2.0-x16-Steckplätzen lässt sich aus der Southbridge auch ein PCI-Express-Steckplatz mit vier Lanes abzweigen. Dieser ist mit dem Hinweis "Physic-Card upgrade option" versehen. Dies könnte zum einen für Ageias Lösung gelten, aber auch eine eigene Entwicklung von Intel ist denkbar.

wen einer der big player in das geschäft mit der hardware für physik einsteigt, könnte ich mir vorstellen das es sich wirklich dursetzen kann. bei einer der nächsten gen an boards könnte dann das ganze soagr nicht auf der GPU, sonder direkt auf dem mainboard zu finden sein. ich bin auf alle fäller sehr gespannt wie sich das ganze entwickelt bzw was hinter diesem gerücht steckt.
 
@Big Chiller du übertreibst ein bisschen oder? also mir kommt das so vor also ob du die karte pusht, aber das is mir jetz eigentlich auch egal, ich möchte mich nur rechtfertigen mit der aussage als ich die leistunsdaten der physx karte in frage stellte. du schriebst auch das man keine CPU mit der leistung der GPU vergleichen kann, dabei musst du dir erst mal die architektur der GPU ansehen. das hat nichts mehr mit einer CPU zu tun. und nun zu physx karte. es wurde bereits bewiesen das eine gpu genau das kann was die physx karte kann, vielleicht liegt das auch daran das die physx karte einfach nur eine leicht modifizierte alte grafikkarte mit spetziellen treibern ist. wenn sich die karte tatsächlich durchsätzen kann solls mir egal sein und vielleicht würd ich mir sie sogar besorgen, aber solange sie in ihrem aktuellen stadium is darf man sie wohl in frage stellen oder? und nochmals neben bei(is mir gerade eingefallen) die beiden next-gen konsole ps3 und 360 arbeiten auch mit den ageia physx treibern und haben die denn solch einen chip drinnen? da währ mir etwas entgangen. aber ich möchte mich nicht länger streiten und gebe auch zu das die physx karte enorme features mit sich bringt (in den spielen die sie unterstützen xD)

mfg
 
Ersteinmal freue ich mich, dass wieder eine gepflegte Diskussion stattfindet. Vor allem deswegen, weil direkt Gedanken angesprochen wurden, die ich nicht vorher noch beachtet habe.

Zu der Thematik Kombikartenlösung und CPUs werde ich meinen post noch einmal ergenzen. [noch nicht getan xD]

Es kam das Argument, dass CPUs generell schon für einige Physikeffekte benutzt werden würden. Auch das stimmt, bzw. ich muss es einmal konkretisieren. Wir derzeit einen gewissen Ausgangspunkt. Generell ist bereits ein wenig "Pseusdophysik" in Spielen vorhanden. Nicht nur ein "wenig", sondern eigentlich werden sämtliche physikalischen Effekte (oder ähnliche simulierte Effekte), vor allem sämtliche Bewegungen der einzelnen Obejekte von der CPU berechnet. Allein solche NPCs und andere Spieler müssen ja in der Lage sein sich zu bewegen. Gerade an dieser Stelle sieht man es in heutigen Spielen sehr deutlich, doppelt so große Spielerzahlen bedeuten beinahe einen doppelt so großen Leistungsabfall. Mit einem reinen physikbeschleuniger wäre solche Limitierungen gar nicht mehr nötig. Wenn es dynamische Objekte gibt, dann sind dies entweder notwendige Teile(NPCs, Spieler, Panzer, Fahrzeuge etc) oder fallen sogar schon unter die specialeffects. Dies wären nun gerade solche Sachen wie einbrechende Wände oder Vegetation, die sich teilweise zerstören lässt. Aber genau solche "specialeffects" brauchen mächtig viel Leistung, das heist, es ein erheblicher Teil der Leistung für diese "physikalischen Effekte" verloren. Aber gerade solche "physikalischen specialeffects" machen ein Spiel um einiges hochwertiger. Gerade Half-Life 2 sorgte aufgrund einiger beweglicher Objekte für Aufsehen in der Spielebranche. Nach wie vor kann man solche "physikalischen specialeffects" jedoch auch wirklich nur "specialeffects" nennen. Denn solche Dinge wie teilweise zerstörbare Vegetation, wie im genannten Beispiel Crysis, sind nur Kleinigkeiten und EInzelheiten.
Nun frage ich mich aber, wieso sollen specialeffects nicht Standart werden? Wieso sollen bewgliche Objektlimitierungen nicht aufgehoben werden? Möglich ist es. Sogar sehr viel einfacher als man denkt. Genau dafür wurde solch ein Physikbeschleuniger entwickelt und er liegt auf dem Tisch. Nun müssen wir nur noch entscheiden, ob wir es wollen oder es ablehnen, bzw. überlegen, wie wir solche Physikbeschleuniger am besten integrieren können.



So wie ich von den letzten postern gelesen habe, würde genau ein solches Interesse nun bestehen, man macht sich aber genau Gedanken über eine Eingliederung solcher Physikchips. Meines Erachtens ein sehr guter Ansatz.

Da ich nicht erwähnt habe, wie es nun um Kombinationslösungen steht, möchte ich noch einmal erläutern, wie es um Kombinationslösungen steht, bzw. einige direkte Beispiele für solche Kombinationslösungen untersuchen. Generell ist es nicht so, dass ich irgendwelche Kombinationslösungen ausschließe. Ich halte lediglich an einem extra Physikchip fest, wo genau dieser integriert wird, wäre mir größtenteils egal.

Zum einen wäre da die oft genannte Kombinationslösung, man integriert den Physikchip mit auf der Grafikkarte. Diese Lösung klingt sehr verlockend, vor allem wenn man RaiseHells gut überlegtes Argument anschaut. Personen, die wirklich vor haben zu spielen werden sich eine bessere Grafikkarte holen. Auf diese könnten dann die Physikchips anzutreffen sein. Jeh teurer die Grafikkarte ist, desto besser würde dementsprechend der Physikchip sein. Was mich an dieser Stelle nur stört, ist, dass der Physikchip weiterhin, vollkommen unabhängig ob er mit auf dem PCB einer Grafikkarte liegt, entwickelt werden müsste. Außerdem müsste der Physikchip mitgekühlt werden, er bräuchte auch einen bestimmten Teil oder einen komplett eigenen RAM-Speicher und er würde dennoch den selben Teil an Strom schlucken. Was man sich dadurch sparen könnte wäre das extra PCB und der extra Steckplatz. Problematisch wird es, wenn der Physikchip zu große Ausmaße erreicht (in diesem Moment nach vorne gedacht, man weis nie, wie sich etwas entwickelt). Solange der Physikchip gemächliche Ausmaße behält, wäre dies natürlich möglich. Andererseits fehlt jedoch hier die Unabhängig bei der Kaufentscheidung, es ist nicht mehr möglich zu entscheiden, welche Chips man genau haben möchte.

Was jedoch auch oft erwähnt wurde, ist die integrierung von Physikchip und KI-chip auf einer Karte. Mit dem Thema KI-chips habe ich mich bisher nicht beschäftigt. Wenn diese nicht notwendig sind, erledigt sich diese "Kombinationslösuing" von selbst, denn dan wäre es keine Kombinationslösung mehr xD. Nehmen wir deshalb einmal an, sie wäre sinnvoll. Vorteile wären, dass beide chips genug Platz und freiraum hätten, größer zu werden. Probleme würde man bekommen, wenn die Ausmaße beider Chips zu groß werden, zu viel Wärme generieren etc. Ein weiterer Vorteil wäre, dass auf diese Kombikarte ohnehin nur Spieler angewiesen wären, normale Benutzer könnten diese also komplett weglassen, was bei Grafikkarten jedoch nicht zwingend so ist. Nachteil wäre/ist, dass sich die Masse ersteinmal an beide Chips gewöhnen müsste. Bei dieser Kombination vermute ich sogar stark, dass man die breite Masse dazu zwingen müsste, solch eine Karte zu kaufen, wegen dem finanziellen Faktor.

Als drittes wäre es möglich den Chip auf das Mainboard zu integrieren. Hier wäre der klare Nachteil, nicht jeder braucht einen Physikbeschleuniger, im Desktop-Bereich brauchen diese nur Spieler. Außerdem sollte der Chip auch hier keine allzugroßen Ausmaße annehmen.



@Fencheltee04
Ersteinmal muss ich noch einmal betonen, ich habe weder zu viel Geld, noch spiele ich übermäßig viel, noch besitze ich eine solche PhysX. Ich benutze Linux und ohne Treibersupport könnte zumindest ich diese karte ohnehin vergessen. Das tue ich jedoch nicht, weil ich das Potential dahinter sehe, es ist also dennoch ein guter Diskussionspunkt und darum sollte es ohnehin gehen. Mit bevorzugen der Marke hat dies nicht viel zu tun. Wie gesagt gibt es derzeit nur einen reinen Physikbeschleuniger und dies ist nunmal der Physikbeschleuniger von Ageia, deshalb findet er auch so häufig Erwähnung.
Dass eine GPU dasselbe wie ein Physikbeschleuniger kann, natürlich wurde das bewiesen. Eine CPU kann ja auch dasselbe wie ein Physikbeschleuniger, nur wie schnell, das ist die Frage. VOn Tests oder beweisen, dass GPUs genau so schnell Physikberechnungen durchführen können habe ich derzeit noch nichts gehört, lasse mich aber immer wieder gerne überraschen, wer also noch irgendwelche Artikel hat, die ih üb ersehen haben sollte, nur her damit ;)
Im übrigen streite ich mich nicht, sondern ich diskutiere. Streit gehört keinesfals in ein Forum. Streit gehört in ICQ oder ins Telefon oder wohin auch immer, aber ein Forum ist für gepflegte Diskussionen da. Wenn also eine meiner Aussagen irgendwie angreifend wirken sollten, entschuldige ich mich an dieser Stelle noch einmal ganz deutlich. Außerdem hab ich ja durchaus mitbekommen, dass du von der Physik in Spielen generell positiv eingestellt bist. ^^ :D
 
Also wie läuft das jetzt genau ab mit der Berechnung? Die CPU berechnet die Daten, also alle Punkte in einem Raum. Die Positionierungsdaten der einzelnen Gegenstände wird dann an die Grafikkarte gesendet, die Rendert das Bild.
Greift dann der Ageia Physikbeschleuniger parallel zur CPU ein? Die CPU übernimmt die eine Hälfte und die Ageia die andere der Rohmaterialien?
Ist es nicht auch Softwaresache? Kann man eine Engine nicht einfach so modifizieren, dass die physikalischen Details angehoben werden?
 
Zurück
Oben