MountWalker schrieb:
@ "GPGPU nutzt dem Gamer nichts"
Das ist teilweise Quatsch, denn in den kommenden (5-10) Jahren werden wir ein Revival von "Software-Renderern" erleben. Rasterisierung läuft ihrem Ende entgegen, weil man für mehr Qualität immer unverhältnismäßiger mehr Leistung verbraucht. (wenn man berücksichtigt, dass hübsche Grafik sehr viel mehr als nur verkleisterte Texturen ist)
Es ist eine Möglichkeit, allerdings nicht die einzige und Raytracing bzw. Raycasting ist sicherlich auch nicht der Weisheit letzter Schluss.
MountWalker schrieb:
Double-Precision braucht man dafür vermutlich trotzdem nicht, aber volle C++ Unterstützung kann schon für den Engine-Programmierer nützlich sein.
Ich weiß wirklich nicht was C++ Support bei so einer Architektur bringen soll. C++ wurde ursprünglich für sequentiell arbeitende CPUs entwickelt. Es bietet von der Sprache her einfach keine Konstrukte an, die eine effiziente Programmierung von so vielen Recheneinheiten vorsieht. Natürlich kann man entsprechende Bibliotheken und Frameworks um C++ herumbauen, die das ermöglichen, allerdings stellt sich dann die Frage, warum man nicht z.B. einfach OpenCL dafür benutzt. Denn eins sollte klar sein, ein Standard C++ Programm wird zwar evtl. auf einer solche Karte ausführbar sein, aber selbst gegen die aktuellen Low-Cost CPUs keinen Blumentopf gewinnen.
MountWalker schrieb:
Zumal echte Physik, die nicht nur optisches Schmankerl ist, sondern rückwirkt, fürs Spiel auch wichtig sein kann.
Das wäre wünschenswert. Allerdings sehe ich da das Problem auf die Entwickler zukommen. Bisher war es so, dass zuerst die CPU sich um die Spiellogik gekümmert hat und dann die Daten zur GPU geschickt hat, die sich um die Grafik und um Teile der Physik (hauptsächlich zusätzliche Grafikeffekte) gekümmert hat. Sobald aber die GPU Physikberechnungen vornimmt, die für die Spiellogik relevant ist, werden sehr viel mehr Daten zwischen CPU und GPU ausgetauscht werden müssen. Dann aber hat man das Problem der Latenzen und auch der recht geringen Bandbreite zwischen CPU und GPU. Da es bisher kein Spiel gibt, dass entsprechend designed ist, nehme ich als Beispiel einfach mal x264 Videocodec. Einige Entwickler haben damit beschäftigt die geeigneten Teile des Codecs auf die GPU auszulagern, da sie dort 10-20x schneller berechnet werden konnten. Allerdings wurde das ganze dadurch zunichte gemacht, dass Latenzen zu hoch und die Bandbreite zu gering war, so dass es keinen signifikanten Leistungssteigerungen gegeben hätte.
homann5 schrieb:
Bis OpenCL PhysX oder Havok ablösen wird, dauert es aber mit Sicherheit noch lange. Dafür wird ja alleine schon nvidias Portokasse sorgen, in dem Entwickler, die auf PhysX setzen "gesponsort" werden.
Da wäre ich mir nicht so sicher, zumindest bei den größeren Projekten. Denn schließlich verdienen die Entwickler immer noch mehr Geld durch verkaufte Spiele als durch Sponsoring. Wenn PhysX nicht beim OpenCL / Compute Shadern nachzieht, werden sie zwangsläufig Marktanteile verlieren, ganz einfach, weil die Entwickler dann entweder alle nicht nVidia-Kartennutzer mit stark beschnittenen Effekten abspeisen müssen oder 2 Physikengines einbauen müssen, eine für nVidia und eine für den Rest (zur Zeit nur AMD, später aber auch Intel). Natürlich könnten sie die 1. Variante wählen, aber das würde es der Konkurenz sehr einfach machen für einen großen Teil der Kunden (nämlich alle nicht nVidia-Kartenbesitzer) optisch schönere Effekte zu bieten und wenn man auch noch für die Spielelogik relevante Physik verwendet, hat man auf einen Schlag >30% aller potentiellen Kunden ausgeschlossen.
Gades schrieb:
wenn diese zahlen stimmen hat der gt300 chip eine leistung von 4-5 teraflops. die 5870 hat 2,8teraflops. dieser unterschied ist zwar sehr ordentlich, aber nach den zahlen in der news hätte ich doch mehr erwartet.
Ich glaube, du hast da etwas durcheinander gebracht. Die Angaben von wegen 4-5x Leistung der GT200 bezog sich ausschließlich auf Double Precision Berechnungen und da kann die G280 gerade mal mit einer HD3870 mithalten. Bei Single Precision hat die HD5870 von der Rohleistung her immernoch einen Vorspung gegenüber dem G3xx (laut c't etwa 2.7TFlops zu 2TFlops). Bei DP scheint es dagegen dann recht ausgeglichen zu sein. Dabei sollte man natürlich berücksichtigen, dass für GPGPU Anwendungen nVidias 1D Architektur mit den zusätzlichen Caches usw. deutlich besser geeignet sein sollte als die eher für Grafikberechnungen ausgelegte 5D Architektur von AMD/ATI.