Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Je näher der Veröffentlichungstermin eines neuen Produktes heranrückt, desto mehr Gerüchte gibt es um dieses. Dies gilt vor allem für Grafikchips, in diesem Fall für nVidias kommenden G80-Chip. Denn dieser wird dank einer überarbeiteten Architektur wahrscheinlich auch die Fähigkeit haben, Physik-Berechnungen durchzuführen.
Hoffentlich heisst es irgendwann nicht mehr Grafikkarte sonder Gamingcard: Eine Karte auf der Alles drauf ist, was man zum Spielen brauchte, anstelle von drei bis vier Karten, um vernünftig spielen zu können.
Naja, bin eher skeptisch. Erstmal müsste der G80 erscheinen. Dann wären Vergleiche mit anderen/normalen Physikkarten gut. Selbst wenn der G80 schneller sein sollte, wer hätte das Geld sich 3 Karten mit G80 zuleisten? Und was bräuchte man für ein System, indem nichts dieses Gespann ausbremst.
wird die Physikberechnung 100% von der CPU verarbeitet, oder hat auch die GPU damit was zu tun ? denn WENN ja kostet dies ja auch wieder leistung oder etwa nicht ?
@6: Ich glaub du verwechselst gerade GPU und CPU. Wenn die News sich bewahrheiten und nVidia die Physikberechnung auf der Graka integriert, dann wird die CPU (Der Hauptprozessor) natürlich entlastet, weil sich statt ihm die GPU (Der Grafikprozessor auf der Karte) mit der Physikberechnung beschäftigt.
Ich bin froh zu hören, dass man keine separate Karte für die Physik entwickelt. Kann #4 nur zustimmen, je mehr Funktionen auf einem Bauteil integriert sind, desto besser. In Zukunft wird SLI/CrossFire sicherlich auch durch Grafikkarten mit 2 GPUs ersetzt werden.
Hmm, ich finde es eigentlich schade, das AGAEI-PhysX nicht so richtig (durch-)startet - klang nach einer vielversprechenden Erweiterungsmöglichkeit. Allerdings war der Zeitpunkt der Launchs nicht gut gewählt auf Grund fehlender Killer-Appliaktionen... Gibts da eigentlich was neues zu? Seit dem Launch der PhysX hab ich nix mehr gehört - scheint eine totgeburt gewesen zu sein?!
Ich denke Nvidia wird dabei bessere Karten haben bei der Menge an Games die sie monetär unterstützen (Quake4, etc.) um somit den Anreitz zu schaffen diese neue Technologie in die Games einfliessen zu lassen. Ich bin auf jeden Fall sehr gespannt darauf, denn eine realistische Game-Physik wäre schon lobens. & wünschenswert.
solange die karten nicht mehr als die cpu verbraucht sind sie gern willkommen
warte auf das sp1 bei nvidia physikkarte - siehe folgende generation vom g80
Wäre das dann so eine Lösung wie bei ATI, dass 2 Karten die Grafik übernehmen und 1 Karte für die Physikberechnung zuständig ist?
Oder funktioniert dass auch mit nur einer Karte im PC?
Das es ein MoBo mit 3 PCI verwirrt mich doch etwas, das würde ja auf die erste Variante hindeuten. (2 Karten für Graik, 1 für Physik)
So wie ich das verstehe, werden die unified shader die Physikberechnung übernehmen (siehe golem.de)
Somit wären die unified shader schonmal bestätigt und dazu noch gleich mit Physikberechnung.
jetzt müsste nur noch der Stromverbrauch aktzeptabel sein....
Hoffentlich heisst es irgendwann nicht mehr Grafikkarte sonder Gamingcard: Eine Karte auf der Alles drauf ist, was man zum Spielen brauchte, anstelle von drei bis vier Karten, um vernünftig spielen zu können.
das kannste wohl vergessen, das war früher mal so, vor voodoo-zeiten.
man brauch wohl in zukunft wieder ein rechenzentrum um die ganze hardware unterzubringen. ich sag nur die entwicklung geht auf jeden fall in die richtung von immer mehr karten.
heute schon:
zb: sli oder crossfire, physik, ne netzwerkkarte mit integriertem 400mhz proz, soundkarte
sind schon ma 5 karten.
bald soll noch ne extrakarte für die KI kommen, wären es schon 6 karten, da sollte man dann schon sehn ob das mainboard so viel platz besitzt.
hab in meinem jetzigen pc gerade ma ne graka als karte, rest is onboard. wo soll die scheiße nur hinführen?
Ich verstehe aber immer noch nicht, wieso Ageia ihr Produkt nicht weiter pusht. Zumal Ankündigungen von ATI und auch nvidia in Richtung PPU gemacht wurden.
Ich frage mich nur, ob es so sinnvoll ist, die Physikberechnungen auf die GPU zu verteilen in Zeiten von dual- und demnächst quadcoreprozessoren, wo doch bei aktuellen Spielen nichma der 2. Kern genutzt wird, welcher sich für die Berechnung der Physik eignen würde, klärt mich ma bitte auf, wo da der Vorteil sein soll.
auf jeden fall einiges sinnvoller als eine zusätzliche karte! am schluss braucht ein sli-system mit einer physikberechnungskarte ja um die 2000watt. aber vom stromverbrauch mal abgesehen, auch der platz in einem pc bzw auf einem mobo ist ja auch nicht unendlich. ausser man geht im trend wieder rückwärts und fängt wieder an "wandschrank-pcs" zu bauen (schrank 1 > grafikkarten, schrank 2 soundkarte und tv-karten etc.)