News ATis GPUs besser in Physikberechnungen?

Also ich hab mir jetzt nicht alle Kommentare durchgelesen, aber bin der Meinung, dass ATi einfach nur Werbung machen möchte.

1. Ich kauf denen einfach nicht ab, dass eine Grafikkarte auf einmal genauso gut... nein, sogar noch besser Physikeffekte berechnen kann als eine Physikkarte, extra für sowas entwickelt wurde!
2. Ich sehe einfach den Sinn nicht, mir eine zweite Top-Grafikkarte für CrossFire zu kaufen, die dann 500 Euro oder so kostet. Die PhysX-Karte wird nur 300 Euro kosten!

Also, tut mir Leid, aber für mich sieht das nur so aus, als wollen die Werbung für ihr CrossFire machen.
 
Ich glaube auch nicht das eine Grafikkarte an die Leistung einer Physikkarte rankommt, schon gar nicht bei den 25Watt der PPU.
nVidia und ATi wollen halt einfach was vom Kuchen abhaben und rühren deshalb die Werbetrommel.
Wäre halt mal schön zu sehen WIEVIEL Interaktionen ein Sli/Crossfire Verbund hinbekommt.
1x CPU Core = 1.000
AGEIA PPU = 32.000

Schwer einzuschätzen wo die Leistung einer Grafikkarte liegen würde, vieleicht so ~8.000!?
 
seesharp schrieb:
Da müssten die CPUs also schon ordentlich zulegen, um das zu schaffen (ca. Faktor 1000).

Naja. Ganz so schlimm ist es auch nicht. Laut theoretischen Berechnungen müsste eine single core CPU ungefähr 50 mal schneller werden um die Leistung der PPU zu erreichen. Das ist aber alles nur sehr theoretisch und muss nicht unbedingt was mit der Realität zu tun haben.

In Wirklichkeit dürfte die CPU nämlich noch weiter zurückliegen. Der Faktor 50 kommt nämlich unter der Bedingung zustande, dass der Prozessor jede Berechnung auch verwendet.

Das ist aber in der Realität nicht der Fall. Da normale CPUs eine recht lange Pipeline haben in der die Befehle stecken ist es ziemlich fatal, wenn diese verworfen werden muss, weil die Branchprediction nicht korrekt funktioniert hat. Dann wurden jede Menge Berechnungen umsonst durchgeführt und müssen nochmal erneut berechnet werden. Die PPU hat dieses Problem nicht.

Was der CPU auch fehlt ist die riesige interne Speicherbandbreite der PPU von 2 TBit/sec (Alle 16 Kerne zusammengerechnet). Ein schneller Zugriff auf den Speicher ist bei Physikberechnungen sehr wichtig und da die Zugriffe hauptsächlich zufällig geschehen und selten sequenzielle Bereiche gelesen werden hat die PPU auch ein spezielles Zugriffsverfahen für den Speicher, das diese zufälligen Zugriffe beschleunigt. x86 CPUs lesen nämlich immer ganze Blöcke aus dem Speicher ein und da für die Physik meistens nur ein Bruchteil dieser Daten benötigt wird liest der Prozessor viel zu viel überflüssiges Zeugs ein und verschwendet damit Zeit. Dies tut die PPU nicht.

Vorteile dieser Art sind es, die einen 500 MHz ASIC-Prozessor um ein Vielfaches schneller machen, als eine mit 4 GHZ getaktete CPU.

So ist es ja auch bei den Grakas. Die sind für ihr spezielles Anwendungsgebiet perfekt geeignet und schlagen mit ihren 500 MHz die CPUs um Längen. Das gilt aber wie gesagt nur für die Grafik. Physik mag da zwar auch besser drauf berechnet werden, als auf einer CPU, aber bei weitem nicht so gut wie auf der PPU.

Aber wie schon des öfteren erwähnt. Eine Physik-Engine auf einer Graka ist eigentlich gar keine Physik-Engine. Ich will ja schon mit dem Objekten im Spiel interagieren können und nicth nur zusehen, wie sie durch die Luft fliegen.



Ycon schrieb:
Wieviele Flops hat die PhysX?

Mit dem Wert kannst du eigentlich nichts anfangen. Rein theoetisch sind es aber 96 GFlops (single precision).

Das sagt aber praktisch gar nichts über die Leistung des Chips aus, da es immer darauf ankommt, was ein Prozessor aus seiner Flop-Leistung macht. CPUs brauchen zum Beispiel zig Operationen um eine Kollision zu berechnen und die PPU kann das mit weniger Berechnungen duchführen und ist somit auch schneller, selbst wenn beide Prozessoren die gleiche Floatingpointleistung hätten. Sie ist halt um einiges effektiver.
 
Zuletzt bearbeitet:
3DMark 2006 soll die PhysX Leistung korrekt messen können, less ich hier grad. Hat jemand davon schon Benchmarks gesichtet? Bricht die FPS Rate ohne PhysY auf einem FX-60 wirklich um den Faktor 1000 ein?? Zeigen!!
 
@65 AshS: Ich glaube, das hast Du falsch verstanden. Ich hab nur eine kleine Milchmädchenrechnung gemacht. Benchmarks gibt's meines Wissens noch keine, aber der Unterschied liegt sicher zwischen Faktor 50 und 1000 ;-)
 
Grafikkartenhersteller in NOT!
Lange haben sie sich mit NVIDIA um die schnellste Karte gezapft(gut so) und nun versuchen Sie es notgedrungen Ihre eigentliche Philosophie SLI/CF als Physik- Alternative vorzustellen LOL.

Ich sag nur wer zu erst kommt malt zu erst. (AGEIA)
Und nur das Original ist die bessere Wahl :-)

Mfg Selflex
 
Ok, die Physikkarte wird die CPU entlasten, das ist klar. Aber ehrlich nochmal ca. 250€ für ne PPU-Karte zu blechen ist doch irgendwie unsinnig. Ok, diejenigen, welche das Geld haben kann das schnuppe sein, aber ich denke dennoch 250€ sind kein Pappenstil! Meiner Ansicht nach wäre eine PPU OnBoard (evtl. auf der Graka oder vielleicht aufm MB) die beste Lösung. Dabei würde auch kein PCI/-E Slot verloren gehen. :D

mFg tAk
 
@69 tAk

Genau, das wäre ja die teuerste Lösung, da du den Chip ja jedesmals mitzahlen musst. Und der ist ja jetzt auch nicht so klein und wird die Mobo-Hersteller im Einkauf auch einiges kosten, was sie an dich weitergeben.
Bei jedem Upgrade zahlst du den Chip, den du eigentlich schon hast, nochmal bzw. hast ihn nicht mehr.
Und da ja erst 3 Jahre später die nächste Gen des PhysX kommt, hast du bestimmt insgesamt den Chip 2-3 gekauft.
Ich könnte auch mit ´nem Mobo ohne Sound und ´zig RAID-Controllern leben, wenns genauso leistungsfähig und billiger wäre.
 
Zuletzt bearbeitet:
Ok das stimmt. Hab ich ja auch irgendwie ausser acht gelassen. :D
Was mich eigentlich nur Sorgen macht ist der PCI/-E Slot, welcher die Karte brauchen wird.

Na hoffentlich hast du mit deinen 3 Jahren recht mit der neuen Generation. Sonst würde das echt ausarten. :freak:

mFg tAk
 
Ich versteh die leute nicht. Erst quatschen 250 Euro sind kein Pappenstiel und dann in der SIG die mit teuerste Hardware haben :freak:
Allein dein Prozessor und deine zwei Grakas haben 1500 bis 2000 Euro gekostet!!!
 
Sry, ich hab da auch nicht gerade an mich gedacht. Wenn die PPU wirklich was bringt hol ich mir die auch. Ich denke eher an die Leute, welche halt weniger Geld auf der hohen Kante haben und für die ist 250€ nunmal kein Pappenstil.

mFg tAk
 
tja, ich als alter atari st anwender kenn da natürlich noch ein trick, ein sockel für den spezialchip (damals blitter-chip).
wechselt man die grafikkarte, zieht man den chip wieder raus und steckt den auf die neue karte. das hätte den vorteil, das man evt. durch schnelleren ram der grafikkarte auch die leistung des physikchips erhöhen kann. auch denke ich, das der grafikspeicher besser ausgenutzt wird, dynamische anpassung, wer wieviel bekommt und ich denke 512MB für ne grafikkarte ist noch nicht alles. wird der chip auf der unterseite der grafikkarte reingesteckt, könnte bald sogar ein passivkühler ausreichend sein, in einem neuen fertigungsschritt wenn die anfänglichen verlustleistungen wegoptimiert werden. ich erinnere nur an die ersten gigabit-netzwerkkarten, die hatten alle fette kühler und nun wird ein intel-gigabitchip grade mal warm...
 
Zuletzt bearbeitet:
Eine GPU ist leistungsfähiger als die meisten ahnen. Ein Grafikchip ist dafür optimiert, sehr viele Operationen parallel auszuführen, wesentlich mehr als eine CPU könnte.
Aber das haben andere vor mir ja auch schon bemerkt ;) .
Der Unterschied zur PPU liegt einzig und allein für mich in der Spezialisierung der Ageya Karte.
Sollte das ganze Spruchreif werden, kann ich mir gut vorstellen eine zweite X1800/1900 ins System zu holen und je nach Anforderung entweder Grafik oder Physik anzufordern.
 
zuerst sollte man mal die CPU´s auslasten und dann erst auf die idee kommen noch nen neues bauteil einzubauen
 
News schrieb:
Man wolle eine proprietäre Programmierschnittstelle integrieren
Irgendwie habe ich die Befürchtung, dass ATI und Nvidia jeweils ihre eigenen, geschlossenen Schnittstellen bringen, anstatt sich auf einen Standard zu einigen. Dies würde dann doppelten Programmieraufwand und Fehleranfälligkeit mit sich bringen.
 
Vesh schrieb:
zuerst sollte man mal die CPU´s auslasten und dann erst auf die idee kommen noch nen neues bauteil einzubauen
Was glaubst du, was man mit dem PhysX Chip machen will. Damit soll die CPU ja auch entlastet werden. Besser kann man die CPU nicht entlasten. Mit Ausnahme der GPU gehts auch gar nicht anders.

@DBZfan
Da kann man nur hoffen, dass Die Spieleentwickler hauptsächlich die Novodex Engine verwenden. Allein schon die kostenlose Verwendung bei Unterstützung des PhysX Chips sollte genug überreden. Die Spieleentwickler müssen sich ja auch überlegen, welche Physikengine am besten für ihren Kunden wäre, zumindest sollte man das annehmen. :rolleyes:
 
Also ich bin ja mal für ein Mainboard mit drei Sockeln, für CPU, GPU und PhysikPU;)
 
Hä?
cwm13.gif
:rolleyes:

Was soll an so einem Board besonders sein, gibt es doch...
stupid.gif


socket940_big.jpg


70046.gif


pci.jpg
 
Zuletzt bearbeitet:
Zurück
Oben