Bericht Vorschau: BFG PhysX Accelerator card

Also mal sehen, welche Rechtfertigung die finden, damit man sich aller 2 Jahre ne neue PPU Karte kaufen MUSS ... Beispiele wären :

1. Leistungsfähigkeit (so wird'S wohl werden)

2. Öh , die Physik hat sich geändert :hammer_alt:

3. Öh , damit man eine virtuelle Stadt dem Erdboden gleich machen kann :lol:

4. Oder , ab jetzt kann die PPU auch die Aufgaben der GPU übernehmen :watt:

5. Oder , kann jetzt auch Kaffee kochen :volllol:

... ich hoffe mal das man die PPU in der GPU / CPU unterbringt (in ein paar Jahren)

... weitere Einfälle sind erwünscht !
 
Zuletzt bearbeitet:
Jo. Bring die PPU mal in GPU / CPU unter. Die Hitzeentwicklung möchte ich dann allerdings nicht kühlen. Genauso möchte ich dann kein direktes 500W Netzteil haben, weil der Stromverbrauch nicht richtig angepasst wurde.

Ich seh das auch nur hier in Deutschland, das darüber gemeckert wird. Überall anders freut man sich.

Mama bin ich anders??
 
Mir geht's primär bloß um den Preis + Unterstützung (momentan) , und dann wenn ich mir die Lüfter anschau wird mir so richtig schlecht ... sicher wird es irgendwann ne passive Variante geben, die wird aber richtig schön teuer werden ... außerdem meckere ich nich , ich übe bloß Kritik ...

:lol: du bist hier irgendwie falsch , mit deinem positiven Denken , immer schön meckern !
 
Zuletzt bearbeitet:
Aha ! , Also Du weisst es nich ? Hab ich dich doch ertappt ! :D
Aber mal im Ernst, alle diesen kleinen minni Lüfter machen Krach ... der eine akzeptiert es der andere nich ...

Achja zum Thema Strom und Wärme bei einer integrierten Lösung , ... es gibt mitlerweile vielversprechende Technologien zur Taktgenerierung + Taktaufteilung (Clockbranching) mit denen man ü. 60% Einsparung bezüglich der Stromaufnahme einer CPU / GPU erreichen kann , wenn man noch bedenkt das neue Fertigungsprozesse seiten's Intel / Amd auf dem Plan stehen dann wäre es theoretisch möglich eine PPU in die CPU zu "pressen" , ich denke aber mal in den nächsten 2 Jahren wird sich da nix tun ... AUSSERDEM :
als extra PPU auf einer PCI / PCI-E Karte brauch das Dingen's auch Strom, und wenn ich mir den Lüfter + Kühler anschaue dürfte das soviel wie bei ner 6600/6600GT sein (irgendwas zw. 50-70W), weil diverse Grafikkartenhersteller z.B. genauso einen Lüfter auf ihren 6600/6600GT Karten verbaut hatten ...
 
Zuletzt bearbeitet:
Mal als kleiner Denkansatz:

Die komplexesten CPUs und GPUs liegen derzeit zwischen 300 und 400 Millionen Transistoren. PhysX hat 125 Millionen. Das wäre dann, im günstigsten Fall, eine Vergrößerung der Chipfläche um 1/3. Was ersten teurer wäre, zweitens gemessen am Markt nur für einen Bruchteil der Kunden interessant wäre und drittens die Prozessoren weiter verkomplizieren würde. Außerdem müsste man so bei jedem Neukauf die PPU nochmals bezahlen.

Der Einsatz von PhysX als beispielsweise über HyperTransport angebundener Co-Prozessor wäre zwar grundsätzlich noch denkbar, jedoch stellt sich dann wieder die Frage der Verhältnismäßigkeit. Zumal AMDs Desktop-Prozessoren dafür derzeit nicht gerüstet sind.

Man sollte nicht immer versuchen alles mit der Brechstange in einen Prozessor zu zwengen. CPU und GPU lässt man, sinnvoller Weise, schließlich auch parallel existieren. Die daraus resultierenden Vorteile dürften für jeden offensichtlich sein.
 
Zuletzt bearbeitet: (Typo)
Im moment ist das ding noch kein thema. es gibt noch zuwenig anwendungen dafür! Mal sehen ob nächstes jahr, noch ein paar passende sachen kommen.
 
Parwez schrieb:
Mal als kleiner Denkansatz:

Die komplexesten CPUs und GPUs liegen derzeit zwischen 300 und 400 Millionen Transistoren. PhysX hat 125 Millionen. Das wäre dann, im günstigsten Fall, eine Vergrößerung der Chipfläche um 1/3. Was ersten teurer wäre, zweitens gemessen am Markt nur für einen Bruchteil der Kunden interessant wäre und drittens die Prozessoren weiter verkomplizieren würde. Außerdem müsste man so bei jedem Neukauf die PPU nochmals bezahlen.

Der Einsatz von PhysX als beispielsweise über HyperTransport angebundener Co-Prozessor wäre zwar grundsätzlich noch denkbar, jedoch stellt sich dann wieder die Frage der Verhältnismäßigkeit. Zumal AMDs Desktop-Prozessoren dafür derzeit nicht gerüstet sind.

Man sollte nicht immer versuchen alles mit der Brechstange in einen Prozessor zu zwengen. CPU und GPU lässt man, sinnvoller Weise, schließlich auch parallel existieren. Die daraus resultierenden Vorteile dürften für jeden offensichtlich sein.

Genau so ist es

ausserdem würde eine PPU auf der Grafikkarte diese derzeit um mehr als 300€ teurer machen. Wieso? Ganz einfach: seht euch die karte doch mal an. 130nm PCI 20W keine Anschlüsse und nix. die Karte kostet in der Produktion wahrscheinlich keine 10€. Der Grund, wieso sie für 300€ werkauft wird, ist der Entwicklungsaufwand dahinter. Mitunter auch für die Software.
Jetzt soll man noch Entwicklungsarbeit investieren, das Ganze auf die Grafikkarte zu verfrachten?

Wenn die Entwicklung einmal wenigstens teilweise amortisiert ist, wird auch der Preis fallen. Aber dazu braucht es erst einmal Leute, welche diese Karte für 300.-- kaufen :freak:
 
Der Preis ist, wie ich bereits sagte, höchstwarscheinlich auch deswegen so hoch, weil für 100 Euro eben nicht dreimal so viele Leute bereit wären diese Karte zu kaufen, weil die Situation aktuell nunmal so ist, dass der praktische Nutzung vorerst so gut wie nicht vorhanden ist. ;)
 
Jep. Am Anfang kaufen sowieso nur die Hardcore-Gamer und die sind meistens Bereit sehr viel Geld für ihre Daddelbox hinzulegen.

Da wäre Ageia ja blöd, wenn sie das nicht ausnutzen würde.
 
Wozu das nun noch ne Extrakarte kosten soll is mir nich klar.
Die sollen ma lieber ne Gpu mit 2 Kernen bauen wo PPU dann gleich mit bei is.
Das würde dann sicher Aufwand und Geld sparen aber Profitgier treibt ja immer wieder neue seltsame Blüten zu tage.
 
Und für den Megamultichip (Rasterizer + Shader + PPU) willst du dann auch gern wieder eine Geforce-FX-Kühllösung akzeptieren?
 
Ich freue mich aufjedenfall auf die Karte. Cellfactor sieht ja schon sehr lecker aus.
 
Parwez schrieb:
@df7nw01

GRAW lässt sich nicht verallgemeinern, da PhysX dort nur aufgesetzt ist. Bei einer komplett auf dem PhysX SDk basierenden Spielumgebung sollte sich jede physikalische Berechnung auf die PPU auslagern lassen. Die ist ja nicht nur für schöne Effekte da.

Hey,

stimmt schon, da hast du recht.

Nur leider wird Unreal Tournament 2007 wahrscheinlich auch nur Physik-Effekte damit darstellen. Angeblich soll es zwar spezielle Multiplayer-Karten geben, bei denen eine PhysX-Karte gebraucht wird und es ohne nicht läuft (da Gameplay-Physik damit berechnet wird..), aber nicht im kompletten Spiel, was ich sehr schade finde..

Jedenfalls lies dies ein Interview mit Epic verlauten..

Ich hoffe, dass da irgend etwas falsch verstanden wurde.

Denn sonst wäre wohl UT 2007 auch nicht das erhoffte "Killerapp".

Und wie es mit Gothic 3 aussieht, weiß ich nicht..

Vielleicht hört man ja was neues von PhysX bei dieser Hardware-Konferenz Anfang Juni.

MfG
CYA

iNsuRRecTiON
 
bensen schrieb:
mal für gewisse schreihälse die meinen die physik wie in cellfaktort ist nur mit extra karte zu realisieren und ein cpu ja viel zu schwach

http://www.hardwareluxx.de/story.php?id=4076

Hey,

du hast wohl vergessen, dass du mit reiner CPU Berechnung Abstriche machen musst..!

Es sind einfach manche Effekte und Gameplay-Physik ohne die PhysX-Hardware nicht realisier- bzw. darstellbar..

Also dürften wohl einige Sachen dort nicht berechnet werden!

MfG
CYA

iNsuRRecTiON

PS: Ich finde trotztem alles Schwach, was sich bisher AGEIA mit PhysX und dem Referenzboard der 1. Gen geleistet hat..
 
Zurück
Oben