News ATi präsentiert „CrossFire Physics“

Auch das wird sich sicherlich für ein Nischenprodukt ganz nett verkaufen, sofern es auch nur 1% mehr Performance/Qualität/Detail bringt.

Wenn der Markt SLI und Crossfire aktzeptiert, dann auch Crossfire Physics.

mfg Simon
 
Na die Idee, bzw. der Vorteil bei Crossfire-Physics gegenüber SLI-Physics ist ja gerade, dass die für Physik benutzte Grafikkarte nicht der für Grafik benutzten Grafikkarte ähneln muss, dass ich dafür also auch eine Low-End-Karte benutzen kann und die wiederum könnte auch PCIe x1 oder x2 sein, braucht also nicht unbedingt einen PCIe x16 Slot.

Das ist dann letztenendes vom Aufwand her genau wie PhysX. Dabei stellt sich mir nur die Frage, warum das dann unbedingt eine Grafikkarte sein muss und keine richtige Physikkarte.

PPU.jpg

Das hat Sebbek mal aus der c't gescannt, und in einem früheren Thread hochgeladen. Dabei ist beim Vergleich der möglichen Objektzahl mit den FLOP/s deutlich zu sehen, dass die Physikleistung nicht allein an der FLOP/s Zahl gemessen werden kann, wie hier stellenweise im Thread der Eindruck erweckt wird.
 
Zuletzt bearbeitet:
@Mortiss

Nicht die Transistoren einer GPU sind anders als die einer CPU sondern ihre fähigkeiten und ihre Anzahl. Eine GPU mit 16 ROPs kannst du, um bei deinem Vergleich zu bleiben, mit einer 16 Core CPU vergleichen die nur Matrizen-Operationen durchführt. Das Ganze noch gewürtzt mit einer Speicherbandbreite von ca. 50 GB/s im Vergleich zu ca. 5 GB/s einer CPU. Nun Sag mal wie da eine Dual Core CPU mithalten kann?
 
Zuletzt bearbeitet:
es gab doch mal so eine studie von msi mit gesokkelten grafikarten und zusätzlich gibt es ja momntan die 7950gtx2 oder wie sie auch immer heißt das ist doch ein gutes beispiel so sollte das ganze ablaufen... nur das in unserem fall ein prozessor auf physik abgerichtet ist und der andere auf grafik :freaky:
 
Ich fände es viel besser für die Leute die nicht so einen großen Geldbeutel haben aber trotzdem gute Physic haben wollen.Wäre wesentlich besser sich zu seiner z.B. X1900XTX eine X1600XT holt anstatt eine Physic Karte.Preismäßig wäre das von Vorteil.Wenn das denn dann geht.
 
tach auch,

also ich verstehe die Aufregung nicht wirklich. Habe mir vor einem Monat nen Opteron 165 geholt mit ner x1900xtx und bei 1600x1200 mit 4 AA und 16 AF iss kein Spiel in der Lage diese karte auszureizen. Bei Doom3 angefangen über HL2, Quake4, BF2 etc. Läuft alles astrein. Also wer meint er bräuchte unbeding ein SLI System oder CF, der soll in dem Glauben bleibenund ein schweine Geld dafür ausgeben. Dem geschiehts dann recht. Und ne zweite karte a la x1900xtx kommt mir nicht ins Haus, ;-)
 
Also ich hzab zwar bis jetzt nur ATI Karten gehabt, glaube aber das dieser Schritt kein kluger watr, b.z.w. sich das nicht durchsetzen wird.

Allein schon aus dem Blickwinkel gesehen, dass man für die zweite Grafikkarte soweiso Geld ausgeben muss, dann würde ich zumindest eh eine Physikkarte kaufen, die darauf spaezialisiert ist.

ATI sollte lieber darauf achten, dass ihre Grafik stimmt. ;-D
 
ich finde es gut das man versucht die technischen möglichkeiten auszuloten.was am ende dabei rauskommt und alltagstauglich ist, bleibt ab zu warten...
 
Pruritus schrieb:
So, so das weisst du also.
Du weisst dann bestimmt auch, dass 3DFXs Patentklage (1998) gegen nVidia wegen Single-Pass-Multitexturing / level-of-detail mipmap dithering in Chips vom Riva TnT bis Geforce völlig grundlos war.

Ja, das war sie.

Pruritus schrieb:
Nvidias Gegenklage, mit der Forderung alles von Vodoo 2 bis 5 vom Markt zunehmen war wohl dann auch nur reine Notwehr.

Ja, denn es war umgekehrt. 3dfx Klage enstand aus der reinen Notlage, weil der Konkurs bereits abzusehen war. Dass NVidia gegenklagte war nur selbstverstaendlich.
 
Also für mich macht das erst Sinn, wenn ich mit einer einzelnen Karte Physik und Grafik gmeinsam berechnen kann. Dann kann man in den Einstellungen der Spiele selbst festlegen, ob man die Rechenleistung der Karte lieber auf die Physik ansetzt oder für eine bessere Bildqualität einsetzt.

Dann muss man halt auf HDR verzichten, wenn man mehr Objekte darstellen will. So in der Art fände ich das schon OK.


Warum ist das eigentlich nicht möglich, beides auf einer Karte zu machen, oder verstehe ich da was falsch? Ich sehe eigentlich keinen offensichtlichen Grund warum man nicht gleichzeitig Shaderprogramme für die Physik und für die Grafik laufen lassen kann.


EDIT:

Aha. Im Update wurde meine Frage jetzt beantwortet
Update: Wie ATi uns auf Anfrage soeben mitteilte, ist es mit CrossFire Physics technisch durchaus möglich, die Spielphysik auf einer Grafikkarte zu berechnen. Jedoch würde eine GPU bei der Spielphysik die CPU nur um etwa 10 bis 15 Prozent entlasten, weswegen sich die Kanadier auf die Effektphysik fokussieren werden.

Schade, dass das so wenig bringt.
Ob das auch für DX10 gilt?
 
Zuletzt bearbeitet:
Sinnvoll ist 1 Grafikkarte, 2 Grafikkarten sind Unsinn und werde ich mir niemals kaufen.

Was dieses Physics gedöns angeht sicher schön wenn Spiele realistischer werden wollen wir ja alle aber eine zweite Grafikkarte oder Physikkarte werde ich mir niemals kaufen.

Wenn es demnächst über Software läuft (meinetwegen die CPU belastet wird oder in der Grafikkarte verbaut ist) ok, ansonsten wird mein Moto lauten -> nicht nutzen.
 
Die Spiele müssen sich schlussendlich auch verkaufen und möglichst viele Menschen erreichen. Da nur wenige bereit sein werden sich auf die derzeitigen Optionen für separate Physikberechnung einzulassen, werden diese wohl auch auf längere Sicht noch nicht zur Vorrausetzung für Spielgenuss.

Also freue ich mich noch auf ein paar Jahre ohne Ageia und CF/SLI
 
das ist das schöne, wenn man den trend einfach hinterherläuft wie ich :) ich habs seit SoA aufgegeben immer das neuste zu haben. es bringt vor allem auch nix. ich warte jetzt erstmal wieder bis sich alles beruhigt hat und nächstes jahr der So940 dualcore opteron schön günstig ist. dann vielleicht eine x1900 dazu und ich bin mindestens mit der hälfte des preises von heute voll dabei. und mal ganz ehrlich:

in meinem pc kommt nur eine grafikkarte rein. und ich werde mir kein neues kabel in der wand legen lassen nur weil mein pc soviel power braucht, dass meine mutter nichtmehr am herd kochen kann o_O wo zum teufel sind wir denn?!
genauso mit diesen x-fi karten. wozu brauche ich dolby 150.1 sound? nur weil man durch den tollen x-ram vielleicht 1,5757fps mehr hat. das sind entwicklungen die die welt nicht braucht. ich habe seit meiner 16bit soundblaster immer nur onboard sound benutzt. nforce halt.

man darf sich echt nicht ausmalen was da auf uns zukommt. damals dimmten in ganz san francisco die lichter wenn deren supercomputer eingeschaltet wurde. in ein paar jahren müssen lan-veranstaltungen ala northcon oder summit ihre eigenen atom-reaktoren kaufen...
 
Wer sich über den Stromverbrauch beschwert ist selbst schuld, Nvidia hat passende Lösungen parat, die 7900gt z.b kann man sogar passiv kühlen. Bei den Soundkarten geht es ja auch nicht um Geschwindigkeitserhöhungen sondern um Qualitätsverbesserungen, und die hört man nicht nur in Spielen, sondern auch bei Musik und in Film. Und zum Geschwindigkeitsvorteil von Soundkarten, siehe hier: http://www.3dcenter.de/artikel/2005/08-04_a.php

back to Topic: Ich finde diese Zweckentfremdung vollkommener Unsinn, und eine x1600xt soll doppelt so schnell sein wie Physx, wers glaubt.
Mein Favorit ist immernoch eine Mittelklasse Graka + ein Physxchip, sobald jener günstiger wird, und das wird er sicherlich, alles andere wäre unsinn.
 
Alles klar, "CrossFire Physics" ist nur für Eye-Candy, also genau so wie SLI-Physics keine Alternative zum Ageia Physix.

Ihr habt euch um sonst aufgeregt!
 
Nujo, wenn die CPU nur um 10-15% entlastet wird bei einer Karte, dann muß man halt sein z.B. ausgemustertes x1600 CF Sys für die Physik nutzen und steckt sich halt noch 2 Karten für die Grafik dazu. Also doch 4 Karten ;).
 
kisser schrieb:
Ja, das war sie.



Ja, denn es war umgekehrt. 3dfx Klage enstand aus der reinen Notlage, weil der Konkurs bereits abzusehen war. Dass NVidia gegenklagte war nur selbstverstaendlich.


Dein Verständnis von "selbstverstaendlich" ist mir, ehrlich gesagt, unverständlich.
Was war denn jetzt umgekehrt? Hat 3dfx jetzt geklaut oder befindest du dich in dem Glauben, dass 3DFX als schlechter Verlierer, NV vor dem Tode nochmal schnell ans Bein pinkeln wollte?
Nun gut, damit es Sinn macht hier weiter zu diskutieren solltest du vielleicht mal in Vorleistung gehen und der erstaunten Öffentlichkeit die Quellen deines Wissens präsentieren.
 
Ich finde das äuserst sinnlos siehe Physikx tests die verschlechtern die Leistung eines Systems irgendwann wird dass in die CPU oder Graka inplementiert wenn einen sinn irgenwann ergeben sollte , mann kann im mon noch einwandfrei mit einer Graka zocken Freundinn zockt mit einer 5900 CS_ source ich zocke mit 2 7800gtx deswegen habe ich auch nicht mehr spass drann ausser das die Grafik besser aussieht und wieso sollte ich die Cpu entlasten wollen in zeiten von Dualcore und bald auch Quadcore und die Grafikkarten haben mehr als genug leistung um das alles zu berechnen nur um nochmehr strom zu verbrauchen bestimmt nicht !!!
 
drago-museweni schrieb:
irgendwann wird dass in die CPU oder Graka inplementiert wenn einen sinn irgenwann ergeben sollte

Und warum sollte das passieren? Zuerst einmal muss sich der Chip als Karte verbreiten sonst wird den weder ein Graka oder CPU Hersteller integrieren.

Es ist also alles andere als sinnlos. Irgendwann muss man mal anfangen. Außerdem wird sowas nie in die CPU integriert.

Eine Art Multimedia-Card für Grafik, Sound und Physik-Berechnungen könnte ich mir hingegen schon vorstellen. Irgendwann mal weit in der Zukunft.


Das die Karte die Leistung verschlechtert kannst du noch gar nicht sagen, da es kein Spiel zum Benchmarken gibt. GRAW ist jedenfalls kein geeignetes Spiel dafür.

Grund siehe #84
 
Zurück
Oben