News ATi präsentiert „CrossFire Physics“

In Ghost Recon AW wird die Leistung durch PhysX Karte etwas vermindert aber dafür werden ein paar mehr Physik Effekte dargestellt.
 
kisser schrieb:
Ich weiss, dass 3dfx sich selbst durch mangelnde Innovation platt gemacht hat, NV hatte damit nichts zu tun.

So, so das weisst du also.
Du weisst dann bestimmt auch, dass 3DFXs Patentklage (1998) gegen nVidia wegen Single-Pass-Multitexturing / level-of-detail mipmap dithering in Chips vom Riva TnT bis Geforce völlig grundlos war. Nvidias Gegenklage, mit der Forderung alles von Vodoo 2 bis 5 vom Markt zunehmen war wohl dann auch nur reine Notwehr.
Aber für Leute, die es nicht so genau wissen wie du, könnte der Eindruck enstehen:
...da hat jemand Technologie mal ein bisserl "nachempfunden", ein wenig optimiert, den Marktführer mit seiner eigenen Technologie unter Druck gesetzt und bevor was rauskommt hat man den Giganten für ein Taschengeld gekauft und geschlachtet. Dann hat man ja die Patente..gelle ;)
NV deswegen Raubtierkapitalismus, Unfairness und Unmenschlichkeit vorzuwerfen geht jetzt aber wirklich zu weit :king:
 
Da wird sich noch einiges tun, die Treiber sind ja auch noch nicht völlig optimiert.
Bin mal auf ut2k7 mit Unreal3 Engine etc. gespannt. Wenn die Engine die Karte richtig unterstützt, dann finden sich bestimmt auch mehr Käufer dafür.
 
GRAW kann man auch nicht wirklich zum Beurteilen der Leistung verwenden.

Erstens bietet das quasi Null Zusatzeffekte, womit die Karte wirklich überflüssig wird. Die Karte ist ja nicht dafür gedacht um den Prozessor bei heutigen Physikberechnungen zu entlasten, sondern um mehr Physikberechnungen bei gleicher Prozessorlast zu ermöglichen.

Und zum Zweiten läuft selbst mit eingebauter PhysX-Karte die Havok-Physikengine auf der lediglich die Novodex-Engine aufgesetzt wird. Von optimaler Nutzung kann da also absolut nicht die Rede sein.


Warten wir lieber mal Spiele wie UT2007 oder andere Unreal3-Engine Spiele ab, bei denen die Novodex Engine wirklich direkt verwendet wird.
 
Bullet@ Vorsicht mein "Freund" ich glaub nicht das du Berechtigt bist allgemein zu sagen alle die ein SLI/Cross haben, seien idioten!
Im Gegenteil, durch SLI kann man später die gleiche Karte günstig erwerben und wenigstens 30% Mehrleistung erzielen! Niemand zwingt dich zu SLI und CO auch nicht die "honks"

User gibts tztztz....

Zum Thema, ich hoffe die Ageiakarten werden noch optimiert und setzen sich durch. Obwohl es SoundOnboard gibt, verkaufen sich Soundkarten trotzdem gut, wieso wohl!
 
@Tronx

Und wie lange muss man da warten damit sich das lohnt? 2 Jahre?
Na toll, dann bekommst du ne günstigere Graka mit doppelter Leistung ;-)

Aber soll jeder selber wissen ob er SLI/Crossfire braucht.
 
ich fände mal einen Dual-Core Prozessor interessant, wo ein Kern die Grafik rendert, der andere die Systemdaten. Die Anbindung von Kern zu Kern ist sicherlich schneller als solch langsamer PCI-Express SLI bzw. Crossfire.


Was diese Idee angeht - klar, kauft euch doch noch 20 Grafikkarten, jede Grafikkarte rendert 10 cm² des Bildes.


Dann lieber eine X800 Pro und eine Ageia Physix :D


Die Entwicklung geht langsam in die falsche Richtung, 3DFX hat dies so gemacht und ist pleite. Warum macht man das jetzt wieder? ich würde auch den Kohl nicht nochmal wählen.
 
Mortiss schrieb:
ich fände mal einen Dual-Core Prozessor interessant, wo ein Kern die Grafik rendert, der andere die Systemdaten. Die Anbindung von Kern zu Kern ist sicherlich schneller als solch langsamer PCI-Express SLI bzw. Crossfire.

such dir eine single core cpu die genau so viel leistung wie dein dual core bietet(einfach mal die benchmarks durchgucken ;)) und lass ein modernes spiel im software modus laufen(was wohl unter windows garnichts werden wird...) dann kannst du das ergebniss deiner phantasie ja schonmal bewundern....


dual core zaubert keine leistung ausm hut. ob ich nun 2 berechnungen gleichzeitg oder in der selben zeit 2 hintereinander macht überhaupt keinen unterschied. dual core wird erst in zukunft wirklich größere vorteile bringen, aber auch dann nur schritt für schritt. grafikkarten werden in der selben zeit wesentlich größere schritte machen, wie es eben schon immer läuft.

anbetracht dieser tatsache kann es für leistungs-suchende nur ein ziel geben: soviel arbeit wie möglich runter von der CPU. das spart geld, ob ihr das nun verstehen wollt oder nicht...
 
Also soweit ich das verstehe geht das mit der Physik-Beschleunigung sogar mit einer Karte (da wird dann beim Treiber geregelt, wieviel für Physik und wieviel für Rendering verwendet werden soll), bei 2 Karten übernimmt die 2te dann das Physik-Rendering (falls Physik-Rendering aktiv natürlich und bei 3 Karten rendern 2 Karten und 1 dritte Karte übernimmt die Physik...
Zumindest bei der golem.de-News wird dies so deutlich, hier hätte ich aber denoch auch verstanden, dass das ganze auch mit 2 Karten funktioniert...
golem.de-News:
http://www.golem.de/0606/45739.html

Bereits bekannt war, dass ATI Physik- und Grafik-Beschleunigung auf einer Karte und mit zwei Grafikkarten der Radeon-X1000-Serie wird bieten können. Mit nur einer Karte kann per Treiber eingestellt werden, wie hoch die Leistung für die Grafik- oder Physik-Beschleunigung sein soll. Bei einem Crossfire-Gespann mit zwei Grafikkarten übernimmt die zweite Karte die Physik-Berechnungen.
 
bensen schrieb:
...
klar hat ne ppu wohl mehr leistung in sachen physik, aber mal vor augen halten dass die cellfactor demo ohne ppu nur 2 fps langsamer lief als ohne(nur von cpu berechnet)...
Öhhm Bensen, seit wann fängst du an solche Unwahrheiten zu verbreiten? Cellfactor wurde noch nie ohne PPU getestet, das ist bisher auch nicht möglich.
 
Warum soll es nicht möglich sein das zu testen ?
EnablePhysX=false an die verknüpfung und fertich.
 
ich schmeiße lieber den Graka Herstellern mein Geld in den Rachen als irgendeinen scheiß Aegia gedönse mit dem man ausschließlich Physik berechnen kann.

Es gibt bereits Lösungen wo Grafikkarten für andere aufwendige Berechnungen benutzt werden, also warum nicht auch für Physik. Und wenn ich keine schöne Physik haben will, dann benutze ich die Graka eben wieder zum rendern. Ich denke mal das es eh so kommen wird, dass man sich aussuchen kann was die Karten "rendern" sollen, wenn man den mehrere hat.
 
gordon88 schrieb:
Warum soll es nicht möglich sein das zu testen ?
EnablePhysX=false an die verknüpfung und fertich.

Natürlich klappt das, aber dann hast du nicht den Detailgrad, den du mit Karte hast.

Mit der Karte zerbrechen die Objekte auch in mehrere Teile. Gerade das ist es, was die Physikberechnungen so aufwendig macht, wenn auf einmal aus 100 Kisten tausend Einzelteile werden.

Stoffe und Flüssigkeiten sind in der CPU Version auch nicht vorhanden. Jedenfalls nicht, wenn man sie aus dem Editor startet.
 
@ Siberian..Husky:

Sind die Transistoren in einer CPU anders, als in einer GPU? gibt es spezielle Grafik-Transistoren? ja? ehrlich?


Egal, ein Prozessor kann rechnen, was er will. GPUs bekommen eben nur Grafik zum Rendern - seit neuestem auch Physik. Da meckerst du also nicht rum?

potentielles Zitat Siberian..Husky:

"Was? das gibt es doch garnicht. Die Radeon is doch nichmal Dual-Core. Wie soll dann ein Kern gleich 2 Dinge beherrschen?"

Man kann auch auf Software spielen, nur dann berechnet das System eben nicht die Erweiterungen von Direct 3D bzw. OpenGL
 
"Öhhm Bensen, seit wann fängst du an solche Unwahrheiten zu verbreiten? Cellfactor wurde noch nie ohne PPU getestet, das ist bisher auch nicht möglich."


ja ne is klar, also ich habe cellfaktor ohne ppu schon gespielt.
 
@Faint

Ja, is klar, aber das wurde hier schon etwa halb neun geklärt. Du brauchst das nicht im geistigen Repeat-Mode wieder von vorne anfangen.
noxon schrieb:
... aber dann hast du nicht den Detailgrad, den du mit Karte hast.

Mit der Karte zerbrechen die Objekte auch in mehrere Teile. Gerade das ist es, was die Physikberechnungen so aufwendig macht, wenn auf einmal aus 100 Kisten tausend Einzelteile werden. ....
 
Zuletzt bearbeitet:
Mensch, das ist ja vielleicht eine angespannte Stimmung hier.

Schon komisch, dass es bei dem Thema so heiß her geht. Das geht ja hier schon so ähnlich los wie bei Betriebssystem- oder Programmiersprachen-Diskussionen. Da hat auch immer jeder die einzige wahre Lösung parat.
 
Zurück
Oben