[Benchmarks] PhysX, welche Grafikkarte reicht aus?

@mpeg
Noch mal THX!

@someone-else
Stimmt, DAS ist der entscheidende Punkt.
Beim Gigabyte GA-P55A-UD3 müsste ich mir mit Abkleben keine Sorgen machen.Habe eben im Handbuch mir das Blockdiagramm angesehen, welches eindeutig Gewissheit gibt. Die Texte, die ich darin weiter hinten gelesen habe, stiften nur Verwirrung.

Der 4x Slot ist über den NB.-CHipsatz realisiert und teilt sich Lanes mit dem zweiten PCIe 1x Slot unterhalb des 16x Steckplatzes. Da die meisten Grakas sowieso über Dual-Slot Kühlungen verfügen und dieser dann automatisch verdeckt wird, ist es keinerlei Verlust, falls dieser unbrauchbar wird.
Wenn dieser PCIe Slot belegt wäre, liefe der 4x Slot auf 1x wegen der gemeinsamen Nutzung der Lanes.
Allerdings habe ich auch schon an anderer Stelle gelesen, dass Physix 4 lanes benötigt.

=>
Somit müsste der PXIe 1x Slot bei gewünschter Nutzung von GPU + GPUPhysix auf jeden Fall frei bleiben und der 16x Slot behält seine 16 Lanes.

Das wird mein Board! :D

Gruß und THX!
sunzi
 
Uebrigens die Gtx 280 kann ich behalten, wie sich durch einige Bluescreens und nach einem Gespraech (mit dem Eigentuemer) herausstellte, hat die ein Problem. Der Backofen konnte mir aber bei 140° und 30 Minuten weiterhelfen, mit Kuehler und allem noch dran
Nice, Graz zur wiederbelebten GTX 280! Ich hab hier einen Laptop rumfliegen zu Reparatur mit kaputter 8400M(Gott sei dank nicht meiner), werd jetzt mal als letztes Mittel den Backofen anschmeißen. :D Die Biosbatterie, Festplatte+ Ram wird ausgebaut und dann backe ich auch mal. Das Display sollte ich auch mit abschrauben sonst gibts damit wohl Probleme?



Nurien-TechDemo:

Nur GTX 260: Average FPS: 80,97 ; Max FPS: 149,04

GTX260+8800GTS: Average FPS: 77,00 ; Max FPS: 134
Thx für den Benches, mal wieder ein gutes Beispiel warum Techdemos und syntetische Benchmarks fast schon 0 Aussagekraft haben.





AMD schwingt wieder Reden, aber folgen auch mal endlich Taten?
AMD: Entwickler verwenden PhysX, weil NVIDIA dafür zahlt:
http://ht4u.net/news/21792_amd_entwickler_verwenden_physx_weil_nvidia_dafuer_zahlt/
 
Ich hab mal meine Ergebnisse für Cryostasis Techdemo aktualisiert.
Meine 9600GT war nur 1 Woche drinn, jetzt werkelt eine 8800GTS 512MB neben bzw unter meiner GTX 275.

Am Ergebniss änderte es jedoch nix. Nur Meßtoleranzen. Das heißt wohl, meine GTX275 ist hier der limitierende Faktor. Ich teste jedoch nur in meiner nativen Auflösung 1920x1200. Alles darunter kommt sowieso nicht bei mir in Frage.
Egal, dafür hab ich für die 8800GTS einen Aquatank. Der Lärm der luftgekühlten 9600GT war ja nicht auszughalten. Ich musste beim hochfahren (wenn der GraKa-Lüfter auf 100% läuft) meine silent-verwöhnten Ohren mit Ohrenstöpsel schützen. Das ist jetzt nicht mehr nötig. Wieder alles flüsterleise.:D
 
Bei mir machts ja auch keinen Unterschied (8800Gts oder Gtx280), zumindest nicht bei 1920x1200.
Wassergekuehlt machts sicher mehr Spass, je nach dem fallen mir fast die Ohren ab, die Gtx 285 wird von der 280er gut beheizt und dreht den Luefter gnadenlos auf :rolleyes:


Gut das ich geschlossene Kopfhoerer nutze, normalerweise wird die 280 ja nicht ganz so warm beim belasten mit Physx. Stromverbrauch hier 550-580W.

Edit, Kasmopaya joa glaube das Display mag die +100° nicht so, bei der Graka ist ja ne normale Plastikabdeckung dran, das verzieht sich nicht so schnell meiner meinung nach, zumals Grakas ohnehin ziemlich warm werden. Mein Gedanke sie mit dem Kuehler zu backen war dass der Kuehler die Gpu, Vram und die Vrm fest gegen die Platine drueckt.
Hatte vorsichtshalber nur die Schrauben etwas gelockert und nach dem abkuehlen etwas fester angezogen. Was ich auch noch festgestellt habe ist dass die Karte nach dem Backen kuehler bleibt, warscheinlich hat sich die dicke Schicht Wlp mit der Hitze nun besser verteilt.
Mal sehen wie lange die Karte noch funktioniert :)
 
Zuletzt bearbeitet:
Was ich auch noch festgestellt habe ist dass die Karte nach dem Backen kuehler bleibt, warscheinlich hat sich die dicke Schicht Wlp mit der Hitze nun besser verteilt.
Bei meiner 8800GTX währe auch mal eine neue Wärmeleitpaste fällig, aber solange Fermi nicht da ist, bin ich zu feige den Kühler ab zu nehmen und die Karte versehentlich zu schrotten. Bis Fermi muss sie einfach noch funktionieren, danach gibts dann mal einen neuen Kühler + neuer WLP.
 
Ich habe sie ja nicht demontiert, einfach nur die Schrauben auf der Rueckseite etwa eine Umdrehung gelockert.
Eine Gtx280 zu demontieren ist ja auch nicht so einfach ohne die kleinen Befestigungsklips zu brechen, ausserdems scheint der Heatspreader, dank riesiger flaeche foermlich am Kuehler zu kleben.
Aber stimmt nach so langer Zeit broeckelt die zaehe nVidiapaste einfach ab, so wie bei deiner Gtx, oder meiner alten 8800 Gts 640.
Heute ist auch noch ein Mainboard hier angekommen, eigentlich sollte das schon vor drei Monate hier ankommen, in der Zwischenzeit hatte ich allerdings schon das Asus Maximus II Formula eingebaut. Da es sich hier aber um ein GA-X48-Dq6 mit 2x PCIe x16 handelt, juckts mir schon in den Finger... eigentlich wollte ich es ja zurueckschicken aber da es nun mal hier rumliegt :D

Edit:

Habe auch noch etwas getestet, meine Resultate:

Beim Fluidmark erreiche ich unabhaengig von der Aufloesung etwa immer gleich viel Punkte, ausser in hohen Aufloesungen wenn nur die 285er arbeiten muss, also rendern und physx rechnen.
So erreiche ich in hohen Aufloesungen (1920x1200) 12000 Punkte mit der 285er und um 13000 mit den 2 Karten.
In minimalen Aufloesungen erreiche ich allerdings wieder mehr Punkte mit den zwei Karten,da die wesentlich schneller arbeiten. (habe mich auf den pics verkuckt und musste nun editieren ;) ausserdem ist mein Deutsch nicht so perfekt, habe es nie gelernt )

fluidmark.jpg

Dann auch mal den Startales Benchmark, ist etwas aufwendiger als die Nurien Techdemo.

StarTalesBenchmark Gtx285+Gtx280.jpg
Wie man sieht ist hier wieder das Duo am schnellsten.

Dann noch was anderes, ein OpenCl Benchmark, unter anderen eine Million Partikel auf der Gpu. Nutzt sogar die zwei Karten.

1920x1200 16x msaa


Meiner meinung nach werden wir in Zukunft noch davon profitieren, also von Opencl und DirectCompute. Cuda und Physx sind ja jetzt schon ganz nuetzlich, nicht fuer jeden ,fuer mich schon :D
 
Zuletzt bearbeitet:
Nice, seit wann hat GPU-z GPU-Load bei NV Karten? Wobei GPU-Load bei meiner G80 8800GTX und 8800GT(G92@65nm) nicht funktioniert. GPU-Z wird ja auch immer besser, VMemory Used ist auch dabei. Geile Sache...

Edit: someone-else deine Benchmarks sind eingefügt + 2 neue Techdemos von dir! Thx dafür schon mal.
(habe mich auf den pics verkuckt und musste nun editieren ausserdem ist mein Deutsch nicht so perfekt, habe es nie gelernt )
Lass mich raten, russischer Abstammung? Die sind irgend wie ganz wild auf GPGPU -> wahrscheinlich zum hacken bzw. Passwort bruten.;)
Ne Spaß beiseite, sehr gutes Deutsch, Respekt.

Edit²:
NVIDIA weist AMD-Anschuldigungen zurück: Keine Zahlungen für PhysX-Umsetzungen in Spielen
http://ht4u.net/news/21811_nvidia_w..._zahlungen_fuer_physx-umsetzungen_in_spielen/

Logische Erklärung seitens NV, völlig unhaltbare Äußerungen seitens AMDs. Wie kann man nur so stinkig sein nur weil man kein PhysX hat. So schlimm ist das jetzt auch wieder nicht, die machen aus einer Mücke einen Elefanten... ->IMHO

Naja gute Unterhaltung bieten die 2 alle mal. Auf zur nächsten Runde. :D

Edit³:
So gleich mal was für unsere Verschwörungsfanatiker hier:
Ein gekauftes Game von NV, darauf optimiert ATI Karten schlecht aussehen zu lassen und total von NV gekaufter Entwickler. (so zumindest immer die Anschuldigungen von seiten AMDs und den Fanatikern):rolleyes:
http://www.pcgameshardware.de/aid,7...tX-11-und-GPU-PhysX/Action-Spiel/Test/?page=2
Herrlich oder? HD 5800 plätten alles was es so gibt, der Beweis das NV mit fairen Mitteln antritt und sich ATI die schlechte Performance immer selbst zuzuschreiben hat.
 
Zuletzt bearbeitet:
:D Ich Russe, nein eigentlich nicht. Stamme aus dem kleinen Land mitten in der Eu, welches euer Peer Steinbrueck letztes Jahr mit dem Burkina Faso verglichen hat :freaky:
Franzoesisch schreibe ich besser ;)

Also Gpgpu zum Pw knacken, hab mal etwas damit rumgespielt aber wirklich einsetzen? Lieber nicht. Habe mittlerweile alle meine Dv-filme komprimiert, waere mal interessant zu sehen wie lange das auf der Cpu gedauert haette... Ok Badaboom ist etwas beschraenkt,aber dafuer sehr schnell. Ab und zu ein paar Naechte Folding @ Home, tun auch gut, 480w fuer die Wissenschaft :) Im moment beschaeftige ich mich etwas mit der Cuda Sdk.
Ausserdems frisst die 280er als zweite Karte, im Leerlauf kaum mehr als die olle 8800 Gts, allerdings unter Last eher mehr, bringt dafuer aber auch fast die 2,5 fache Performance. Gratis noch dazu, musste nur "aufgebacken" werden.

Ist ja immer das selbe mit Ati und Physx, oder allgemein nV vs. Ati-Amd ... sieht man ja an den so genannten Gpu-Kriege.
Lustig dabei ist dass sich alle die Koepfe einschlagen, das wegen einem Hersteller. Kann mich noch an den 16 juni 2008 erinnern, da wurden die Gpu-Kriege begonnen, man konnte sich nichtmal als Early adopter einer Gtx 280 outen ohne dass die P/L fanATIker einen dumm angemacht haetten. Ich zumindest, erhielt 90$ von Evga zurueck, als die Preise angepasst wurden :D
Ich zahle gerne ein paar € mehr, besonders wenn die Karte einen nutzbaren Mehrwert mit sich bringt.
Bin auch gespannt wie das mit Metro 2033 laufen wird, ich koennte mir gut vorstellen das durch Gpuphysx die Radeons teilweise mit 5-14 fps rumkrebsen werden. denn auf der Cpu laeuft das eher bescheiden, wie ich schon mit dem eher anspruchlosen UT3 in den Physxkarten(Lighthouse Physx) festgestellt habe. Solange man nichts zertruemmert laeufts ganz gut, nach ein paar broeckelnde Waende oder Fensterscheiben dann mit 9-5 Fps.
Laut PCGH sind ihre Benchwerte fuer Metro auch mit Vorsicht zu geniessen, wohl genau desswegen.
edit: Mal sehen wann Amazon das Game hier abliefern laesst, werde dann noch ein paar Bechmarks posten. Allem Anschein nach, wirds am 18en verschickt und duerfte erst am 21-22en ankommen :(
 
Zuletzt bearbeitet:
Einerseit verstehe ich AMDATI ganz gut. Würde schließlich allen zugutekommen, vor allem uns Gamer, wenn ATI die PhysX-Technik zugänlich gemacht würde.

Andererseits wird das wohl nie passieren. Nvidia hat eine Technik die nur auf ihren Karten funktioniert. Das heißt, es gibt gar nicht die Entscheidung ATI oder Nividia. Es muß eine Nivida sein. Und so ein unschlagbares Verkaufsargument gibt kein Marktwirtschaftlich orientiertes Unternehmen wieder aus der Hand. Ich bezweifle sogar, selbst durch eine Lizenzierung würden die nichts gewinnen.

Denoch hoffe ich, dass es irgendwie möglich wird, dass PhysX in Spielen zum Standart wird. PhysX-Spiele sehen einfach bessers aus, vielrealistischer.
Vielleicht hätte ja Nvidia einfach weiterhin eine extra PhysXkarte rausbringen sollen. Dann gäbe es den Streit gar nicht. Wenn man sich eine 2. GPU als PPU in sein System klatscht, dann ist diese ja leider die meiste Zeit nix zu tun.
 
Amd pusht ja eher OpenCl, mit Bullet. Was ja auch fuer Nvidiauser nuetzlich sein koennte, ausser Ati handhabt das so wie nV: Keine Geforce, kein Physx. Amd koennte ja Physx lizensieren, wollen sie aber nicht. Kann ich auch verstehen, falls Physx sich aber durchsetzen sollte, muessten sie es ja fast tun.
Dann kommt irgentwann noch Intel mit Havoc und passender Gpu hinzu, das waere dann das Worstcasescenario wenn jeder sein eigenes Sueppchen kocht. Opencl, Computeshader, Cuda, Physx, Directcompute, Cal, Stream, Bullet ,was kommt dann noch alles?
Ausserdems muesste Nvidia mal ihre OpenCl treiber optimieren, denn bei meinen Tests erreichen meine zwei Karten in etwa die selbe Rechenleistung wie eine 5870, jedoch ist diese bei OpenCl etwa doppelt so leistungfaehig.
 
Hätte da mal ne frage. Wie viel Performence würd mir PhysX bringen ? Hab im Moment ne 5770 drin und würde als PhysX ne 9600Gt nehmen. Würde das was bringen und geht es überhaupt ?

Gruß Nikla
 
Ja, es geht. Und "mehr" Performance bringt das nicht. Du kannst nur zusätzlich zu deiner jetzigen Performance Physx zuschalten. Erwarte aber von der 96GT nicht zuviel ..
 
Nun, ich hatte selbst bereits eine 9600GT als PhysX drinn. Klar sorgt sie erstmal für einen boost. Da aber die Preise von gebrauchten 9600GT zu 8800GTS nicht wirklich weit voneinander liegen, würde ich ehr zu 2. Karte greifen. Zukünftige Games und Anwendungen werden sicherlich nicht weniger fordernd werden. Und die 9600GT sehe ich schon als unterstes Maß an.

Hm, aber vielleicht sind auch nur meine Ansprüche zu hoch. Low Details war noch nie meine Welt.
 
Haudrauff schrieb:
Hm, aber vielleicht sind auch nur meine Ansprüche zu hoch. Low Details war noch nie meine Welt.

Tja alles eine Frage des Geldes :rolleyes: Naja die 9600GT hab ich ja schon deswegen wär das eigentlich nur eine Frage des Stroms. Naja eigentlich hat ich mir von meiner neuen 5770 ATI mehr erwartet ... Bin leider enttäuscht worden. Deswegen die Frage mit der Performence ;) Thx für die Antworten :)

Nikla

EDit:
Kann mir einer vlt. mal nen paar beispiele für nen PhysX-Spiel sagen. Hab die einstellung noch nie gesehen, liegt wahrscheinlich auch an dem Genre das ich spiel ...
 
Zuletzt bearbeitet:
@Nikla, kanns ja auch mal die Demo von Cryostasis anspielen. Da sieht man schon einen Unterschied. Braucht dafuer aber sehr viel Leistung, denn die zusaetzlichen Partikel wollen ja auch gerendert werden.
Zum Vergleich:

Gpu Physx und Advanced Physx an:
cryostasis advgpu1.jpg cryostasis advgpu2.jpg

Gpu Physx und Advanced Physx aus:
cryostasis advgpuphysx.off2.jpgcryostasis advgpuphysx.off1.jpg
 
Tja dann hat sich das ja erledigt ... Strategie ist nichts mit PhysX soweit ich das jetzt gelesen habe und da ich (fast) nur Strategie spiele ist das nur Stromverschwendung :) Aber Thx für die Beratung.

Gruß Nikla
 
Zuletzt bearbeitet:
Zurück
Oben