News The Witcher 3: Wild Hunt unterstützt GPU-PhysX

aber nicht das es gpu physik ist
 
Also gekauft wird das Spiel so oder so in der collectors edition :D

Das mit physix find ich allerdings echt schade ich Kauf eigentlich immer nur AMD grakas vlt wird ja auch noch eine Option für OpenCL implementiert

Reicht für physix eigentlich immer noch eine 2t Karte wie zB die uralte 8800gt ? Sollte ja gebraucht billig zu kriegen sein.
 
Zuletzt bearbeitet:
NV benutzt eine eigene Entwicklung und die Games Entwickler entscheiden sich doch ob sie diese Feature einbauen wollen oder nicht. An sich ist es nat. schade das AMD hier auf der Strecke bleibt, aber andererseits ist das völlig legitim von der NV Seite. Und theoretisch könnte der W3 Entwickler ja auch die Physik Berechnungen von der CPU machen lassen.
 
TrabT schrieb:
Reicht für physix eigentlich immer noch eine 2t Karte wie zB die uralte 8800gt ? Sollte ja gebraucht billig zu kriegen sein.

nur mit gehackte NV treiber.

@ Rolle es wurde aber schon mehr als einmal bekannt das bei NV da öfters nicht nur know how an die Entwickler fließt sonder auch Kohle
 
[ ] offenen Standard nehmen
[x] abschmatzen

Wobei die Wahl eigentlich so leicht wäre.
Aber was solls, ich konnte eigentlich bei jedem Spiel gut darauf verzichten (Bei BL2 lief es auch auf der CPU bis zur mittleren Einstellung ganz gut). Über TressFX bei TR habe ich mich riesig gefreut und bin direkt auf die 7970 umgestiegen, aber für so einen Pfusch-"Standard" wechsle ich sicher nicht auf Nvidia.
 
Das ist, mit Verlaub gesagt, Käse. TressFX fußt auf dem offenen Standard OpenCL und wird somit von jeder DX10-fähigen Grafikkarte aufwärts an unterstützt.

Die bis jetzt einzige TessFX-Implementierungen (Tomb Raider) ist Direct-Compute und das ist auch kein offener Standard. Interessant anzumerken ist wohl auch, dass es sich bei TessFX nicht um eine komplette API - wie bei Physx für eine komplette physikalische Simulation - sondern eher lediglich um einen einzelnen Algorithmus für das Rendern von Haaren handelt. Ein solcher Algorithmus ist in seiner Reinform von keiner API - sei es OpenCL, Direct-Compute oder CUDA- abhängig.

Dass es auf einer nV-Karte schlechter läuft, liegt wohl insbesondere bei den GTX6 eher daran, dass dort die GPGPU-Fähigkeiten beschnitten sind und deutlich unter denen der eigenen Vorgänger liegen

Die GPGPU-Fertigkeiten auf den GTX6XX bzw. dem GK104 sind nicht "beschnitten". Auf einer GPU nutzt GPGPU nahezu komplett die selben Hardware-Funktionalitäten wie die normale 3D-Rastergraphik. Deshalb ist eine spezielle Reduktion der GPGPU-Performance bei der Chip-Entwicklung um die Performance der Rastergraphik zu erhöhen meist auch nur schlecht möglich. Generell wäre jedoch denkbar, dass NVIDIA die GPGPU-Performance des GK104s "künstlich" nur auf Geforce-GPUs reduziert hat. NVIDIA dokumentiert diese Beschneidungen bei Geforce Karten jedoch immer in seinen Programmier Guides und speziell bei der 600er Serie taucht dort keine Info über die Beschneidung auf.

Der GK104 wurde jedoch im Vergleich zum Fermi etwas umbalanciert. So wurden diverse Hardwareeigenschaften, welche unter Umständen für GPGPU interessant sind, reduziert (L2 Cache von 756 KB auf 512 KB, SI 384 Bit auf 256 Bit, DP-Performance), so dass man bei selber Chipfläche bzw. Verlustleistung mehr Platz für TMUs, und SP-Rechenkerne hatte. Teilweise kann diese Umbalancierung für GPGPU vorteilhaft sein, teilweise nachteilhaft.

Weshalb es unspielbar ist bzw. weshalb die Performance auf den Geforce Karten so suckt hat eher einen anderen Grund: GPGPU-Programmierung ist ein unheimlich großes Gefrickel. Will man Performance haben muss man auf die spezifische GPUs optimieren; tut man das nicht so kann man es mit der Performance oft schnell vergessen.

AMD ist jedoch auch ein kommerzielles Unternehmen und hat ebenso wie NVIDIA kein Interesse daran, dass sein Konkurrent gut darsteht. TessFX hat AMD auch nicht aus Wohltätigkeit entwickelt, sondern um irgendwie damit indirekt seine GPU Verkäufe zu erhöhen und wiederum indirekt die Kosten für die TessFX-Entwicklung hereinzubekommen. Deshalb hat es wahrscheinlich TessFX nur auf seine eigenen GPUs optimiert, damit diese eine gute Performance besitzen und NVIDIA GPUs in dem speziellen Fall alt aussehen lassen. In dieser Angelegenheit ist keins der beiden Unternehmen besser :)
 
Zuletzt bearbeitet:
schreiber2 schrieb:
Tja, GPU-PhysX ist nicht tot. Batman: Arkham Origins unterstützt es auch.
Nach 2 Jahren(?) kommen dann tatsächlich doch noch mal 2 Spiele raus welche GPU physx unterstützten. Wahnsinn.

Wenn man mal bedenkt wieviele Spiele seit Physx hetausgekommen sind und wieviele davon GPU (!!) Physx unterstützten ist phsyx eine Totgeburt. Nicht mehr und nicht weniger.
 
Ehrlich gesagt finde ich, dass das Wolfsfell mal das erste sinnvolle PhysX ist, was mir bisher aufgefallen ist. Ob da jetz bei nem Spiel n paar Steinchen aufm Boden rumkullern, wenn man in die Wand ballert, oder sich der Bodennebel wenn man durchläuft bewegt ( bei Metro LL, was auch nich ziemlich blöd aussieht wie ich find) ist mir das ziemlich egal, weils mir so im Spielverlauf ned auffällt. Is ne nette Tech Demo ingame, weiter nix. Mir fiel da der Unterschied bei Crysis 1 schon garned auf...
Das Wolfsfell jetz sieht aber deutlich besser aus als so ne gltte Textur, ganz eindeutig! Ob man das allerdings auch ohne PhysX hinkriegt ist die andere Frage. Vielleicht bewegt es sich dann ned so arg beim laufen, aber das wär ja auch egal.
Die Adler bei Herr der Ringe Krieg im Norden sehn auch total genial aus. Das sind zwar bestimmt ned so viele Federn wie Wolfshaare, aber machbar wär es bestimmt, ohne allzu großen Leistungsverlust.
 
@Nai:

ja du magst mit dem meisten schon recht haben aber schaut man sich GPGPU Benchmarks von den GX6XX karten an so sucken diese in jedem Bereich OpenCL oder Direct Compute.
Diese benchmark algorithmen sind meistens sehr simpel daher gibt es da wenig Möglichkeiten zu optimieren daher muss man einfach annehmen das die Leistung auf 6xx Karten sehr bescheiden ist was GPGPU angeht (ob das nun an einer künstlichen Bremse liegt oder am ende doch an der Hardware kann ich natürlich nicht beurteilen)

Gibt es Benchmarks mit der GeForce Titan und TressFX? diese hat ja wieder sehr gute GPGPU Performance und da sollte man ja einen Zusammenhang erkennen können.
 
BlubbsDE schrieb:
Ein gutes Beispiel für Hardwareübergreifende Physik APIs. Bei TressFX zeigt sich die schlechtere GPGPU Leistung der nV Karten. Und die schlechte Unterstützung allgemein zugänglicher Techniken. TressFX läuft über die Tessaltionsfähigkeiten der GPUs und ist in DirectX integriert.
Erstens ist der Leistungsverlust durch TressFX bei AMD und Nvidia nahezu identisch, zweitens hat das mit Tessellation nichts zu tun und drittens nutzt es Direct Compute und viertens ist TressFX kein Teil von D3D oder DX oder Direct Compute.

Miniami schrieb:
Mittlerweile hat PhysX eher den Ruf einer künstlichen Limitierung aller Besitzer von nicht-Nvidia Karten statt einer wirklichen Bereicherung für Spiele.
PhysX-Effekte sind optional. Du bekommst als einen Mehrwert, sofern du ihn nutzen möchtest - brauchst eben eine Geforce zu ^^
 
tm0975 schrieb:
und soweit ich mich erinnere, war teil 2 nur mit deaktivierung der benutzersteuerung in win7 überhaupt zum laufen zu bringen. wird in jedem fall nicht mehr gekauft.
Unsinn, selbst Teil 1 läuft problemlos unter Windows 7.

Wer unbedingt eines der besten Rollenspiele verpassen will...


isigrim schrieb:
Das ruckelt, soweit ich das sehe schon mit 3 Wölfen
Anhand eines Videos, das eh nur mit 24 oder 25 fps aufgenommen wird, willst du das beurteilen? Es ist nur eine Demo.


tm0975 schrieb:
Aber mal ehrlich: Es wäre für ein Spiel, das sowohl für PS4 als auch für XBox One erscheint extrem dämlich, PhysX zu integrieren. Denn auch bei einer theoretischen Software-(CPU)-Unterstützung durch die Konsolen kostet das dann enorm Prozessorleistung, die man auch für anderes verwenden kann.
Dann wird es eben abgeschaltet, wenn die Leistung nicht reicht.

Die Witcher-Spiele wurden bisher primär für den PC entwickelt und erst später auf Konsolen portiert. Also genau anders herum als bei vielen anderen Spielen. Schon das finde ich als ausschließlicher PC-Spieler sehr positiv. Wieso sollen die PC-Spieler nicht auch mal einen Vorteil haben?


Ich verstehe die ganze Aufregung nicht. Selbst wenn die Entwickler technische und finanzielle Unterstützung von Nvidia bekommen, ist das nicht der Untergang des Abendlandes. Von irgendwas müssen die Leute, die dort arbeiten, ja auch bezahlt werden. Und wenn Nvidia sie mit Know-How unterstützt, wird das Spiel schneller fertig. Scheinbar haben hier noch nicht viele wirklich gearbeitet. Gerade wenn man neue Sachen entwickelt ist man oft auch auf Know-How von außerhalb angewiesen. Man kann nicht immer alles selbst machen, dann wird man nicht rechtzeitig fertig oder die Kosten sind zu hoch.

Das Spiel ist ja ohne Physx nicht plötzlich unspielbar oder sieht nur noch halb so gut aus. Es sind eben mit PhysX ein paar grafische Effekte mehr möglich. Klar ist eine schöne Grafik schon nett, bei einem Rollenspiel mit vielen Stunden Spieldauer ist doch aber wohl anderes viel wichtiger.
 
FortissimoIV schrieb:
Das ist, mit Verlaub gesagt, Käse. TressFX fußt auf dem offenen Standard OpenCL und wird somit von jeder DX10-fähigen Grafikkarte aufwärts an unterstützt. PhysX hingegen funktioniert schlicht nur mit nVidia-Karten. Proprietär halt. Dass es auf einer nV-Karte schlechter läuft, liegt wohl insbesondere bei den GTX6 eher daran, dass dort die GPGPU-Fähigkeiten beschnitten sind und deutlich unter denen der eigenen Vorgänger liegen. Zudem spielt da wohl aktuell auch noch der Treiber rein - denn dass nV sich noch nicht auf eine neue Technologie eingeschossen hat, die nicht aus dem eigenen Hause kommt, sollte nicht verwundern.

Also wurde von Gforce nicht voll unterstützt

wer lesen kann ist im Vorteil
 
ja du magst mit dem meisten schon recht haben aber schaut man sich GPGPU Benchmarks von den GX6XX karten an so sucken diese in jedem Bereich OpenCL oder Direct Compute.
Diese benchmark algorithmen sind meistens sehr simpel daher gibt es da wenig Möglichkeiten zu optimieren daher muss man einfach annehmen das die Leistung auf 6xx Karten sehr bescheiden ist was GPGPU angeht (ob das nun an einer künstlichen Bremse liegt oder am ende doch an der Hardware kann ich natürlich nicht beurteilen)

Ersteinmal muss man berücksichtigen, dass NVIDIAs Compiler, welcher OpenCL Quelltext zu ihrem Maschinencode kompiliert, schlecht optimiert ist und vermutlich seit geraumer Zeit nicht mehr weiter entwickelt wird. Wie es mit NVIDIAs Direct Compute Compiler ausschaut, weiss ich leider nicht.

Des weiteren mögen die Anwendungen sehr einfach sein. Jedoch kommt hier allerdings das Gefrickel ins Spiel. Hierzu ein einfaches Beispiel.
GPUs besitzen zwei Möglichkeiten Latenzen bei Speicherzugriffen zu verbergen:
-Viele Threads gleichzeitig ausführen: Wartet ein Thread auf einen Speicherzugriff, so können andere Threads welche gerade nicht warten weiterrechnen. Je mehr Threads man hat, desto besser kann man solche Latenzen überbrücken. Eine Radeon HD 7970 kann bis zu 82k Threads gleichzeitig ausführen eine Titan nur 29 k.
-Instruction Level Parallelism: Ein Thread kann mehrere Speicherrequests gleichzeitig lossenden. Durch diese Gleichzeitigkeit der Abarbeitung ist die Latenz der mehreren gleichzeitigen Speicherzugriffe in etwa so groß wie die Latenz eines einzigen Speicherzugriffs.

Da eine Titan nun deutlich weniger Threads gleichzeitig ausführen kann benötigt sie einen deutlich grösseren Instruction Level Parallelism um die Speicherlatenzen gut überbrücken zu können, und um ihre maximale Speicherbandbreite zu erzielen. Selbst bei sehr einfachen Anwendungen muss man dadurch die Speicherzugriffe anders optimieren.

Ich könnte noch mehr hier aufzählen, aber das würde denke ich zu weit führen.


Gibt es Benchmarks mit der GeForce Titan und TressFX? diese hat ja wieder sehr gute GPGPU Performance und da sollte man ja einen Zusammenhang erkennen können.

Auf den CB-Benchmarks verhalten sich Titan und GTX 680 immer in etwa so, wie man es von ihrer Rohleistung bei einer ansonsten identischen Architektur erwarten würde. So würde man etwas zwischen 1.5 bei Speicherbandbreite limitierten Anwendungen und 1.75 bei SP-Rechenleistung limitierten Anwendungen oder Latenzlimitierten Anwendungen erwarten. Diese Erwartung wird in den Benchmarks erfüllt.
 
Sieht wirklich cool aus. Freu mich auf das spiel. Was ich noch lustig find, bei jedem Bericht über PhysX, die ganzen (vermutet) AMD Besitzer denen PhysX ja total egal ist aber trotzdem immer wieder heulen das NV es nicht für alle verfügbar macht xD. Ich kann das absolut verstehn wenn NV dadurch seine Produkte etwas pushen will.
 
JeverPils schrieb:
In meine Zockersysteme kommt sowieso nur eine Geforce. Allein die gleichmäßige Bilddarstellungsqualität ist immer besser als die der Ati.

Mfg

falsch, war immer besser als Ati/amd, bis 7970
 
Nai schrieb:
AMD ist jedoch auch ein kommerzielles Unternehmen und hat ebenso wie NVIDIA kein Interesse daran, dass sein Konkurrent gut darsteht. TessFX hat AMD auch nicht aus Wohltätigkeit entwickelt, sondern um irgendwie damit indirekt seine GPU Verkäufe zu erhöhen und wiederum indirekt die Kosten für die TessFX-Entwicklung hereinzubekommen. Deshalb hat es wahrscheinlich TessFX nur auf seine eigenen GPUs optimiert, damit diese eine gute Performance besitzen und NVIDIA GPUs in dem speziellen Fall alt aussehen lassen. In dieser Angelegenheit ist keins der beiden Unternehmen besser :)

Ganz genau so sehe ich es auch :daumen:

In D neigt man viel stärker als sonstwo auf der Welt oft zu einer moralisierenden Haltung und bewertet das Verhalten von Unternehmen mit einem ethischen Impetus, der jedenfalls der amerikanischen Denkweise, welche sich an rein marktkapitalistischen Prinzipien orientiert, gänzlich wesensfremd ist! Ob AMD, Intel, nVidia oder wer auch immer, jedes Management eines US-Unternehmens ist rein profitorientiert: gut ist, was Umsatz und Gewinn steigern, schlecht ist, was die Verkaufszahlen mindert. Und global agierende deutsche Unternehmen sind übrigens keinen Deut "besser", s. den Rang Deutschlands bei den weltweiten Rüstungsexporten, sehr gerne auch in Staaten mit zweifelhaften demokratischen und rechtsstaatlichen Standards (zumindest so lange es niemand merkt :evillol:)!

Zwischen den amerikanischen Unternehmen herrscht ein reger Austausch von Managern, schon deshalb ist es völlig naiv anzunehmen, dass es da "gute" und "böse" Player gäbe!

NVidia wäre so gesehen mit dem Klammerbeutel gepudert, wenn sie PhysX freigäben! Sie haben schließlich in den Aufkauf von Ageia investiert und diese Investition muss jetzt größtmöglichen Profit abwerfen - jeder anders handelnde CEO wäre alsbald seinen Job los! Warum sollen die da ohne Not auf ein Alleinstellungsmerkmal und Verkaufsargument verzichten, was hätten sie davon?

Leutz, ich versteh' Euch ja rein subjektiv, aber Ihr müsst euch einfach mehr Machiavelli reinziehen, die Welt wird leider nicht am deutschen Gutmenschenwesen genesen - schon Madonna wusste "It's a material world" (and she's a material girl :D)

LG N.
 
Zuletzt bearbeitet:
Hätte ich ehrlich gesagt nicht von CDProject erwartet. Kein DRM, PC als Leadplattform ausgerufen, und dann auf ein spezielles (unnötiges) Feature setzen wovon nur das grüne Lager "profitiert" anstatt auf eine offene Technik zu setzen.
 
@Nobbi56

Das hat nicht einfach etwas mit "In D..." zu tun. Für mich hat gefühlt das intellektuelle Niveau von Menschen in Foren zu Computerthemen in den letzten 14 Jahren extrem stark abgenommen.
 
Zurück
Oben