News The Witcher 3: Wild Hunt unterstützt GPU-PhysX

Lesen, dann antworten? ... Du sagst es! ...."da sagen Benches aber was anderes & darauf kommt es an ... nicht, was noch kommen *könnte*.
... und nein, ich war nicht derjenige.^^


edit: GN8!
 
Dass z.B. eine GTX680 je nach Anwendung nur 1/2 bis gar 1/7(Bitcoinmining fällt mir hier ein) der gpgpu Leistung einer HD7970 hat sollte allgemein bekannt sein.

Man sollte nicht bei Benchmarks sagen: Ui scheiss böses NVIDIA hat die GPGPU-Performance verkrüppelt, sondern wieso weicht die im Endeffekt erzielte Performance so stark von der Peak-Performance (SPFP, Speicherbandbreite) ab? Oder alternativ wenn man nur vergleichend benchmarkt: Wieso verhält sich die Performance der beiden GPUs in diversen Benchmarks nicht in etwa genauso wie ihre Peak-Performance? Gerade wenn es große Ausreisser von Benchmark zu Benchmark gibt, heisst das, dass wahrscheinlich irgendetwas fundamental schief läuft.


Hierzu ersteinmal zu Bitcoin: Dies hat nichts direkt mit der GPGPU-Performance zu tun, sondern damit, dass Bitcoin einen bestimmten Befehl verwendet. Bei NVIDIA GPUs besitzt dieser Befehl keine Hardwareimplementierung, wodurch sie mehrere Instruktionen benötigen um diesen Befehl abzuarbeiten. Bei Radeons besitzt der Befehl Hardwareimplementierung, wodurch sie ihn in mit einer Intruktion abarbeiten können. Ähnlich besitzen Geforce-GPUs Funktionalitäten mit Hardwarebeschleunigung, welche allerdings nur in CUDA verfügbar sind und auf Radeonkarten nicht existieren. Verwendet man diese Funktionalitäten, so muss man diese auf Radeonkarten irgendwie anders erzielen, wodurch wiederum die Radeonkarten den Geforcekarten unterlegen sein können. Wieviel eine solche Hardwarebeschleunigung für verschiedene seltene Befehle im Endeffekt an Performance bringt ist jedoch sehr sehr stark fallabhängig, weshalb man sie nur schlecht in die allgemeine Performance Bewertung einer GPU mit einfliessen lassen kann.

Wenn du mir andere Beispiele für solche Ausreisser gibst, bei welchen die Geforce 680 GTX unerwartet schlecht abschneidet, dann würde ich diese für dich auch noch diskutieren.

Eine HD7970 spielt eher in der Liga GTX780 was das angeht.
Von den Rohdaten her stimmt das. Allerdings herrscht hier bei unoptimierten GPGPU-Anwendungen wieder ein extrem chaotisches Bild, wieviel Performance die Karte im Endeffekt erzielen kann.
 
ICH sage: "Es kommen in Zukunft immer mehr PhysX Titel".
ach das wird doch schon seit der übername von Ageia propagiert, hier und da mal ein spiel das wars dann.

Mir ist ist das aber eigentlich auch hupe dem, Entwickler ging es vermutlich dabei Arbeit zu sparen und auf der suche nach einer Engine hat sich dann Nvidia angepoten. Das Team hinter the witcher ist afik auch nicht das größte da nimmt man gerne eine solche Hilfe in anspruch.

Aber vlt mal eine Idee Richtung NV, legt doch einfach die Physix Karte neu auf, so kann man dann Regelmäßig melken ob nun grün oder rot im PC steckt.
 
Persönlich versteh ich die Aufregung hier nicht, aber zunächst erstmal zu den Effekten.

Ehrlich gesagt, ich finde es nicht berauschend oder ähnliches. Sicher, es sieht toll aus das Fell, aber letztendlich ist das etwas, was man selten bis gar nicht bemerken wird.
Was anderes wären da Geralts haare und selbst da wäre es nur was feines in Zwischensequenzen / Unterhaltungsszenen, wenn ich an The Witcher 2 zurück denke. Abseits davon, meh, nein.

Zum anderen sollte die allgemeine Haardarstellung aber auch ohne eine Physik-Bibliothek möglich sein, ob die Haare dann physikalisch korrekt mitschwingen dürfte die wenigsten interessieren.

Nun aber zu der Debatte hier: persönlich finde ich es schade, das CD Projekt sich darauf eingelassen hat. Einerseits sag ich mir okay, wenn sie das Geld brauchen was NVidia ihnen dafür gibt, warum nicht. Andererseits mache ich mir Gedanken dazu, ob die Wölfe dann Ingame ohne NVidia Grafikkarte mit mehr oder minderer Absicht so hässlich aussehen werden vllt. wie am Anfang der Präsentation des Ganzen.
Sollte letzteres der Fall sein (und auch die Verkaufsversion von The Witcher 3 nicht so gut ausgestattet sein wie bei The Witcher 2), so werde ich nur zum Budget-Preis zugreifen, da ich so ein Gehabe persönlich nicht mehr Unterstützen will.

Ich könnte meine HD 7950 einfach ersetzen oder meine alte 8800gt als Physix Beschleuniger nutzen, ohne Frage, aber ich bin einfach der Meinung das so etwas nicht sein muss.

Ich versteh ja, das NVidia (wie auch AMD) Alleinstellungsmerkmale für ihre Produkte brauchen, jetzt wo sie seit Jahren Leistungstechnisch +- 0 erreicht haben, AMD Treiber auch besser geworden sind etc.
Aber wenn, dann sollte NVidia das frei öffnen für alle und eben für ihre Karten besser darauf optimieren, aber nicht mit Absicht es blockieren.

Aber letztendlich verständlich, wenn auch unschön.
 
Haare die physikalisch nicht korrekt in die Welt implementiert werden, führen zum Uncanny Valley Effekt - siehe dazu auch Tomb Raider. Sieht dann einfach nur lächerlich aus.
 
Nai schrieb:
Sorry aber die Benchmarks taugen nichts. Diese sind unoptimiert und sagen nur aus wie gut unoptimierter Code auf GPUs läuft (teilweise sind die sogar sehr schlecht geschrieben) und nicht was eine bestimmte GPU leisten könnte. Wieso zB. ist eine Geforce 680 genauso schnell wie eine Geforce 690? Grund: Kein Multi-GPU Support bei den Benchmarks . . .

Genau darau wollte ich hinaus ..., dass die GeForces 6XX alle in diesem Bezug (GPU-Comuting) ungeeignet sind.

Bei den Titans sieht es wieder anders aus.
 
Zuletzt bearbeitet:
Relaxo32 schrieb:
Ehrlich gesagt, ich finde es nicht berauschend oder ähnliches. Sicher, es sieht toll aus das Fell, aber letztendlich ist das etwas, was man selten bis gar nicht bemerken wird.
Hast du The Witcher 3 schon gespielt und kannst daher beurteilen, dass man die Fell- sowie Haar-Simulation bei Menschen, Tieren sowie Kleidung nicht regelmäßig als gut gelungen wahrnimmt?
 
y33H@ schrieb:
Hast du The Witcher 3 schon gespielt und kannst daher beurteilen, dass man die Fell- sowie Haar-Simulation bei Menschen, Tieren sowie Kleidung nicht regelmäßig als gut gelungen wahrnimmt?
ich denke auf "gut gelungen" wollte man nicht hinaus
eher das der/die effekt(e) so subtil/nebensächlich ist, dass er/sie in der action und restlichem einfach untergeht/en

ging mir bei(m anspielen am PC von) TR zumindest auch so, entsprechend hätte ich schon stehenbleiben müssen usw um darauf zu schauen, ob die haare in die verkehrte richtung wehen
 
@ y33H@

Ich gehe mal von den allgemeinen Reaktionen aus, die bisher durch solche Effekte entstanden sind. Jüngstes Beispiel ist Tomb Raider wo die Mehrheit (hier im Forum) es als Gelungen ansah und das die Haare wohl doch nicht mit dem Wind richtig mitwehen vernachlässigt wurde.

Weiterhin hab ich bisher einen Teil der Spiele, welche Physx unterstützen, gespielt (mit meiner alten GTX 560Ti bzw. nach ersetzen dieser auf dem Rechner meines jüngeren Bruders, welcher noch eine GTX 560Ti vor einer Weile verbaut hatte).
Da wären:
- Batman: Arkham Asylum /City
- Borderlands 2
- Darkest of Days
- Dark Void
- Mafia 2
- Metro 2033
- Sacred 2
- Ghost Recon AW 2

In allen Spielen hab ich es kaum bis gar nicht gemerkt, es sei denn ich hab darauf geachtet oder vorher mich informiert was überhaupt alles per Physx dazu kam / geändert wurde. Letztendlich ist aber fast alles im Spielefluss untergegangen.
Der Großteil der Effekte hätte aber auch mit der Havok Physik Engine dargestellt werden können und der Performance Verlust (Metro 2033) war es meist nicht Wert. Aber okay, NVidia hilft ja den Entwicklern, was lobenswert ist.

Ist das selbe mit den Haaren bei Lara in Tomb Raider. Es sieht toll aus, war aber den Performance Verlust am Anfang einfach nicht Wert.

Und ich denke auch bei The Witcher 3 wird den meisten es kaum auffallen, das die Effekte aktiv sind bzw. nur in Zwischensequenzen oder wenn ich direkt darauf achte beim ersten mal spielen. Auch wenn es sicher gut aussehen wird, war ja bisher so (Kleidung in Mafia 2 z.B.), mal von den massig Partikel Effekten per Physx, das hab ich immer als absolut hässlich wahr genommen.

Aber wie gesagt, ich hab kein Problem damit wenn CD Project das einbaut und hilfe von NVidia erhält. Ich hab einzig ein Problem dann damit, wenn die Qualität (mit oder ohne Absicht) für Besitzer von anderen Grafikkarten darunter leidet.
Für mich persönlich ist dann die Lösung: ich kauf das Spiel einfach nicht bzw. nur als Budget Titel. Aber das seh ich ja dann was daraus geworden ist und bis dahin kann ich The Witcher 2 ein 7. oder 8. mal durchspielen und die Savegames nutzen.
 
Zuletzt bearbeitet:
Wer in deinen aufgezählten Spielen die Effekte beim Spielen nicht wahrnimmt, der ist eher blind. :freak:

Ansonsten finde ich es immer wieder drollig, dass man meint all "diese Effekte" wären auch mit Havok möglich. Wenn es so wäre, gäbe es Spiele mit all diesen Effekten, die mit Havok realisiert werden.

Hier einfach auch mal Ockhams Rasiermesser gelten lassen.
 
Bei Entwicklung mit Havok werden die Entwickler aber nicht von Nvidia gestellt! Das hat wenig mit dem Funktionsumfang von Havok zu tun.
 
Und? GPU-PhysX Spiele gibt es bald seit 5 Jahren. Und bis heute gibt es nichts, was an die Qualität der dort enthaltenen Effekte heranreicht.

Da muss man dann auch endlich mal akzeptieren, dass PhysX eben einen meilenweiten Vorsprung hat.
 
Keine Ahnung, aber wenn ich jetzt einen Spieler an Batman Arkham City setzen würde und dieser das Spiel vorher nie gesehen hat, wird der direkt sagen: "hey da, die wirbelnden Dollarnoten auf dem Boden, das ist ein Physx-Effekt!" ? Ich denke eher nicht.

Zum anderen ist der Performance-Verlust je nach Spiel mit Physx sehr extrem (was ich nicht verstehe, weil die selben Effekte oftmals bei einem Spiel mehr Leistung ziehen als im nächst anderen, z.B. Mafia 2 vs. Borderlands 2), zum Vergleich was man dafür erhält. Mafia 2 war damals zum Release ein gutes Beispiel.
http://www.gamestar.de/spiele/mafia-2/artikel/mafia_2,43581,2316960.html 20 Fps Verlust für kleine Bröckchen und etwas bessere Kleidungssimulation.

Und von Qualität kann keine Rede sein, die meisten eingesetzten Effekte sind eben nur jene Partikel, wobei ich mich noch gut erinnere an das Gelächter, als Aiga das ganze damals noch vorführte.

Das jene Effekte nicht mit Havok umgesetzt werden liegt wohl daran, das NVidia für die Entwickler der Spiele das übernimmt bzw. alles Unterstützt mittels Geld/Man-power. Bei Havok müssen die Entwickler alles selber machen, ich denke das schreckt viele ab und man nimmt dann gerne das Angebot von NVidia an, ist ja auch verständlich.

Was den Vorsprung angeht, keine Ahnung, aber der meist genutzte Effekt (die Partikel bei Einschüssen an Wänden) stammt noch aus Aiga Zeiten. Dazu kann PhysX nichts, was andere Physik-Bibliotheken nicht auch könnten, einzig das eben aber hier NVidia gut supportet, was lobenswert ist.

Langsam bekomm ich aber das Gefühl, das manche PhysX so sehr verteidigen/gut heißen als NV-Karten besitzer, weil es eben noch ein "großes" Alleinstellungsmerkmal der NVidia-Produkte ist. Keine Ahnung, aber es kommt für mich so rüber und ich kann ein solches Denken nicht verstehen, liegt vllt. daran das ich weniger Markenfixiert bin und immer das kaufe was in dem Moment passend ist.
 
Sontin schrieb:
Da muss man dann auch endlich mal akzeptieren, dass PhysX eben einen meilenweiten Vorsprung hat.

Was genau soll das sein was Physix besser kann als andere Physik-Engines? Ich halte den Funktionsumfang im Vergleich sogar eher ziemlich überschaubar.
 
Relaxo32 schrieb:
Keine Ahnung, aber wenn ich jetzt einen Spieler an Batman Arkham City setzen würde und dieser das Spiel vorher nie gesehen hat, wird der direkt sagen: "hey da, die wirbelnden Dollarnoten auf dem Boden, das ist ein Physx-Effekt!" ? Ich denke eher nicht.

Was nur logisch ist. Denn derjenige kennt die andere Darstellung eben nicht...

Zum anderen ist der Performance-Verlust je nach Spiel mit Physx sehr extrem (was ich nicht verstehe, weil die selben Effekte oftmals bei einem Spiel mehr Leistung ziehen als im nächst anderen, z.B. Mafia 2 vs. Borderlands 2), zum Vergleich was man dafür erhält. Mafia 2 war damals zum Release ein gutes Beispiel.
http://www.gamestar.de/spiele/mafia-2/artikel/mafia_2,43581,2316960.html 20 Fps Verlust für kleine Bröckchen und etwas bessere Kleidungssimulation.

Und in Tomb Raider verliere ich 33% Leistung mit TressFX. Das sind z.B. im Benchmark 60 FPS (!).

Und von Qualität kann keine Rede sein, die meisten eingesetzten Effekte sind eben nur jene Partikel, wobei ich mich noch gut erinnere an das Gelächter, als Aiga das ganze damals noch vorführte.

Logisch. Partikel, Fluid-Simulation, Cloth sind auch die einzigen sinnvollen Berechnungen, die man auf einer GPU ausführen sollte. Es sind auch die Bereiche, die massiv durch die fehlende Rechenleistung der CPUs limitiert werden.

Das jene Effekte nicht mit Havok umgesetzt werden liegt wohl daran, das NVidia für die Entwickler der Spiele das übernimmt bzw. alles Unterstützt mittels Geld/Man-power. Bei Havok müssen die Entwickler alles selber machen, ich denke das schreckt viele ab und man nimmt dann gerne das Angebot von NVidia an, ist ja auch verständlich.

Es ist doch nicht nur Havok. Selbst Eigenentwicklungen wie bei Crytek sind nicht auf dem Niveau.

Langsam bekomm ich aber das Gefühl, das manche PhysX so sehr verteidigen/gut heißen als NV-Karten besitzer, weil es eben noch ein "großes" Alleinstellungsmerkmal der NVidia-Produkte ist. Keine Ahnung, aber es kommt für mich so rüber und ich kann ein solches Denken nicht verstehen, liegt vllt. daran das ich weniger Markenfixiert bin und immer das kaufe was in dem Moment passend ist.

Ich habe hier fast jedes GPU-PhysX Spielt gezockt und sehe überall einen grafischen Mehrwert.
Es ist doch eher so, dass die einzigen, die es schlecht reden, die sind, die es nicht nutzen können...
 
Sontin schrieb:
...Ich habe hier fast jedes GPU-PhysX Spielt gezockt und sehe überall einen grafischen Mehrwert. Es ist doch eher so, dass die einzigen, die es schlecht reden, die sind, die es nicht nutzen können...

Volle Zustimmung & das sind auch meine "Erfahrungen" ;)
 
Sontin schrieb:
Und? GPU-PhysX Spiele gibt es bald seit 5 Jahren. Und bis heute gibt es nichts, was an die Qualität der dort enthaltenen Effekte heranreicht.

Da muss man dann auch endlich mal akzeptieren, dass PhysX eben einen meilenweiten Vorsprung hat.
wenn man sich naturlich ausschließlich von effektreiche Blendwerk beeindrucken lässt mag das stimmen :rolleyes:
 
Zurück
Oben