• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

News Project Cars: Gameworks nicht verantwortlich für AMD-Performance

Du begrüßt es also wenn eine Firma absichtlich die Arbeit anderer sabotiert? Zumindest beim Witcher sieht es danach aus. Bei pCars dürfte es eher die Unfähigkeit von SMS sein, aber diese AMD anzulasten find ich auch irgendwie schräg...

Für mich gibt es für das ganze nur eine Lösung: ich konter mit genügend Rohleistung und kauf mir einfach ne R9 390X. Das hat NV jetzt davon ;-)
 
Das ist eine endlose Diskussion. Jeder glaubt die Fakten zu kennen und dann die allgemeingültige Aussage treffen zu können. Ich denke wir können eigentlich nur Mutmaßungen anstellen weil auch die Aussagen immer widersprüchlicher werden. Es gibt Aussagen von NVIDIA siehe Link.
http://www.hardwareluxx.de/index.ph...t-leistung-auf-amd-gpus-in-the-witcher-3.html

Update:

Via Reddit hat sich Rev Lebaredian (Senior Director, Content & Technology und damit unter anderem für GameWorks verantwortlich) zu den Vorwürfen geäußert.

I can definitively state that PhysX within Project Cars does not offload any computation to the GPU on any platform, including NVIDIA. I'm not sure how the OP came to the conclusion that it does, but this has never been claimed by the developer or us; nor is there any technical proof offered in this thread that shows this is the case.

Rev Lebaredian
Senior Director, GameWorks
NVIDIA"

Das ist nur der Abschnitt über pCars. Verstehe ich da was falsch wenn er schreibt does not offload any computation to the GPU.
Ich verstehe das so, das keine PhsyX Berechnungen auf die GPU abgeladen werden. Und der Ian von SMS sagte selber das die Partikel nicht mit dem NVIDIA Framework berechnet werden, das in der Lage wäre GPU PhsyX durchzuführen.
Wem soll man noch glauben.
Ach ja, der Ian hat auch zugegeben dass man an der Partikel Performance noch arbeiten müsse.
 
noxon schrieb:
Natürlich läuft es schneller. Auf einer richtig starken Top-CPU versprürst du nur einen sehr geringen Performancegewinn.
Normale CPUs scheinen durch die GPU-Beschleunigung allerdings schon einiges an Performance zuzulegen. Jedenfalls laut diesen beiden Benchmarks hier.

1100 € 8 Kern CPU: 5960X
400 € 4 Kern CPU: 3770K

Und diese Benchmarks beweisen deiner Meinnug nach, dass PhysX die Berechnug schneller macht als HAVOK oder Bullet?
Ich kann nichts dergleichen erkennen.
Nochmals was ich schrieb:
Es läuft genauso schnell wenn andere Physik engines verwendet werden.
 
Wo ist denn da die Sabotage?
Wenn ein Spiel aufgrund von Mantle oder TrueAudio schneller laufen würde, dann ist das doch keine Sabotage durch AMD.

Hier läuft das Spiel eben aufgrund von ausgelagerten GPU Berechnungen auf nVidia Hardware schneller. So ist das halt, wenn Hersteller mit unterschiedlichen Features versuchen die Kundschaft anzulocken. Mal hat der eine den Vorteil und mal der Andere. Das AMD hier nicht ganz so erfolgreich ist seine Features an die Entwickler zu bringen wie nVidia ist ja wohl nicht nVidias Problem.


Daedal schrieb:
Und diese Benchmarks beweisen deiner Meinnug nach, dass PhysX die Berechnug schneller macht als HAVOK oder Bullet?
Beweisen tun sie gar nichts, weil sie die Performance nicht mit Havok oder Bullet vergleichen. Du hingegen triffst auch einfach unbewiesene Aussagen und behauptest einfach, dass Havok und Bullet gleich schnell wären, obwohl einem alle Indizien und der reine Menschenverstand sagen würde, dass GPU beschleunigte Physik immer schneller sein sollte als CPU berechnete Physik. Naja. Aber was soll's. Glaub du mal an den Weihnachtsmann.
 
Zuletzt bearbeitet:
RayKrebs schrieb:
Das ist eine endlose Diskussion. Jeder glaubt die Fakten zu kennen und dann die allgemeingültige Aussage treffen zu können. Ich denke wir können eigentlich nur Mutmaßungen anstellen weil auch die Aussagen immer widersprüchlicher werden. Es gibt Aussagen von NVIDIA siehe Link.
http://www.hardwareluxx.de/index.ph...t-leistung-auf-amd-gpus-in-the-witcher-3.html

Update:

Via Reddit hat sich Rev Lebaredian (Senior Director, Content & Technology und damit unter anderem für GameWorks verantwortlich) zu den Vorwürfen geäußert.

I can definitively state that PhysX within Project Cars does not offload any computation to the GPU on any platform, including NVIDIA. I'm not sure how the OP came to the conclusion that it does, but this has never been claimed by the developer or us; nor is there any technical proof offered in this thread that shows this is the case.

Rev Lebaredian
Senior Director, GameWorks
NVIDIA"

Das ist nur der Abschnitt über pCars. Verstehe ich da was falsch wenn er schreibt does not offload any computation to the GPU.
Ich verstehe das so, das keine PhsyX Berechnungen auf die GPU abgeladen werden. Und der Ian von SMS sagte selber das die Partikel nicht mit dem NVIDIA Framework berechnet werden, das in der Lage wäre GPU PhsyX durchzuführen.
Wem soll man noch glauben.
Ach ja, der Ian hat auch zugegeben dass man an der Partikel Performance noch arbeiten müsse.
Das Problem ist nicht unbedingt ein stattfindender Offload, sondern dass der GPU Controller das Threadscheduling in einen Thread für die CPU quetscht, sobald eben keine Maxwell verbaut ist. Unter Kepler passiert dies nämlich auch.
Siehe Funktionsweise bei Nvidia:
Diesen Link scheint jeder zu ignorieren oder nicht zu verstehen:
https://developer.nvidia.com/content/maxwell-gpu-physx-particles

Daher eine korrekte und auch sehr politische Aussage von Rev Lebaredian, denn die Bremse ist drin bevor ein GPU-Offload überhaupt stattfindet. Daher ist der Offload an sich nciht relevant, sondern das benutzte Scheduling im Programmcode, das auf Maxwell optimiert ist.
 
noxon schrieb:
Wo ist denn da die Sabotage?

"Sabotage" bezieht sich vor allem auf den Fall von Witcher 3 wo ein update der Gameworks Bibliotheken kurz vor Fertigstellung die Performance auf AMD Karten deutlich verschlechtert haben soll. Ich habe bei BF4 nichts dergleichen gelesen dass durch die Integration von Mantle plötzlich die NV Karten schlechter laufen würden als vorher...
 
Jesterfox schrieb:
Ich habe bei BF4 nichts dergleichen gelesen dass durch die Integration von Mantle plötzlich die NV Karten schlechter laufen würden als vorher...
Das hätte aber der Fall sein können, wenn es nach AMDs Willen gegangen wäre und nVidia Mantle unterstützt hätte.
Dann hätten Spiele eventuell lediglich Mantle implementiert und kein DirectX mehr und AMD wollte ja weiterhin die alleinige Kontrolle über Mantle behalten und hätte somit jederzeit die API so ändern können, dass nVidia dadurch Nachteile gehabt hätte. Es war also nicht verwunderlich, dass nVidia sich nicht auf eine API einlassen wollte die unter der Kontrolle der Konkurrenz steht.

Der Grund warum man in BF4 nichts spürt ist natürlich der, weil beide Karten komplett getrennt voneinander behandelt werden (DX11 und Mantle Renderer), während bei PC oder Witcher3 die AMD Karten auch mit nVidia Middleware verarbeitet werden.

Jetzt nehmen wir als Gegenbeispiel aber mal TressFX und TombRaider. Das konnte ich auf meiner nVidia Karte damals absolut nicht aktivieren ohne das meine Performance in unspielbare Regionen sank. War ganz genau so.
Dort hat nVidia kurz vor Release eine neue Version des Spiels bekommen und auf einmal festgestellt, dass der zuvor gut laufende Code aufeinmal alles andere als gut lief. Einen Patch mussten sie dann erst wieder nachreichen nach dem des Spiel veröffentlicht war.

Ist das jetzt absichtliche Sabotage oder einfach nur Optimierung im Eigeninteresse ohne Rücksicht auf die Konkurrenz. Ich würde eigentlich mehr auf Letzteres tippen. Zumal Sabotage gar nicht so einfach ist. Einen Weg zu finden, der mich minimal hemmt und dennoch die Konkurrenz optimal stört ist gar nicht so einfach zu finden, wenn man keinen Einblick in den Treiber der Konkurrenz hat.
 
noxon schrieb:
Das ist hier nicht das wirkliche Problem. Das Problem für AMD User ist, dass sie die Physikberechnungen auf der CPU ausführen müssen und die höhere CPU-Last ihre Grafik-Leistung limitiert. So einfach ist das.
Das heißt aber nicht, dass nVidia hier absichtlich die Performance von AMD ausbremst. Das heißt lediglich, dass nVidia hier seine stärken ausspielen kann indem sie ein Feature anbieten, dass AMD nicht hat..

Höhöhö, nein. Du schreibst Blödsinn, sorry ;)
Das Zauberwort steht in jedem zweiten Beitrag und heißt Tesselation.
Und da ist AMD sogar besser als Nvidia, siehe den Workaround im Catalyst Control Center. Das Wort "besser" tifft hierbei zu, bzgl. Tesselations-Leistung (& auch TressFX). Achja! Besser aussehen tuts' auch noch.

Nochmal zum Klarstellen: Dass die ganze Geschichte auf die CPU geschoben wird wurde bereits mehrfach und nachweislich widerlegt. Google is your Surf-Buddy.

mfg,
Max
 
Zuletzt bearbeitet:
max_1234 schrieb:
Das Zauberwort steht in jedem zweiten Beitrag und heißt Tesselation.
Und da ist AMD sogar besser als Nvidia

Wos? Nein. Also bei aller Liebe, aber AMD hat da historisch bedingt immer das Nachsehen. Bis heute. Man hat zwar nachgebessert und aufgeholt, tessellation ist aber noch immer das Steckenpferd, mit dem nVidia AMD immer wieder ärgert.

http://www.pcgameshardware.de/The-Witcher-3-PC-237266/News/Radeon-Hairworks-Kepler-1159509/

Wenn das nicht gut getrollt ist, dann weiß ich auch nicht. Tessellation läuft wirklich nicht gut bei AMD. Da gibt es einiges zu ergoogeln.
 
Zuletzt bearbeitet: (tablethass und besserer link)
Sucht doch bitte selbst .. gerade bei AMD Karten kann man die Tesselation im CCC auf 8x umschalten, wodurch die Haare wesentlich besser aussehen + kaum Performance drauf geht (<5%) - nicht so wie bei der Standardkonfiguration (32x?!) von Hairworks (~35%).
Ein User hat im Witcher Thread innerhalb der ersten 10 Seiten Vergleichsbilder hochgeladen.

Ahja und die Tomb Raider Vgl.-Screens gibts auch noch :)
Edit2: Und wenn das nicht reicht: eine (jetzt gerade) 2 Stunden alter HWL Artikel welcher Hairworks und TressFX gegenüber stellt: http://www.hardwareluxx.de/index.ph...d-tressfx-und-nvidia-hairworks-im-detail.html

Wer hat hier welche Vorteile? Lest euch das (Mini)-Fazit durch ...
Der einzige der hier glänzt sind die Haare. Bei beiden Herstellern ;)

mfg,
Max
 
Zuletzt bearbeitet:
Junge... Dafür muss man die Qualität absenken, gleich weniger Aufwand, gleich weniger Rechenleistung benötigt.
Dass es so anzeigbar ist, heißt nicht, dass AMD "schneller" ist. Wenn du die Qualität bei nVidia absenkst, wird was passieren? Genau. Es wird auch dort noch schneller laufen. Sicherlich ist nVidia da noch ein kleiner Fuchs und vergrößert die Lücke künstlich. Aber eigentlich hätten sie es gar nicht nötig. Zumindest bei Tessellation nicht.
Und mäßige den Tonfall, wenn du schon nicht verstehst. Such dich selbst mal durch Google. Ist bitter nötig.
 
@Daedal


Doch ich habe Artikel gelesen "Tweaking PhysX GPU Particles for Maxwell". Der ist ja auch höchst interessant. Wär auch schade wenn NVIDIA sich nicht verbessert hätte beim GPU-Computing, da hatten sie ja oft das Nachsehen gegenüber den Roten. Also gut Maxwell erreicht ca. das. 1.7 fache gegenüber Kepler. Wenn der Code auf Maxwell optimiert wird, auf ca. das 2 fache. Schön oder? Und neue Features unterstützt wie: On Maxwell, true shared memory atomics are implemented. This is a big improvement compared to Kepler. Oder: The particle system pipeline has a kernel (Let’s just call it kernel x) which makes heavy use of both global and shared memory atomic operations.


Hier kommen klar Vorteile zum Tragen wenn CUDA verwendet wird.


Doch SMS behauptet doch sie verwenden nicht die NVIDIA Partikel Library. Wie sollte das dann für pCar von Belang sein.


Und welche atomics nun SMS verwendet wissen wir auch nicht. Eigentlich dreht sich alles im Kreis.
 
Zuletzt bearbeitet:
Da ist ja auch Nvidia zu beglückwünschen und auch jeder Gamer. Ich kritisiere ja auch nicht Nvidia, sondern die faulen Entwickler die sich den Fallbackpfad für nicht Nvidia GPUs gespart haben. Denn alle nicht Maxells nutzen nur einen CPU Thread...wie soll AMD auf diese Scheduling optimieren? Das Standard Scheduling, welches bei anderen Spielen genutzt wird ist hier einfach noch nicht vorhanden oder einfach mies für NoN-Nvidia, da die Keplers ja ihre eigene Optimierung haben die aber auch mehr Rückstand bedeutet als bei anderen Titeln bisher.
 
@Daedal
Ich weiß nicht ob SMS an einem "Fallbackpfad" gespart hat. Tendenziell bin ich auch eher der Meinung das SMS den Code nachbessern müsste. Eine Frage ist bisher noch nicht beantwortet worden. Aus den relevanten Aussagen aus dem Forum, konnte ich entnehmen, wenn das so stimmt, dass die Performace auf AMD ernorm steigt, wenn die Grafik-Einstellung eine Stufe zurück genommen wird. Optisch würde sich dabei auch nicht viel tun. Was passiert dann?
PhsyX hin oder Fallbackpfad her, wieso funktioniert das dann so viel besser?
In High(Ultra)-Settings gibts ein Code der AMD nicht schmeckt.
Bei Assetto Corsa sind es die dynamischen Reflexionen die beide auch in die Knie zwingt, ohne großen optischen Vorteil.
 
Benchmark bezüglich Hairworks in Witcher 3

https://www.youtube.com/watch?v=R-6cFURV5qg

Im deaktivierten Zustand scheint AMD also keine Nachteile zu haben. Nur wenn es aktiviert wird, dann hat nVidia den Vorsprung. Nicht das, was ich unter Sabotage verstehe.
Auch die Leute von Eurogamer sehen das ähnlich.

From our perspective, HairWorks - just like the TressFX tech found in Tomb Raider - is best considered as an expensive luxury to be enabled only if you have a vast surfeit of GPU compute power available. With regards AMD performance generally, you'll note that the GTX 970 and the R9 290X offer similar frame-rates once HairWorks is disabled - so the good news is that GameWorks integration hasn't crippled AMD GPUs overall. Whether you own an Nvidia or AMD graphics card, our suggestion is to run The Witcher 3 with HairWorks turned off for best performance. The bottom line is that if a superb card like the GTX 970 (which is running the optimised HairWorks code, remember) produces sub-30fps performance dips with the technology enabled, that's a lot of GPU resource that could be better spent elsewhere, like aiming for a consistent 60fps for example.

Selbst auf nVidia Hardware ist das also ein Feature, was nur sehr wenig Sinn macht, es sei denn man hat serh sehr potente Hardware im Rechner.
 
Wenn da nicht halt der Trick mit den x16 Tesselation bei AMD Karten wäre, wodurch auch Hairworks auf AMD Karten sehr gut läuft und das mit weniger Performanceverlust einher geht als mit NVidias Karten.

Da muss man davon ausgehen, dass Nvidia das ganze mit x64 facher Tesselation laufen lässt, da AMDs Karten immer relativ schwach waren, was die Tesselationsleistung angeht.
 
Relaxo32 schrieb:
....da AMDs Karten immer relativ schwach waren, was die Tesselationsleistung angeht.

-Das stimmt schon lange nicht mehr...
http://www.tweakpc.de/hardware/tests/grafikkarten/amd_radeon_hd_7950/s13.php

-Nicht umsonst sagt man AMD Grafikkarten haben mehr Rohleistung, und nicht umsonst "verbraten" die AMD GPUs mehr Strom als die Nvidia Grafikkarten....nämlich weil die Rohleistung da ist. -Nvidia dagegen speckt ab, heimlich (GTX 970) -TOP Energieeffizienz, aber es fehlt was...
 
In sehr hohen Tesselationsfaktoren, wo man eh keinen Unterschied mehr sieht, haben die Radeons durchaus eine traditionelle Schwäche aber der gesunde Menschenverstand sagt einem dann auch wozu man solche Faktoren fahren und sinnlos Rechenleistung verblasen sollte wenn man eh keinen Unterschied mehr sieht?

Für die Spielehersteller macht das herzlich wenig Sinn, für den bevorzugten Hardware Hersteller sehr wohl, erst recht wenn er die Kontrolle über das entsprechende Feature hat.

Somit würde nvidia durchaus die Wahrheit sagen wenn sie behaupten das es an der Tesselationsleistung der jeweiligen Karte liegt, verschweigt dabei aber die Verschwendung von Rechenleistung um sich einen Vorteil zu verschaffen. Sowas nennt man PR.
 
Die Frage ist doch eher, inwieweit jemand, der Gameworks verwendet, per API bei den Effekten noch eingreifen kann und bspw. den Tessellationsfaktor selbst bestimmen kann. Richtig klasse wäre es dann, wenn ein Entwicklerstudio diese Optionen dann dem Spieler im Grafikmenü rausreichen würde.
 
Neuer AMD Catalyst Treiber 15.5 ist draußen und sorgt für einen signifikanten Performaneunterschied in Project Cars:
01-project-cars-(ultra-details,-light-rain,-10-cars)-chart.png


Testsystem: Radeon R9 290X @ 1.040/2.500 MHz, Core i7-3770K, 4 x 4 GByte DDR3-1333; Windows 8.1 Update x64, Catalyst driver (HQ, 16:1 AF)

Quelle


Am Ende hat also doch der Treiber von AMD einen signifikanten Unterschied gemacht.
 
Zurück
Oben