Grestorn schrieb:
HW-accelerated. Das läuft nur auf NVidia. Auf anderen Systemen sind die Effekte nicht zu sehen.
Baal Netbeck schrieb:
Ist aber falsch....Beispiele die ich selbst besitze....
Grestorn schrieb:
Nein, ist es nicht. Du schreibst ja selbst, dass es zwei "Arten" von PhysX Unterstützung gibt.
Wo ist deine ursprüngliche Aussage nicht falsch? "Auf anderen Systemen sind die Effekte nicht zu sehen."
Und ich zeige Beispiele, dass man auch ohne Nvidia GPU die Effekte sehen konnte!
Egal ob meine beiden Beispiele für die HW Beschleunigung(Mafia 2 und Mirrors Edge), oder mein drittes Beispiel The Witcher 3, wo ich mir nicht sicher bin was da physX sein soll....Es fehlen keine Effekte!
Auch "Das läuft nur auf Nvidia" ist falsch, da es auch als CPU Fallback läuft.....Es läuft dann nicht gut, aber so mancher Konsolen Spieler würde es vermutlich als spielbar bezeichnen.
Grestorn schrieb:
Unten zum dritten Mal die Liste der Spiele, die tatsächlich Hardware-Beschnleunigte PhysX Effekte nutzen. Da ist W3 nicht dabei, aber eben Dein Mafia II.
Und es ging, nur nochmal zur Erinnerung, darum dass @MK one behauptet hat, Gameworks Spiele (oder gar alle Spiele) würde nur wegen PhysX besser auf NVidia laufen - das ist und bleibt absolut und zweifellos eine falsche Behauptung (wie so viele hier):
https://en.wikipedia.org/wiki/List_of_games_with_hardware-accelerated_PhysX_support
Was soll immer diese komische Wiki Liste? Die beweist doch gar nichts außer dass es über die Jahre eine Reihe Spiele mit HW acceleration gab.
"Und es ging, nur nochmal zur Erinnerung, darum dass
@MK one behauptet hat, Gameworks Spiele (oder gar alle Spiele) würde nur wegen PhysX besser auf NVidia laufen"
So pauschal kann man das natürlich nicht sagen, aber es ist über die Jahre klar geworden, dass Nvidia ihre Grafikeffekte dazu nutzt, AMD schlecht aussehen zu lassen, während AMD sich auf offene Standards stützt oder bei Eigenentwicklungen wie TressFX, darauf achtet, dass es auch auf Nvidia Hardware gut läuft.
Das physX mit HW Beschleunigung nicht für AMD GPUs freigegeben ist, hat keine technischen Gründe....man hatte die Möglichkeit den Konkurrenten schlecht darstehen zu lassen und hat es gemacht...das wurde aber auch negativ aufgenommen.
Und blöd, dass in den meisten Spiele-Tests diese Effekte dann ausgeschaltet wurden, um es fair zu machen....und sie auch auf Nvidia GPUs oft viel Leistung gekostet haben.
Was genau zu Gameworks zählt, und was unter anderem Namen an Effekten von Nvidia in die Spiele mit einfließt ist Wortklauberei.....Es gab genug Beispiele, wo Nvidia seine Effekte so ausgelegt hat, dass es auf AMD GPUs läuft aber mehr Leistung kostet und das hat sich für sie als deutlich erfolgreicher heraus gestellt.
Die offene "nicht Unterstützung" von physX hat ausgedient.
Die versteckte Einflussnahme über das einbauen von unsinnig viel Tessellations-Last hat auch ausgedient...war aber weit verbreitet.
Beispiele wie Crysis 2 mit Tessellation im Wasser, das auch unter der Erde berechnet wurde und Betonabsprerrungen, wo glatte Flächen trotzdem aus tausenden Polygonen zusammentesselliert wurden, waren zwar die Ausnahme, aber auch The Witcher 3 ist nicht sauber, weil mit Hairworks ein unsinnig hoher Tessellationsgrad verwendet wurde, der keinen optischen Vorteil gebracht hat, aber auf den damals noch Tessellationsschwächeren AMD GPUs mehr Leistung gekostet hat als bei Nvidia.
Mit Vega hat AMD bei der Tessellation aufgeschlossen und blockiert über den Treiber zu extreme Tessellationslevel, weshalb dieses Vorgehen sich für nvidia auch nicht mehr lohnt.
FFXV hat nochmal über Hairworks und den anderen Nvidia Krams AMD torpediert und versucht über den Benchmark zu betrügen indem dauerhaft(und außerhalb der Sichtweite) extrem viel Hairworks berechnet wurde.......war natürlich ein Versehen.
Und das sind ja nur ein Teil der Sachen, die ans Licht gekommen sind.....
Natürlich laufen nicht "alle Spiele" wegen Nvidia schlechter, aber Nvidia hat einfach eine lange Tradition, sich als Hilfe bei der Spieleentwicklung anzubieten und dann zufällig kreative Wege zu finden um im direkten Vergleich mit ATI/AMD besser dar zu stehen.
Es ist auch ihr gutes Recht...sie verletzen ja keine Gesetze......nur sollte man sie auch deswegen in Foren anprangern dürfen.
Das DX12 so stark klein gehalten wurde und Gameworks Titel dieses fast nie und wenn dann tendenziell schlecht geboten haben, war auch weil AMD in DX9-11 fast immer so schön ins single core CPU limit läuft.
Vulkan/mantel waren Randerscheinungen, die aber eigentlich immer die bessere Alternative waren, da man hier fast immer Nvidia und AMD GPUs auf Augenhöhe gesehen hat....aber besser weiter auf DX11 drängen, wo Nvidia einen Vorteil gegenüber AMD hat.
RT und DLSS sind mit extra Hardware beschleunigt, die Nvidia entwickelt hat, und die Nvidia auch mehr Geld in Form von größeren Chips kostet.
Das kann man sich anders wünschen und aus Sicht des Kunden blöd finden, aber noch ist es kein Problem für AMD.
....es ist sogar ein kleiner Segen für AMD, weil Nvidia dafür DX12 braucht und sie ihre Haltung zu DX12 um 180° gedreht haben.....von der miesen API, die(wenn gut umgesetzt) auf AMD gut lief und auf Pascal nicht, ist es zur "Zukunft" geworden...Turing unterstützt es zwangsweise besser als Pascal(wegen RT) und plötzlich sind viel mehr Spiele mit DX12 gekommen und werden noch kommen.....und dann vermutlich weniger fails wie Vermintide 2 und die vielen anderen grausig ruckeligen DX12 Umsetzungen.....jetzt wo Nvidia davon profitiert, wird DX12 gepusht.....
Aber ist das ein Vorteil für AMD...nein, man begegnet sich nur öfter auf Augenhöhe.
Ich will auch nicht AMD anpreisen.....sie haben in der Vergangenheit auch mal betrogen(ist aber schon länger her), sie sind ein gewinnorientiertes Unternehmen, das zwar heuchelt "We love PC gaming....",
aber Server CPUs in den consumer markt bringt (Ryzen) und Compute GPUs in den gaming Markt(Vega, Vega II).
Zu ihrem Glück sind die Server CPUs so günstig, dass sie eine empfehlenswerte Alternative zu Intel sind....mehr Kerne, Effizienz und freies OC als Verkaufsargumente gegen die hochgezüchteten Intel CPUs.
Das hat funktioniert und mit den vielversprechenden Effizienz und Taktsteigerungen die wir hier mit der 7nm Vega sehen, wird es wohl auch mit Ryzen 3000 ein Erfolg......sicher nicht so geil wie der Hype train es herbeischreit, aber ich bin etwas zuversichtlicher als vor dem Radeon VII launch.
Ich kaufe AMD, weil es für mich das Unternehmen mit
weniger Dreck am Stecken ist und weil es mir mehr Freiräume bietet, meinem PC-Bastel-Hobby nachzugehen.
Ich freue mich fast, dass die Karten so mies ab Werk sind....das sie Fehler haben, die ich ausloten und abschwächen kann.
Aber in einer Kaufberatung versuche ich objektiv zu sein und keine Vega zu empfehlen...Polaris ist hingegen ganz gut.....und wer maximale CPU Gaming Leistung möchte, der muss Intel kaufen......wer solide Leistung möchte der sollte Ryzen kaufen......
Ich prangere auch schon länger hier im Forum die Ignoranz von AMD an, wenn es um Software
Optimierung ihrere Produkte geht.
Das lässt sich nicht mehr mit einem kleineren Budget und weniger Leuten entschuldigen.......wer behauptet Gaming zu lieben, der muss eben einen software Scheduler Fallback für DX9-11 einfügen, als ständig im CPU limit zu hängen....oder ein "Task force" zusammenstellen, die kostenlos zu den Entwicklerstudios geht und denen einen Weg beibringt, den Render Thread frei zu schaufeln.
Oder besser noch kostenlos eine DX12/Vulkan Implementierung, die den Namen verdient einfügt.
Dann würden sie ehrlich sein und sagen....Vega war nie für Spieler gemacht und in 7nm ist sie nur ein Lückenfüller der 7nm Fertigung....und weil Navi einen Bug hat und sich verzögert mussten wir irgendwas bringen um die Aktionäre ruhig zu stellen.....PS...kauft die Karte nicht, wir machen Verluste damit.
Den Ryzen CPUs fehlt Takt und Latenz und Ramlatenz......ob der Takt mit 7nm, ohne extreme Kühlung, so viel besser werden wird, bleibt abzuwarten.....Vega 7nm hat ja nur 9,3% mehr Takt.....bei ähnlichem Verbrauch.
Und scheinbar Temperaturprobleme....ist das bei den CPUs auch so, dann werden aus 4050Mhz allcore eben 4430Mhz.
Der8auer hat mit Trockeneis Vega 7nm auf über 2000MHz übertaktet.
Das ist vielversprechend und wären bei Ryzen eine allcore Übertaktbarkeit auf 4,8GHz
Alles grausige Milchmädchenrechnungen mit Spekulatius.
Trotzdem bleiben es die Server CPUs, die mit mehr Kernen und Preis punkten müssen. immerhin wird der verdoppelte L3 Cache in Spielen wohl helfen.
....keine Ahnung worauf ich hinaus wollte.