SimsP schrieb:
Kommt drauf an. Gut Betuchte haben bei NVidia sogar 12
Aber wo leidet jetzt mein Geldbeutel oder die Entwicklung neuer GPU Generationen darunter, dass NVidias Karten momentan in einem Benchmark eines DX12 Spiels, welches sich noch im Beta-Stadium befindet, abschmieren?
Weil dieser Benchmark darauf schließen lässt, dass Nvidia vielleicht kein Async Compute beherrscht bzw. dass AMD Grafikkarten einen Vorteil in DX12 Spielen haben könnte. Das bedeutet man kann seine AMD GPU länger behalten aufgrund der Leistungssteigerung und muss bei Nvidia vielleicht früher aufrüsten und hat dazu noch einen geringeren Wiederverkaufswert und das wird man wohl doch im Geldbeutel merken. Außerdem schmieren die Nvidia GPUs nicht ab sondern bringen einfach nicht die erhoffte Leistungssteigerung im Gegensatz zu DX11 zumindest in diesem Spiel.
SimsP schrieb:
Ich meine ich könnte ja den Aufschrei ansatzweise verstehen, wenn das Spiel schon fertig wäre oder wenigstens ein paar weitere DX12 Titel da wären, die die schlechten Ergebnisse von GeForce Karten unter DX12 untermauern.
Es geht um die Erkenntnis, dass Nvidia vielleicht kein Async Compute unterstützt und diese Erkenntnis lässt sich wohl auch auf andere DX12 Spiele mit aktiviertem Async Compute übertragen.
SimsP schrieb:
Aber das alles anhand eines Benchmarks fest zu machen, bei dem die AMD Karten in DX11 eine sehr bescheidene Leistung zeigen und dafür unter DX12 überproportional zulegen, halte ich für fragwürdig. Das hat für mich eher den Anschein als hätten die Entwickler geschlampt. Oder ist es seit Neuestem normal, dass eine Fury X in DX11 auf das Leistungsniveau einer GTX680 OC runterbricht?
Schon mal daran gedacht, dass AMD sich nicht die Mühe gemacht hat den DX11 Treiber zu optimieren bzw. es absichtlich unoptimiert gelassen hat damit die Leistungssteigerung im Gegensatz zu DX12 höher ausfällt. Oder ist es seit neuestem normal, dass in jedem Spiel eine Fury X so schnell wie eine GTX 680 OC ist?
SimsP schrieb:
Bei Benchmarks zu Vorserien Spielen wo AMD schlecht abschnitt hieß es "ist ja noch Beta, das wird noch besser".
Ich habe glaube ich noch nie gelesen, dass jemand sowas behauptet hat. Man liest häufig nur, dass AMD vor Release das Spiel kaum optimieren kann und dass die Entwickler nicht mit AMD zusammenarbeiten dürfen um den Gameworks Code für AMD GPUs zu optimieren.
SimsP schrieb:
Bei Spielen wo die Entwickler eng mit NVidia zusammengearbeitet haben (was bei NVidia Gameworks heißt) und AMD schlecht abschnitt (siehe Project Cars) hieß es "NVidia manipuliert die Ergebnisse zum eigenen Vorteil".
Wenn man sich bei The Witcher 3 in Hairworks die Tessellationsstufen anschaut merkt man, dass zwischen x64 und x16 optisch kaum ein Unterschied besteht, aber die Leistung bei AMD Karten sich sogar
verdoppeln kann und wenn man bedenkt, dass fast jedes Gameworks Spiel bei AMD Probleme macht und wenn man bedenkt, dass Nvidia Spiele schon vor Gameworks Probleme machten (H.A.W.X. 2, Assasins Creed DX10.1, Tessellation in Crysis 2, Batman, The Witcher 3, Call of Duty) dann hat man schon das Gefühl, dass Nvidia vielleicht doch seine Finger im Spiel haben könnte.
SimsP schrieb:
Und jetzt wo wir in einer Situation sind, in der wir sogar beide Fälle vorliegen haben, nämlich ein Beta Spiel dessen Entwickler nachweislich eng mit AMD und deren Mantle Platform zusammengearbeitet hat, drehen entsprechende Leute die Argumentation wieder gegen NVidia. Was ist das bitte anderes als Fankiddismus, wenn man seine Position um 180° dreht sobald der Kontrahent des Lieblingsherstellers durch die eigene Argumentation begünstigt wird?
Diesmal ist es aber so, dass AMD nichts dafür kann wenn Nvidia kein Async Compute beherrscht und die Entwickler sogar zugegeben haben, dass Nvidia den letzten Sommer mehr mit den Entwicklern gearbeitet hat als AMD selber. Wäre es andersherum und Ashes of the Singularity wäre ein Nvidia Spiel dürfte AMD mit den Entwicklern wohl kaum zusammenarbeiten.
SimsP schrieb:
Genauso die Haltung zu Mantle und den Einfluss auf Vulkan. Das feiern alle AMD Jünger als Erfolg, ok meinetwegen ... aber ich bin mir sicher hätte NVidia sowas gemacht, wäre wieder ein Aufschrei durch die Menge gegangen, dass das ein absolutes NoGo ist und NVidia den ganzen Markt korrumpieren würde - man erinnere sich bloß mal an die PhysX Unterstützung von 3DMark oder die Gameworks Effekte bei Far Cry 4 & Co.
Natürlich gäbe es einen Aufschrei, da Nvidia ihre API nur für ihre Grafikkarten veröffentlichen würde, genau wie PhysX, viele Gameworks Features & G-Sync. AMD hingegen hat bei Mantle und Freesync schon von Anfang an gesagt, dass auch Nvidia und Intel dabei mitmachen können.
SimsP schrieb:
Das Witzige an der Sache ist aber ... die Gameworks Effekte, in die von Seiten Nvidia einiges an Arbeit geflossen ist, kann ich auch mit einer AMD GPU ruckelfrei nutzen, die Mantle Renderpfade in Spielen wie Battlefield oder TressFX in Tomb Raider sind hingegen AMD exklusiv und werden es voraussichtlich auch bleiben.
Mantle ist schon längst tot und wird in Vulkan weiterleben und somit wirst du die Möglichkeit haben Vulkan zu nutzen wenn es Nvidia unterstützt, genau so wie du die Möglichkeit haben wirst Freesync zu nutzen wenn es Nvidia unterstützen sollte. Du meckerst darüber, dass wir hier über einen Benchmark diskutieren der noch Beta ist und dann ärgerst du dich darüber, dass du eine Beta API wie Mantle nicht in Battlefield nutzen kannst. Wie war das noch mal mit dem Fankiddismus und der 180° Position? 15 FPS mit einer HD 7950 in The Witcher 3 mit Hairworks und 31FPS mit dem Treiberfix auf x16 sind also ruckelfrei? Nur zur Info TressFX lässt sich auch auf Nvidia Karten problemlos und ohne großen Performanceverlust aktivieren beim Tomb Raider. Die Performanceprobleme wurden nach 1 Woche gefixt und das Spiel lief auf Nvidia Karten genau so gut wie auf AMD:
http://www.hardocp.com/article/2013/03/20/tomb_raider_video_card_performance_iq_review/6
HD 7970 GHz Edition 64.8 FPS ohne TressFX, 50.4 FPS mit TressFX und eine GTX 680 67.2 FPS zu 60.2 FPS. Ich denke bei diesen Werten kann sich kein Nvidia User über TressFX beschweren, vor allem weil AMD Karten mehr FPS verlieren als Nvidia.
SimsP schrieb:
Damit will ich nicht gegen AMD wettern, kann ja jeder mit seinem geistigen Eigentum machen was er will und es ist in meinen Augen durchaus legitim sich mit eigener Arbeit einen Vorteil vor der Konkurrenz zu verschaffen.
Aber einige erwarten offenbar, dass NVidia Features entwickelt, die sowohl für die eigene, als auch für Konkurrenz-Hardware optimiert wurden, wohingegen es völlig legitim und fortschrittlich ist wenn AMD die eigenen Technologien wie TressFX oder TrueAudio nur für die eigene Kundschaft zur verfügung stellt und sich dann wundert warum sich das ganze nicht durchsetzt.
Wie ich schon sagte ist TressFX auf Nvidia Karten möglich genau wie Freesync und Vulkan. Was kann AMD dafür wenn Nvidia nicht mitmacht. Keiner erwartet von Nvidia, dass sie "Features" entwickeln, welche wegen dem Performanceverlust eh kaum genutzt werden. Und die hohen Tessellationsstufen ziehen ja nicht nur die AMD Performance runter sondern auch die der Nvidia Karten. Das ist es aber Nvidia wohl Wert, weil im Vergleich AMD Karten stärker einbrechen. Anders kann ich mir das nicht erklären. Außerdem unterstützt nun Intel auch Freesync und es ist sehr wahrscheinlich, dass sich Freesync durchsetzen wird. Sogar Nvidia unterstützt Adaptive Sync in den Gaming Notebooks nennt es aber trotzdem G-Sync, obwohl dort kein Modul eingebaut ist.
PS: Bevor man einen so langen Text schreibt sollte man vorher sichergehen, dass die Argumente auch stimmen