News Offener Schlagabtausch um Nvidia GameWorks

Leider werden diese Effekte aber nicht extra auf eigenem Weg für AMD-Karten gerendert. Nun ja die Engine von WD basiert eigentlich auf der Engine, die auch für AC4 herhalten musste. Und den Rezensionen und Tests nach muss sie nicht wirklich durch Physik glänzen^^ Das AMD noch viel durch Patches bewältigen kann bezweifle ich. Ich glaube immer noch stark daran, das GW der bremsende Faktor ist.
 
BookerDeWitt schrieb:
Leider werden diese Effekte aber nicht extra auf eigenem Weg für AMD-Karten gerendert.[...]

das ist der entscheidende satz. nur ist das wahrlich nicht nvidias schuld.
 
Zehkul schrieb:
Die arbeiten aber nie und nimmer alle an der Linuxversion. Wenn das als 8 Leute sind, wäre das ein ziemliches Armutszeugnis, wenn 4-5 Leute mit komplettem Rewrite einen besseren Job machen. :p

Ist es nicht so das die Codebasis wie bei Nvidia auch mit dem Windows-treiber identisch ist? Damit wären die meisten Änderungen an der Codebase auch für Linux.

Zehkul schrieb:
… und der freie Treiber im Kernel MUSS feature complete (!) sein. Das ist eigentlich schon eine ziemliche Ansage.

Naja ist er heute ja auch weitgehend, das einzige was fehlt was mir ein fällt aktuell sind opengl level. Kein plan vielleicht fehlt auch bei Opencl was. Featurecomplete wäre aber keine Aussage bei wieviele FPS.
 
blackiwid schrieb:
Ist es nicht so das die Codebasis wie bei Nvidia auch mit dem Windows-treiber identisch ist? Damit wären die meisten Änderungen an der Codebase auch für Linux.

Das meiste ist gleich, aber bei AMD ist viel viel mehr unterschiedlich als bei Nvidia, zumindest nach eigenen Aussagen. Man konnte in den letzten Monaten auch schon gut beobachten, wie OpenGL Support unter Windows noch viel schlechter wurde, als er eh schon war, während er sich unter Linux langsam verbessert. (Catalyst) Warum wohl. :freaky:

blackiwid schrieb:
Naja ist er heute ja auch weitgehend, das einzige was fehlt was mir ein fällt aktuell sind opengl level.

Wo eben auch schon eine Menge fehlt heute.
 
berkeley schrieb:
typisch Nvidia... wenigstens geht AMD nicht diesen Weg. Davon profitieren wiederum auch Nvidia Kunden.

Naja vielleicht realisieren "einige" User demnächst, dass es nicht nur "Nvidia ist extrem geil alta"
und "AMD ist extrem scheiße alta" gibt. Diese eingefahrene Sicht ist ziemlich nervig.

Nvidia baut sehr gute Karten genauso wie AMD. Aber nur wenn beide Hersteller neue Grakas und Features entwickeln (die auch von der Konkurrenz genutzt und optimiert werden dürfen) haben die Spieler etwas davon.
Allerdings habe ich vermehrt den Eindruck, dass Nvidia karten vorwiegend mit dem oben genannten sinnlosen Argument gekauft wird. Und außerdem war ja schon immer Nvidia verbaut usw.

Solche Ansichten sind zwar für Nvidia gut, ruinieren aber langfristig den Markt und daraus ziehen die User garantiert keine Vorteile!
Siehe CPU Markt. Wobei da wohl vorwiegend Intel mit den Subventionen schuld war/ist und weniger der User ;)

Du bist aber nicht wirklich so naiv und glaubst tatsächlich das AMD nicht genau das gleiche mit den AMD optimierten Spielen macht, oder?
Siehe TombRaider und Dragonage 2. Wie seltsam das Nvidia Karten kaum bis gar nicht liefen...

Es ist und wird immer so sein... So bleiben wenigstens alles Lager im Gespräch und machen automatisch Werbung. Was kann man sich als Hersteller sonst noch wünschen, außer selbstlaufende Werbung mit dem streuen von ein paar Gerüchten. Medienmanupilation hoch 3 und keiner merkts...
 
Zuletzt bearbeitet:
Geh ins bett Sontin.

Edit: Wurde doch schon durchgekaut warum GameWorks und TressFx sich unterscheiden. Eins behindert AMDs Performance im ganzen Spiel und eins lässt sich deaktivieren und ausserdem wurde nVidia die Chance gegeben TressFx selber zu begutachten und Optimierungspotenzial für ihre Karten einzubringen. Aber da wurde abgeblockt und eine eigene schön proprietäre Lösung gebastelt.. Nur damit man den Markt weiter segmentieren kann.. Aber hei.. Schadet ja nur den KUNDEN! :D
 
Zuletzt bearbeitet:
cypeak schrieb:
dass müssen sie auch garnicht. sie können einen entsprechenden renderpfad für amd anlegen und den gleichen effekt "oldskool" für amd implementieren.

War nicht deshalb Mantle doof, weil man einen extra Renderpfad braucht? Wenn wir sowieso ein Spiel für Nvidia und eins für AMD bauen sollen, dann kann man auch Mantle nehmen.
Letztlich ist Gameworks ein geschickter Schachzug von Nvidia. Sie können für ihre GPUs handoptimierten Code liefern und alle anderen (AMD, Intel) dürfen den langsamen Pfad nehmen. Dass das ganz rechtens ist kann ich mir nicht vorstellen.
 
Zuletzt bearbeitet:
riDDi schrieb:
[...]
Letztlich ist Gameworks ein geschickter Schachzug von Nvidia. Sie können für ihre GPUs handoptimierten Code liefern und alle anderen (AMD, Intel) dürfen den langsamen Pfad nehmen. Dass das ganz rechtens ist kann ich mir nicht vorstellen.

der erste satz past schon - es ist ein geschichtes "marketing".
es hindert die entwickler niemand daran optimierungen für andere hardware vorzunehmen; und da gameworks keine pflicht ist, gibts da rechtlich auch nichts zu beanstanden.


im thread hier hauen sich die nvidia und amd fans eins auf die mütze, wenn sie schon irgendjemanden wegen gameworks angehen wollen, dann die entwickler des jeweiligen spiels.

was wäre wenn sich nvidia beschwert das sich dice für mantle entschieden hat? die beschwerde wäre auch nicht angebracht...
 
cypeak schrieb:
dass müssen sie auch garnicht. sie können einen entsprechenden renderpfad für amd anlegen und den gleichen effekt "oldskool" für amd implementieren.
das ist ja der punkt: die entwickler entscheiden sich für gameworks weil es ihnen arbeit abnimmt. das gleiche muster wie bei directx vs. opengl.
an dieser stelle hat nvidia in die richtige kerbe geschlagen und ein nützliches paket für entwickler geschnürt. es spricht absolut nichts dagegen für amd ebenfalls entsprechenes bibliotheken-paket für die entwickler bereitzustellen. die können ohne weiteres nebeneinander existieren.
Wozu sollte AMD ein solches Bibliotheken-Paket für die Entwickler bereitzustellen? Die meisten Spieleengines werden bereits mit allen möglichen Effekten ausgeliefert. Teilweise haben die Engines sogar eigene Physik-Bibliotheken, die Physx größtenteils überflüssig machen.
Falls etwas fehlen sollte, dann gibt es reichlich Middleware, die selbstverständlich für Nvidia UND AMD Hardware optimiert sind und sehr einfach in bestehende Engines eingebaut werden können. Die Middleware muss nicht von Nvidia stammen, abgesehen von Physx ist Gameworks eigentlich komplett überflüssig.

Für Nvidia hingegen ist Gameworks keinesfalls überflüssig, denn Gameworks ist offenbar ein Werkzeug, das dazu dient die Konkkurenz gezielt auszubremsen. AMD kann halt nur bedingt für Gameworks optimieren, da sie den Gameworks-Quellcode nicht einsehen können. Aber nicht nur das, mittlerweile werden sogar die von AMD vorgeschlagenen Quellcode-Optimierungen bei Gameworks-Titeln grundsätzlich abgelehnt. Das gilt wahrscheinlich jetzt auch für das TWIMTB Programm, aber sicher bin ich mir nicht.

Anstatt die eigene Hardware zu beflügeln, versucht Nvidia die Konkurrenz mittels Gameworks bewusst auszubremsen. Eine bedauernswerte Entwicklung mMn.
 
dexplus schrieb:
Wozu sollte AMD ein solches Bibliotheken-Paket für die Entwickler bereitzustellen? Die meisten Spieleengines werden bereits mit allen möglichen Effekten ausgeliefert. Teilweise haben die Engines sogar eigene Physik-Bibliotheken, die Physx größtenteils überflüssig machen.
Falls etwas fehlen sollte, dann gibt es reichlich Middleware, die selbstverständlich für Nvidia UND AMD Hardware optimiert sind und sehr einfach in bestehende Engines eingebaut werden können. Die Middleware muss nicht von Nvidia stammen, abgesehen von Physx ist Gameworks eigentlich komplett überflüssig.

ich kann mich hier nur wiederholen: es ist die wahl der entwickler, und da diese sich für die middleware gameworks entschieden haben, schent es alles andere als überflüssig zu sein - es wird es wohl einen grund geben. (auch wenn es unter umstenden nur finanzielle anreize seitens nvidia sind)

dexplus schrieb:
Für Nvidia hingegen ist Gameworks keinesfalls überflüssig, denn Gameworks ist offenbar ein Werkzeug, das dazu dient die Konkkurenz gezielt auszubremsen. AMD kann halt nur bedingt für Gameworks optimieren, da sie den Gameworks-Quellcode nicht einsehen können. Aber nicht nur das, mittlerweile werden sogar die von AMD vorgeschlagenen Quellcode-Optimierungen bei Gameworks-Titeln grundsätzlich abgelehnt. Das gilt wahrscheinlich jetzt auch für das TWIMTB Programm, aber sicher bin ich mir nicht.

Anstatt die eigene Hardware zu beflügeln, versucht Nvidia die Konkurrenz mittels Gameworks bewusst auszubremsen. Eine bedauernswerte Entwicklung mMn.

im grunde schreibst du "nvidia bremst amd aus" - was zur zeit nur eine mutmaßung ist; man könte die bestenfalls unwissenheit vorwefen, schlimstenfalls dreiste lüge.
rein zufällig bin ich software entwickler in der industrie und ich würde auch der konkurenz keinen zugang zu meinem code gewähren.
und ich würde den teufel tun um mit _meinen_ werkzeugen und bibliotheken für _meine_ hardware, noch verbesserungen für die konkurenz aufzunehmen - leute das ist WETTBEWERB und keine gemeinnützige arbeit, das scheinen hier einige zu verwechseln.
genauso könten sie intel bei der entwicklung ihres (weit verbreiteten) compilers vorwerfen dass sie nur auf intel cpu's optimieren und amd cpu's ausbremsen...

DISCLAIMER
bevor man mich in die nvidia fanecke abschiebt: ja, zur zeit nutze ich vorwiegend nvidia. gegen amd habe ich (ideologisch) rein garnichts - wenn sie mir die bessere lösung für mein geld bieten, kaufe ich morgen bei denen; als kunde bin ich da flexibel. bei den cpu's genauso - davor hatte ich reihenweise amd cpu's vom thunderbird sockel A bis phenom2 sockel AM2+.

ich wünschte die diskussion würde weniger auf lagerdenken beruhen und sich mehr auf fakten und logik stützen - zumindest anteilsweise. ich bin auch ein freund des wettbewerbs, den konkurenz belebt das geschäft und nutzt sicherlich mir als kunden.
aber ich muss nicht aufs blut in die meinungsschlacht für einen der hersteller ziehen - nur habe ich was gegen schlichtweg faktenlose fingerzeigerei und argumentation der art "die haben mir meine schippe weggenommen, wääähhhhhh!".

an dieser stelle hat sich amd stark aus dem fenster gelehnt und eine behauptung aufgestellt die sie noch nicht beweisen konnten noch irgendwie anders untermauerten. das was sie da losgetreten haben schlägt bis hier ins forum durch und darf einem weltkonzern wie amd eigentlich nicht passieren - sowas ist schlicht schlechter stil; als ceo/cto wäre ich auf meine mitarbeiter sauer...
 
cypeak schrieb:
an dieser stelle hat sich amd stark aus dem fenster gelehnt und eine behauptung aufgestellt die sie noch nicht beweisen konnten noch irgendwie anders untermauerten.

Die Darstellung von AMD ist doch sehr ausführlich und glaubhaft.

CB schrieb:
Das Einsehen des Source Codes sei in der Tat der einzige Weg, um die optimale Leistung aus jeder Hardware heraus zu holen. Alles andere wie die Optimierung der geschlossenen Binaries sei nur „eine Notlösung“.....Die Binaries sind aus AMDs Sicht allerdings nicht nur aufgrund ihrer Geschlossenheit problematisch, so Huddy. Auch können sie noch kurz vor der Veröffentlichung geändert werden, so dass AMD nicht mehr auf Veränderungen reagieren kann und vorgenommene Optimierungen ihre Wirkung verlieren.
AMD gibt hier ja noch nicht ein mal Nvidia selbst die Schuld, sondern schildert dass Problem allgemein.

Und das GW-Spiele auf AMD GPUs oft deutlich schlechter laufen, fällt doch auf.
Watch Dogs ist doch nur ein Bsp. von vielen.
Aber hier noch einmal das Fazit von PCGH zu Watch Dogs.

PCGH schrieb:
Aufällig ist außerdem, dass CPU-limitierte Szenarien mit einer Nvidia-GPU deutlich geschmeidiger laufen als mit einer AMD-GPU. Der spezielle Overhead-Test widmet sich der Frage, wie stark die Grafikkarte bzw. deren Treiber die Leistung beeinflusst. Nvidias Gameworks-Anstrengungen scheinen sich auszuzahlen, im (weitgehenden, nicht absoluten) CPU-Limit können Geforce-Grafikkarten deutlich höhere Fps aus der gleichen CPU quetschen als AMD-Grafikkarten. Wer einen schwachen Prozessor besitzt, kann die Watch-Dogs-Grundleistung folglich nicht nur durch Übertakten oder Aufrüsten der CPU steigern, sondern auch durch einen GPU-Wechsel.
http://www.pcgameshardware.de/Watch...s/Watch-Dogs-Test-GPU-CPU-Benchmarks-1122327/

Das Fazit ist eindeutig. Nur mit einer Nvidia GPU läuft das Game richtig gut.

cypeak schrieb:
das was sie da losgetreten haben schlägt bis hier ins forum durch und darf einem weltkonzern wie amd eigentlich nicht passieren - sowas ist schlicht schlechter stil; als ceo/cto wäre ich auf meine mitarbeiter sauer...
Im Gegenteil, AMD muss dass sogar kommunizieren, denn sonst hat man wieder der Ruf einer Firma mit schlechten Treibern weg. Sie bemühen sich ja, können aber auch nicht zaubern. GW-Spiele können eben nur notdürftig optimiert werden.
 
cypeak schrieb:
es hindert die entwickler niemand daran optimierungen für andere hardware vorzunehmen; und da gameworks keine pflicht ist, gibts da rechtlich auch nichts zu beanstanden.

Doch und zwar Nvidia. Warum soll ich Gameworks einsetzen, wenn ich hinterher für nicht-Nvidia Hardware eine eigene Lösungen bereitstelle? Die Gameworks-Komponenten sind vom Entwickler nicht veränderbar. Es läuft darauf hinaus, dass AMD ihren Treiber ähnlich wie Nvidia auf Gameworks optimieren müssen, nur dass sie das nachträglich und ohne Code machen müssen. Maximal dekompilieren können sie den und es würde mich nicht wundern wenn die Binaries obfuskiert sind.
Wettbewerbsverzerrung ist das auf jeden Fall, nur muss es nicht gleich illegal sein.

€: Keine Ahnung ob die Artikel hier schon verlinkt wurden, aber ich finde sie gut geschrieben:
http://www.extremetech.com/gaming/1...counters-with-mantle-integration-in-cryengine
http://www.extremetech.com/extreme/...surps-power-from-developers-end-users-and-amd
 
Zuletzt bearbeitet:
Vielleicht solltet ihr euch weniger auf die Person Sontin als auf die Inhalte konzentrieren.

Computerbase bestätigt ihn nämlich:
https://www.computerbase.de/2014-04/nvidia-geforce-337.50-benchmark-test-wundertreiber/3/

73 FPS vs 92 FPS unter DX 11
73 FPS vs 122 FPS unter DX 11

Diese Werte sind deutlich überdurchschnittlich, normalerweise sollten kaum FPS zwischen R9 290X und GTX 780 Ti liegen. Nvidia kommt hier unter DX 11 mit dem CPU-Limit offenkundig besser zurecht. Ein Test der mehr DX 11 Spiele mit CPU-Limits beinhaltet wäre natürlich interessant.
 
riDDi schrieb:
Doch und zwar Nvidia. Warum soll ich Gameworks einsetzen, wenn ich hinterher für nicht-Nvidia Hardware eine eigene Lösungen bereitstelle? Die Gameworks-Komponenten sind vom Entwickler nicht veränderbar. Es läuft darauf hinaus, dass AMD ihren Treiber ähnlich wie Nvidia auf Gameworks optimieren müssen, nur dass sie das nachträglich und ohne Code machen müssen. Maximal dekompilieren können sie den und es würde mich nicht wundern wenn die Binaries obfuskiert sind.
Wettbewerbsverzerrung ist das auf jeden Fall, nur muss es nicht gleich illegal sein.


das ist schlicht falsch. wieder eine mutmaßung. und wieder was falsches. ...

nicht amd muss für gameworks optimieren, amd muss die entwickler dazu bringen neben der implementierung mit gameworks auch einen renderpfad für amd zu implementieren.
wenn eine middleware besser auf die eigene produktpalete abgestimmt ist (und gameworks ist hier am ehesten als middleware zu sehen), kann die konkurenz weder verlangen dass sie vom hersteller der middleware supported wird, noch das dieser den code öffnet damit die verwender der middleware das tun.

das hat mit wettewerbsverzerrung nichts zu tun ist da draußen in der wirtschaft gang und gäbe. (oracle macht das mit dem eigenen produktportfolio schon immer so...da kommen dell und hp auch nicht angerannt un verlangen öffnung des codes oder optimierungen von oracle)


ernsthafte frage: ich das schlicht vermutung/unwissenheit oder der versuch zu trollen?? weil sicher bin ich mir zunehmend nicht mehr...
 
Zuletzt bearbeitet:
Satsujin schrieb:
@Waro245

Würdest du Zeit & Geld für Optimierungen auf DX ausgeben, wenn das Spiel (ergo BF4) auch deine eigene API verwendet?
Bestimmt nicht und erst recht nicht, wenn die eigene API bessere Ergebnisse liefert ;)

Grundlos sind die Spiele-Entwickler (die mit Mantle arbeiten) wohl nicht von Mantle begeistert.
Civilization: Beyond Earth - Mantle ist die mächtigste Grafik-API, sagt Firaxis

Ja, darum hätten mich weitere DX 11 Titel mit CPU Limits interessiert. Vielleicht kommt ja was zukünftig.

Allerdings macht das so oder so die Situation nicht viel besser. Viele dürften eine AMD Karte haben, die von Mantle nicht unterstützt wird und auch die Wirkung von Mantle lässt das in einem ganz anderen Licht erscheinen wenn man sieht, was unter DX 11 möglich gewesen wäre. Alles in allem kein Ruhmesblatt für AMD.
 
Waro245 schrieb:
Vielleicht solltet ihr euch weniger auf die Person Sontin als auf die Inhalte konzentrieren.

Computerbase bestätigt ihn nämlich:
https://www.computerbase.de/2014-04/nvidia-geforce-337.50-benchmark-test-wundertreiber/3/
Anscheinend kannst du keine Zahlen vergleichen, denn die Polen-Benchmarks stimmen mit denen von Computerbase nicht überein. :rolleyes:

Es bleibt dabei, wer auf Nvidia setzt muss unter BF4 muss 200 Euro mehr ausgeben und eine 780 Ti kaufen, denn nur so ist die Leistung von einer 290X + Mantle zu erreichen.

Außerdem ist Mantle immer noch Beta, die API wird weiter entwickelt, die Leistung wird steigern. Unter Thief wird eine 290X + Mantle nicht eingeholt. Die Fakten wurden schon tausend mal erwähnt.
 
Zuletzt bearbeitet:
dexplus schrieb:
Anscheinend kannst du keine Zahlen vergleichen, denn die Polen-Benchmarks stimmen mit denen von Computerbase nicht ein. :rolleyes:

Es bleibt dabei, wer auf Nvidia setzt muss unter BF4 muss 200 Euro mehr ausgeben und eine 780 Ti kaufen, denn nur so ist die Leistung von einer 290X + Mantle zu erreichen.

Außerdem ist Mantle immer noch Beta, die API wird weiter entwickelt, die Leistung wird steigern. Unter Thief wird eine 290X + Mantle nicht eingeholt. Die Fakten wurden schon tausend mal erwähnt.

Natürlich stimmen die Zahlen nicht überein, man kann nur innerhalb eines Tests genaue Werte vergleichen. Das ändert an der Grundaussage aber nichts.

Und was haben Mantle und die Grafikkartenpreise schon wieder damit zu tun? Es ging um das Verhalten im CPU-Limit unter DX 11. Es ging um eine rein technische Betrachtungsweise, keine Kaufberatung.
 
Waro245 schrieb:
Natürlich stimmen die Zahlen nicht überein, man kann nur innerhalb eines Tests genaue Werte vergleichen. Das ändert an der Grundaussage aber nichts.

Und was haben Mantle und die Grafikkartenpreise schon wieder damit zu tun? Es ging um das Verhalten im CPU-Limit unter DX 11. Es ging um eine rein technische Betrachtungsweise, keine Kaufberatung.
Und die rein technische Betrachtungsweise besagt, dass Mantle funktioniert und die Leistung steigert.

Mantle bringt eine Mehrleistung mit sich, die nur mit einer Leistungsfähigeren (also teueren) Grafikkarte kompensiert werden kann, falls man auf DirectX setzen möchte oder muss. Mantle verringert den Treiberoverhead, dadurch wird die Leistung gesteigert.

Das ist wirklich nicht so schwer zu verstehen.
 
Zuletzt bearbeitet:
dexplus schrieb:
Und die rein technische Betrachtungsweise besagt, dass Mantle funktioniert und die Leistung steigert.

Mantle bringt eine Mehrleistung mit sich, die nur mit einer Leistungsfähigeren (also teueren) Grafikkarte kompensiert werden kann, falls man auf DirectX setzen möchte. Mantle verringert den Treiberoverhead, dadurch wird die Leistung gesteigert.

Das ist wirklich nicht so schwer zu verstehen.

Wie gesagt, es ging um DX 11. Sontin hat Benchmarks gepostet, wurde daraufhin beschimpft und die Benchmarks als unseriös abgetan nur weil sie polnisch sind (WTF?) und daraufhin habe ich gepostet, dass Computerbase ihn in Bezug auf das Verhalten im CPU-Limit unter DX 11 bestätigt. Nicht mehr und nicht weniger.

Ich habe keine Gesamtbetrachtung AMDs vorgenommen, aber Fanboys wie du machen dann gleich daraus ein "Aber die Preise! Aber Mantle!" und dann beginnt das ewige AMD vs. Nvidia, dabei ging es überhaupt nicht um eine Gesamtbetrachtung der beiden Hersteller, sondern nur um diesen einen Aspekt. Geh mal raus an die Sonne, das mach ich jetzt.
 
Zurück
Oben