News DirectX 12: Disput zwischen Oxide und Nvidia geht weiter

Prozessor Knox schrieb:
Genau! Dann bleibt der 1500,- DX11.3-Rechner wenigstens gleichwertig zu einem 500,- DX12-Rechner!

So ein Quark. Es gibt hier genug Besitzer leistungsstarker CPUs, mit denen man locker und flockig das weitere Geschehen um DX 12 und Windows 10 aussitzen kann.

Nai schrieb:
Btw: Huhuhu Moon_Knight! :)

Huhu Nai! smiley_cheerleader.gif

Edit:
Prozessor Knox schrieb:
Du möchtest aber noch ernst genommen werden?
Nai hat seine Kompetenz mehr als einmal hier unter Beweis gestellt.
Deinen Segen benötigt er gewiss nicht mehr. :rolleyes:
 
Zuletzt bearbeitet:
Nai schrieb:
Das Problem ist jedoch momentan, dass die Engine eben in mancher Hinsicht schlecht für diesen Zweck, nämlich viele Einheiten zeichnen zu können, entworfen worden ist. GPUs können bereits ohne DX12 über das sogenannte "Instancing" (https://en.wikipedia.org/wiki/Geometry_instancing) sehr schnell das gleiche Objekt mehrmals über einen einzigen Draw-Call zeichnen. Die Nitrous Engine scheint aber kein Instancing zu verwenden, sondern pro Einheit einen Draw-Call zu machen. Das ganze wurde zum Beispiel hier (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=550926) bei der Star-Swarm Demo diskutiert. Eventuell gibt es ja in neueren Versionen der Engine Instancing-Support. Da sie aber immer noch Draw-Call-Intensiv ist, lässt das mich das persönlich daran zweifeln.

Btw: Huhuhu Moon_Knight! :)

Ich glaube nicht das NVIDIA eine drawcall Schwäche hat. Sonst sehe der dx12 3dmark Test viel schlimmer aus. Für mich sieht das nach dem Problem aus das NVIDIA nicht ordentlich die shader füttern kann da ihre Ace Einheiten einfach nicht so frei arbeiten. AMD kann die shader nach Lust und Laune Dank den Aces befeuern(stark vereinfacht gesagt)
 
Smagjus schrieb:
Das würde mich auch zu gern wissen. Bisher nichts gefunden.

S.o.
Es ist Teil der API (also wie eine GPU angesprochen wird). Man kann es mit allen GPUs nutzen, für die es DX12 Treiber gibt. Also z.B auch mit Fermis.
 
Schon lustig zu sehen wie Sie aus Ihren Löchern gekrochen kommen und eine Sensation wittern.
Ich würde sagen: Einfach einmal abwarten und Tee trinken! In 6 Monate hat NVidia das schon zurecht gerückt und bis dahin gibt es eh keine DX12 Spiele zu kaufen. Ganz zu schweigen davon, dass erst einmal Windows 10 gescheit laufen muß. Zumindest Ich bleibe bis Anfang 2016 bei Windows 7 und somit juckt mich das heute nicht.

Ende 2016 wird dann eh Pascal gekauft und Problem gelöst. So sind wir NVidia Fan Boys halt. Immer ein lächeln im Gesicht und ein Lied auf den Lippen.
 
Das war nicht die Frage.

Du möchtest aber noch ernst genommen werden?
Du erwartest tatsächlich Antworten auf rethorische Fragen? Was ich im letzten Post sagen wollte: Mein Wissen reicht aus um beurteilen zu können ob etwas in Bezug auf bestimmten Gesichtspunkten Bad-Practice ist.


Ja, oder man passt das Instancing nicht an und nutzt die neuen Möglichkeiten, da kein Flaschenhals mehr vorhanden bzw der Hals wesentlich dicker ist.
Wenn es nur darum geht viele Einheiten zu zeichnen, dann ist es aber immer noch schlecht, weil dafür weiterhin Ressourcen verschwendet werden, wodurch dann wiederum eher eine Limitierung eintreten kann. Zu sehen ist das ja auch in dem Draw-Call-Benchmark, wo die Performance je nach API und GPU stark unterschiedlich einbricht. Ob die Performance trotz Limitierung ausreicht um genügend(!) FPS zu erzeilen, ist wieder ein anderes Bier.


@ Pipapa allgemein:
Könntest du mal bitte endlich mal damit aufhören deine Argumentationsketten immer wieder darauf aufzubauen, dass du einzelne Aussagen von Leuten, die mal etwas pro-NVIDIA/contra-AMD geschrieben haben, auf andere Menschen überträgst, um deren Widersprüchlichkeit aufzuzeigen? Denn das Übertragen bzw die Projektion nerven mich persönlich etwas. Ich habe zum Beispiel nie etwas bezüglich Tessellation kritisiert; m.E. ist Tessellation seit Einführung ein mehr oder weniger groß gehyptes Feature.
 
Zuletzt bearbeitet:
oldmanhunting schrieb:
Schon lustig zu sehen wie Sie aus Ihren Löchern gekrochen kommen und eine Sensation wittern.
Ich würde sagen: Einfach einmal abwarten und Tee trinken! In 6 Monate hat NVidia das schon zurecht gerückt und bis dahin gibt es eh keine DX12 Spiele zu kaufen. Ganz zu schweigen davon, dass erst einmal Windows 10 gescheit laufen muß. Zumindest Ich bleibe bis Anfang 2016 bei Windows 7 und somit juckt mich das heute nicht.

Ende 2016 wird dann eh Pascal gekauft und Problem gelöst. So sind wir NVidia Fan Boys halt. Immer ein lächeln im Gesicht und ein Lied auf den Lippen.

Du kaufst NVIDIA weil die dich gut reinlegen und du die Feature eigentlich schon 1-2 Jahre vorher bei AMD zum halben Preis haben kannst (Wo die Features dann auch noch bei AMD funktionieren) Was ist denn das für eine Logik? Du hast wirklich ein Fetisch reingelegt zu werden?
 
Zuletzt bearbeitet:
@oldmanhuntin Nvidea wird nichts zurechtrücken können.
AMD wird mit Greenland nochmal einen schritt vor machen.
Und Pascal wird sicher nicht der Retter werden.
 
Nai schrieb:
Du erwartest tatsächlich Antworten auf rethorische Fragen? Was ich im letzten Post sagen wollte: Mein Wissen reicht aus um beurteilen zu können ob etwas in Bezug auf bestimmten Gesichtspunkten Bad-Practice ist.
Ist doch sein gutes Recht. Auch im realen Leben würde ich mich nicht auf ein "Ich bin kompetent, glaube mir" ohne Referenzen verlassen. Wieso denn dann in einem anonymen Forum im Internet?...

Wenn du das Spiel nicht mitentwickelt hast, steckt du eben nicht in der Materie. Ob du nun viel Ahnung hast oder wenig. Ich weiß nicht ob du bereits eine Mail mit deiner Feststellung an Oxide verfasst hast, weil ich mir hier nicht alles durchgelesen habe. Würde mich jedenfalls mehr interessieren als bloße "Vermutungen" usw.


B2T:
Den relevanten Verlauf auf Englisch findet man auch hier nochmal detaillierter: http://www.guru3d.com/news-story/nv...12-benchmark-to-disable-certain-settings.html

Klingt für mich nach:
1. Oxide baut AS ein, bei AMD top und bei Nvidia flop.
2. Nvidia stellt es fest und sagt: Bitte AS raus.
3. Nvidia an der Öffentlichkeit: Oxide kann nicht Proggen, alpha + Bug im Game.
4. Oxide macht HardwareID Abfrage im BS: Wenn AMD->AS=an, wenn NV->AS=aus.
5. Oxide macht die Sache öffentlich.
 
Zuletzt bearbeitet:
Moon_Knight schrieb:
Der Retter vor 82% Marktanteil bei diskreten Grafikkarten? Nun werdet doch mal wieder sachlich.
Eines hat Oxide jedenfalls erreicht: ihr Spiel ist in aller Munde (wenn das nicht sogar das Ziel dieser Aktion war).

Ich habe nicht den Marktanteil gemeint sondern von der Leistung her(z.B. unter DX12).
 
War ja irgendwie klar, dass sie damit noch auf die Gosche fliegen. Hab mich eh gewundert wie man Maxwell volles DX12 bescheinigen kann wenn nichtmal klar war was alles dazu gehört.

Software Emulation at its best, Hauptsache ne 12 aufm Karton und hoffe der Durschnittlittsuser merkts nicht :P
 
issenia schrieb:
Meines Wissens geht es bei AS doch darum, dass GPGPU-Befehle gleichzeitig mit Renderbefehlen abgearbeitet werden können. Ohne AS müssten diese nämlich nacheinander verarbeitet werden. Und hier scheint die Stärke der GCN-Architektur einfach zu greifen.
Korrigiert mich bitte, wenn ich mich irren sollte.

Absolut korrekt.

issenia schrieb:
In diesem Zusammenhang stellt sich mir dann die Frage, ob dieser Umstand überhaupt softwareseitig umsetzbar ist. Ich denke eher nicht.

Das halte ich für eine Fehlinterpretation eines API-Features. Die GPU ist für den Entwickler eine "blackbox". An die kann man über die API Befehle schicken und dann schauen, was dabei rauskommt, bzw. wie performant das ganze abläuft.
An jeden Dx12 Treiber kann man einen Mix an Direct, Compute und Copy Queues schicken. Nach derzeitigem Stand arbeitet AMD die parallel ab und Nvidia seriell.
Ergänzung ()

pipip schrieb:
Der Grund ist Context Switching, welches bei AMD einfach mächtiger umgesetzt wurde, weil dieses Feature eben für HSA und den APUs ebenso wichtiges Element ist.

AMD macht überhaupt kein Context Switching, weil die Queues ja parallel abgearbeitet werden. Nur wenn man auf einer seriell arbeitenden Architektur immer wieder zwischen des Queues wechseln muss braucht man das. Das ist dann eine "quasi-parallele" Abarbeitung.
 
Na passen doch alle aussagen ;) Wenn Nvidia sagt, dass sie eng mit MS zusammen an DirectX 12 gearbeitet haben. Wenn man dann bedenkt, dass MS noch nicht lange bevor Mantle erschienen ist und MS unter Zugzwang gestellt hat, MS noch darüber nachgedacht hat keinen DirectX nachfolger je mehr zu bringen. Dann wundert es mich nicht, dass Nvidias enge Zusammenarbeit jetzt bei DirectX12 ziemlich kurzfristig kommt. Zudem, da eine Architektur und der Plan für eine solche, gerne einmal 5 Jahre bis zum Release dauert.
Cheers AMD, auch wenn AMD nicht den großen Profit davon trägt, so ist es doch schön zu sehen wie sich der große grüne windet. Und danke für die Innovation mit offenen Standarts.
Wenn sich das bewahrheitet, dass Nvidia keine Async Shaders auf der Hardwareebene unterstützt, wäre das ein dicker Hund.
 
Mal ne Frage:
Alle die hier pro Nvidia oder AMD schreien,habt Ihr zufälligerweise Aktien von der jeweiligen Firma?
Ansonsten ist das ganze Geschrei nähmlich lächerlich.
Ich persönlich kaufe ja immer das was mir am besten gefällt oder am besten passt ,aber mit der jeweiligen Firma auf Kuschelkurs zu gehen :D:D.
Das sind gewinnorientierte Firmen ,denen ist Eure Meinung sowas von scheissegal solange Ihr nichts von Ihnen kauft
 
berkeley schrieb:
Klingt für mich nach:
1. Oxide baut AS ein, bei AMD top und bei Nvidia flop.
2. Nvidia stellt es fest und sagt: Bitte AS raus.
3. Nvidia an der Öffentlichkeit: Oxide kann nicht Proggen, alpha + Bug im Game.
4. Oxide macht HardwareID Abfrage im BS: Wenn AMD->AS=an, wenn NV->AS=aus.
5. Oxide macht die Sache öffentlich.

Genau so habe ich das auch gesehen.
Mitlerweile frage ich mich warum gibt Oxide diese Infos raus? Und wichtiger warum in so einem kritischen Ton?
Liegt es daran, dass Nvidia behauptet hat Oxide hätte Fehler beim Programmieren gemacht? Mich überzeugt das irgendwie nicht.

Edith ergänzt, Oxide ist jetzt wirklich in aller Munde. Vielleicht reicht ihnen das.
 
Zuletzt bearbeitet:
Werbung für's eigene Spiel. Strategiespiele sind (bis auf wenige Ausnahmen) keine Selbstläufer. Also kommt man irgendwie ins Gespräch.
Die haben eben auch ein Marketing. ;)
 
poi schrieb:
Genau so habe ich das auch gesehen.
Mitlerweile frage ich mich warum gibt Oxide diese Infos raus? Und wichtiger warum in so einem kritischen Ton?
Liegt es daran, dass Nvidia behauptet hat Oxide hätte Fehler beim Programmieren gemacht? Mich überzeugt das irgendwie nicht.

Edith ergänzt, Oxide ist jetzt wirklich in aller Munde. Vielleicht reicht ihnen das.
Das, was Moon_Knight sagt + sowas:
"P.S. There is no war of words between us and Nvidia. Nvidia made some incorrect statements, and at this point they will not dispute our position if you ask their PR. That is, they are not disputing anything in our blog. I believe the initial confusion was because Nvidia PR was putting pressure on us to disable certain settings in the benchmark, when we refused, I think they took it a little too personally.

AFAIK, Maxwell doesn't support Async Compute, at least not natively. We disabled it at the request of Nvidia, as it was much slower to try to use it then to not. Weather or not Async Compute is better or not is subjective, but it definitely does buy some performance on AMD's hardware. Whether it is the right architectural decision for Maxwell, or is even relevant to it's scheduler is hard to say."


Er sagt, Nvidia hat eine falsche Aussage getroffen und sagt, man könne auch Nvidia fragen, die werden es nicht abstreiten.
 
Zuletzt bearbeitet:
Werbung für's eigene Spiel. Strategiespiele sind (bis auf wenige Ausnahmen) keine Selbstläufer. Also kommt man irgendwie ins Gespräch.
Die haben eben auch ein Marketing.
Den Punkt sehe ich ähnlich. Angenommen ihr Benchmark würde zeigen: DX11 dank optimierung ähnlich schnell wie DX12. Würden sich Diskussionen im Internet darüber dann genauso schnell verbreiten?
 
Moon_Knight schrieb:
Der Retter vor 82% Marktanteil bei diskreten Grafikkarten? Nun werdet doch mal wieder sachlich.
Eines hat Oxide jedenfalls erreicht: ihr Spiel ist in aller Munde (wenn das nicht sogar das Ziel dieser Aktion war).

82% Marktanteil bei den Verkäufen in diesem einen Quartal Q2/2015. Das dürfte schon in Q3/2015 wieder deutlich besser ausgesehen haben. Und Pascal wird NVidia vermutlich ziemlich verkacken, mit GDDR5 und vermutlich immer noch diesen Context-Switching-Problem, da der Tape-Out schon vor längerer Zeit erfolgt ist.
 
Nai schrieb:
Den Punkt sehe ich ähnlich. Angenommen ihr Benchmark würde zeigen: DX11 dank optimierung ähnlich schnell wie DX12. Würden sich Diskussionen im Internet darüber dann genauso schnell verbreiten?

So kann man natuerlich auch "elegant" verdraengen und den "schwarzen Peter" jemand anders zuschieben ... :rolleyes:.

Fakt ist, dass nVidia in letzter Zeit massiv an Glaubwuerdigkeit eingebuesst hat, und nicht erst seit der GTX 970er Kundentaeuschung, sondern den miesen Kepler Treiber-Support darf man nicht vergessen, wobei die jetzige Geschichte sicherlich (noch) nicht nVidias Absicht war, dann leistungstechnisch unter DX12 vergleichsweise so alt aus zu sehen und Maxwell schon vor dem Erscheinen von Pascal hinterher hinken zu lassen (so dass i.a. die neueste Generation von Karten dann weitaus besser aussieht und den Absatz bei Leichtglaeubigen zusaetzlich beschleunigt) kann sicherlich nicht im Interesse des gruenen Lagers sein.

Naja, abwarten, bisher ist es ja nur ein Beispiel, wenn sich allerdings der Trend bei bedeutungsvolleren Spieletiteln wie etwa "Fable Legends" oder "Deus Ex - Mankind Divided" bestaetigt, duerfte, trotz des groesseren GPU Marktanteils (denn dahinter stehen immer noch jede Menge Aktionaere), nVidia oeffentlich mehr unter Druck geraten. Wenn man nicht gerade ein nVidia Fanboy ist, duerfte jedem potentiellen Kunden ein vernuenftiger, gerade einmal einjaehriger Support seitens des Chipherstellers doch schon sauer aufstossen. Noch reicht mir meine GTX 670OC, aber auf eine vorab gehypte Pascal Chip Grafikkarte werde ich mich hoechstwahrscheinlich nicht einlassen (muessen), denn Huang und anderen aus der gruenen Propaganda-Abteilung sind alles andere als glaubwuerdig (Glaubwuerdigkeit haben Oxide nVidia sicherlich voraus, zumal die nVidisten sicherlich den groesseren Absatzmarkt fuer das Spiel bieten wuerden als AMDler gemaess GPU Martkanteil und man sich somit selber ins Bein schiessen wuerde ... die angebotene, hanebuechene Fanboy-Erklaerung eines cleveren Marketingeffekts fuer Oxide auf Kosten von nVidia Kunden ist mit Sicherheit Mumpitz).
 
Zurück
Oben