News DirectX 12: Disput zwischen Oxide und Nvidia geht weiter

strex schrieb:
Was schreibt denn DX12 vor? In der Dokumentation konnte ich dazu nichts finden, welche Parts alle asynchron laufen müssen. Wenn man den Name der Spezifikation als bare Münze nimmt wird nur von asynchronous compute gesprochen was die Compute Tasks beschreibt. Aber wie gesagt klare Antwort habe ich dazu nicht gefunden.

Bis das Queue-Limit erreicht ist hat hier nvidia eine gute Skalierung. Sprich mehr Queues und Switches führen nicht zur Steigerung (sieht man ja am Treppeneffekt). Erst bei einem Vielfach des Queue-Limits steigen die jeweils, um eine Switch-Zeit an.

Das ist korrekt, dasselbe ebenfalls bei AMD - da bei berechnet werden addieren sich hier die Zeit (Sieht man ja auch in dem oberen Vergleich). Wobei dieser so schnell geht, dass alle native Queues schneller bearbeitet werden können als bei AMD bei selber Queue Depth und warum hier GCN min 50ms Overhead benötigt. Deshalb wäre es auch hier interessant was DX12 vorschreibt, wie viel Queues (min) vorhanden sein müssen. Sonst würden ja schon zwei dafür reichen. Was GCN aber besser macht ist, dass es bei mehr als die verfügbaren Queues besser skaliert und der fixe Overhead ausreicht. Das kann Maxwell nicht, entsprechend werden die Latenzen schlechter.

Also da gibt es insgesamt ein paar Ungereimtheiten. Unter asynchronous compute wird soweit ich weiß das parallele abarbeiten von compute und graphics verstanden. Welche und wie viele Parts parallel (und ob tatsächlich parallel) laufen müssen, wird einem vermutlich keiner vorschreiben. Das wird vermutlich in etwa so sein wie mit den Shader-Einheiten, je mehr desto besser.

Ob das queue-limit nun erreicht ist oder nicht, Maxwell arbeitet trotzdem erst den einen Part und danach den anderen Part ab, wodurch sich (auch bis 30 kernels) compute ms+graphic ms addieren . Bei "wenigen" kernels geschieht das in den synthetischen Benchmarks jedenfalls schneller als mit einer pauschal-Warteschleife bei AMD. In dem Spielebenchmark sieht man jedoch, dass Nvidias Modell so nicht funktioniert, zumindest nicht mit gleichzeitiger Performancesteigerung. Weshalb Nvidia es ausstellen möchte.

Laut dem synthetischen Benchmark aber sind es selbst im worst case nur 62ms für die Ti und ca. 52-55ms für GCN. So viel schlechter bzw. "desaströs", wie Oxide es beschreibt, dürfte der Unterschied also eigentlich nicht ausfallen.

Deshalb denke ich eben nicht, dass das ganz für Maxwell so harmlos ist. Wird aber vermutlich je nach Spiel wichtiger oder eben unwichtig.
 
Ich würde mal darauf tippen, dass die DX11 Treiber von AMD bisher wirklich nicht so die besten waren bzw. auf andere Dinge optimiert waren. Kurzum DX12 zeigt jetzt endlich die volle Leistungsfähigkeit der AMD/ATI Karten und Nvidia Käufer haben leider ins Klo gegriffen. :)

Es würde auch erklären warum AMD/ATI Karten bisher den höheren Stromverbrauch hatten trotz gleicher Fertigung und und und....
 
Die erhöhte Energieaufnahme würde ich jetzt nicht damit begründen dass ACE in der Hardware steckt. Letztendlich ist es doch so, dass nur das Energie kostet, was auch genutzt wird und nicht das was da ist. Mein i7 verbrät ja auch nicht mehr Energie nur weil eine iGPU drinsteht, die ich nicht nutze. Nvidia und auch Intel haben nunmal scheinbar bessere Ingenieure oder einfach mehr Know-How Karten produzieren zu lassen die weniger Strom verbrauchen. Wobei der Verbrauch ja auch nicht gerade extrem viel höher liegt.
 
Guckt euch einfach mal eine GTX 970 und R9 390 im Detail an und ihr werdet auf Anhieb sehen warum AMD mehr "Verbraucht"
 
Wums schrieb:
Wen interessiert DX12 denn jetzt schon? Jeder der hier ne GPU im 200+ Euro Bereich hat wird doch eh umsteigen bevor DX12 relevant wird.

Ist das so? Bisher wars doch so, dass die Dx Wechsel eher schleppend waren, weil das immer ein neues Windows erforderte. Jetzt ist das neue Windows kostenlos. Wie oft hast du hier in den letzten Wochen gelesen, das Leute Win10 installiert haben oder damit noch ein paar Wochen warten wollen?
Und Dx12 ins Spiel zu kriegen ist keine Hexerei, wenn ich das richtig verstehe baut man dazu auf der vorhandenen Dx11 Version auf und bringt die Dx12 Features rein die man braucht.

Das womit da gebenched wurde, Ashes, wissenschon, das ist kein AAA Titel oder sowas. Wenn die als relativ kleiner Entwickler mal eben Dx12 einbauen, tendiere ich eher zu einem Jahr bis die ersten Titel damit kommen oder Dx12 nachgepatched wird.

Und vielleicht nochmal kurz zum mitschreiben: es gibt durchaus Leute, die ihre Graka länger im Rechner lassen. Ich hab damals für knapp 220€ eine 7870 geholt, was soll ich mir denn jetzt holen in der Preisregion, dass mindestens die doppelten Frames bringt? 280x? 380? Alle maximal + 50% Performance bei ca 200€.

Wenn du gerne jede Generation mitnehmen willst wegen 15% mehr Leistung: deine Sache. Ich seh es gar nicht ein die Graka auch nur schief anzusehen, bevor nicht die doppelte Leistung rausspringt...
 
1 Jahr dauert es ja nicht mal bis dx12 games erscheinen, das ist eher eine frage von einigen monaten. ausser wir sprechen hier von reinen dx12 games, das wird aber sicherlich länger als 1 jahr dauern.

wie schon angemerkt wurde, durch das quasi kostenlose win10 wird sich dieses sehr sehr schnell verbreiten und somit auch dx12! wahrscheinlich schneller als bei allen anderen dx versionen.

gruß
 
@
oldmanhunting
Hin und wieder wenn ich hier einen Absatz gemacht habe, wird die Nachricht gleich abgeschickt, ist jetzt Gott sei Dank nicht mehr so, warum auch immer.

Bitten noch mals um Entschuldigung.:)
 
SimsP schrieb:
Kommt drauf an. Gut Betuchte haben bei NVidia sogar 12 ;)
Aber wo leidet jetzt mein Geldbeutel oder die Entwicklung neuer GPU Generationen darunter, dass NVidias Karten momentan in einem Benchmark eines DX12 Spiels, welches sich noch im Beta-Stadium befindet, abschmieren?
Weil dieser Benchmark darauf schließen lässt, dass Nvidia vielleicht kein Async Compute beherrscht bzw. dass AMD Grafikkarten einen Vorteil in DX12 Spielen haben könnte. Das bedeutet man kann seine AMD GPU länger behalten aufgrund der Leistungssteigerung und muss bei Nvidia vielleicht früher aufrüsten und hat dazu noch einen geringeren Wiederverkaufswert und das wird man wohl doch im Geldbeutel merken. Außerdem schmieren die Nvidia GPUs nicht ab sondern bringen einfach nicht die erhoffte Leistungssteigerung im Gegensatz zu DX11 zumindest in diesem Spiel.
SimsP schrieb:
Ich meine ich könnte ja den Aufschrei ansatzweise verstehen, wenn das Spiel schon fertig wäre oder wenigstens ein paar weitere DX12 Titel da wären, die die schlechten Ergebnisse von GeForce Karten unter DX12 untermauern.
Es geht um die Erkenntnis, dass Nvidia vielleicht kein Async Compute unterstützt und diese Erkenntnis lässt sich wohl auch auf andere DX12 Spiele mit aktiviertem Async Compute übertragen.
SimsP schrieb:
Aber das alles anhand eines Benchmarks fest zu machen, bei dem die AMD Karten in DX11 eine sehr bescheidene Leistung zeigen und dafür unter DX12 überproportional zulegen, halte ich für fragwürdig. Das hat für mich eher den Anschein als hätten die Entwickler geschlampt. Oder ist es seit Neuestem normal, dass eine Fury X in DX11 auf das Leistungsniveau einer GTX680 OC runterbricht?
Schon mal daran gedacht, dass AMD sich nicht die Mühe gemacht hat den DX11 Treiber zu optimieren bzw. es absichtlich unoptimiert gelassen hat damit die Leistungssteigerung im Gegensatz zu DX12 höher ausfällt. Oder ist es seit neuestem normal, dass in jedem Spiel eine Fury X so schnell wie eine GTX 680 OC ist?

SimsP schrieb:
Bei Benchmarks zu Vorserien Spielen wo AMD schlecht abschnitt hieß es "ist ja noch Beta, das wird noch besser".
Ich habe glaube ich noch nie gelesen, dass jemand sowas behauptet hat. Man liest häufig nur, dass AMD vor Release das Spiel kaum optimieren kann und dass die Entwickler nicht mit AMD zusammenarbeiten dürfen um den Gameworks Code für AMD GPUs zu optimieren.
SimsP schrieb:
Bei Spielen wo die Entwickler eng mit NVidia zusammengearbeitet haben (was bei NVidia Gameworks heißt) und AMD schlecht abschnitt (siehe Project Cars) hieß es "NVidia manipuliert die Ergebnisse zum eigenen Vorteil".
Wenn man sich bei The Witcher 3 in Hairworks die Tessellationsstufen anschaut merkt man, dass zwischen x64 und x16 optisch kaum ein Unterschied besteht, aber die Leistung bei AMD Karten sich sogar verdoppeln kann und wenn man bedenkt, dass fast jedes Gameworks Spiel bei AMD Probleme macht und wenn man bedenkt, dass Nvidia Spiele schon vor Gameworks Probleme machten (H.A.W.X. 2, Assasins Creed DX10.1, Tessellation in Crysis 2, Batman, The Witcher 3, Call of Duty) dann hat man schon das Gefühl, dass Nvidia vielleicht doch seine Finger im Spiel haben könnte.
SimsP schrieb:
Und jetzt wo wir in einer Situation sind, in der wir sogar beide Fälle vorliegen haben, nämlich ein Beta Spiel dessen Entwickler nachweislich eng mit AMD und deren Mantle Platform zusammengearbeitet hat, drehen entsprechende Leute die Argumentation wieder gegen NVidia. Was ist das bitte anderes als Fankiddismus, wenn man seine Position um 180° dreht sobald der Kontrahent des Lieblingsherstellers durch die eigene Argumentation begünstigt wird?
Diesmal ist es aber so, dass AMD nichts dafür kann wenn Nvidia kein Async Compute beherrscht und die Entwickler sogar zugegeben haben, dass Nvidia den letzten Sommer mehr mit den Entwicklern gearbeitet hat als AMD selber. Wäre es andersherum und Ashes of the Singularity wäre ein Nvidia Spiel dürfte AMD mit den Entwicklern wohl kaum zusammenarbeiten.

SimsP schrieb:
Genauso die Haltung zu Mantle und den Einfluss auf Vulkan. Das feiern alle AMD Jünger als Erfolg, ok meinetwegen ... aber ich bin mir sicher hätte NVidia sowas gemacht, wäre wieder ein Aufschrei durch die Menge gegangen, dass das ein absolutes NoGo ist und NVidia den ganzen Markt korrumpieren würde - man erinnere sich bloß mal an die PhysX Unterstützung von 3DMark oder die Gameworks Effekte bei Far Cry 4 & Co.
Natürlich gäbe es einen Aufschrei, da Nvidia ihre API nur für ihre Grafikkarten veröffentlichen würde, genau wie PhysX, viele Gameworks Features & G-Sync. AMD hingegen hat bei Mantle und Freesync schon von Anfang an gesagt, dass auch Nvidia und Intel dabei mitmachen können.

SimsP schrieb:
Das Witzige an der Sache ist aber ... die Gameworks Effekte, in die von Seiten Nvidia einiges an Arbeit geflossen ist, kann ich auch mit einer AMD GPU ruckelfrei nutzen, die Mantle Renderpfade in Spielen wie Battlefield oder TressFX in Tomb Raider sind hingegen AMD exklusiv und werden es voraussichtlich auch bleiben.
Mantle ist schon längst tot und wird in Vulkan weiterleben und somit wirst du die Möglichkeit haben Vulkan zu nutzen wenn es Nvidia unterstützt, genau so wie du die Möglichkeit haben wirst Freesync zu nutzen wenn es Nvidia unterstützen sollte. Du meckerst darüber, dass wir hier über einen Benchmark diskutieren der noch Beta ist und dann ärgerst du dich darüber, dass du eine Beta API wie Mantle nicht in Battlefield nutzen kannst. Wie war das noch mal mit dem Fankiddismus und der 180° Position? 15 FPS mit einer HD 7950 in The Witcher 3 mit Hairworks und 31FPS mit dem Treiberfix auf x16 sind also ruckelfrei? Nur zur Info TressFX lässt sich auch auf Nvidia Karten problemlos und ohne großen Performanceverlust aktivieren beim Tomb Raider. Die Performanceprobleme wurden nach 1 Woche gefixt und das Spiel lief auf Nvidia Karten genau so gut wie auf AMD: http://www.hardocp.com/article/2013/03/20/tomb_raider_video_card_performance_iq_review/6
HD 7970 GHz Edition 64.8 FPS ohne TressFX, 50.4 FPS mit TressFX und eine GTX 680 67.2 FPS zu 60.2 FPS. Ich denke bei diesen Werten kann sich kein Nvidia User über TressFX beschweren, vor allem weil AMD Karten mehr FPS verlieren als Nvidia.

SimsP schrieb:
Damit will ich nicht gegen AMD wettern, kann ja jeder mit seinem geistigen Eigentum machen was er will und es ist in meinen Augen durchaus legitim sich mit eigener Arbeit einen Vorteil vor der Konkurrenz zu verschaffen.
Aber einige erwarten offenbar, dass NVidia Features entwickelt, die sowohl für die eigene, als auch für Konkurrenz-Hardware optimiert wurden, wohingegen es völlig legitim und fortschrittlich ist wenn AMD die eigenen Technologien wie TressFX oder TrueAudio nur für die eigene Kundschaft zur verfügung stellt und sich dann wundert warum sich das ganze nicht durchsetzt.
Wie ich schon sagte ist TressFX auf Nvidia Karten möglich genau wie Freesync und Vulkan. Was kann AMD dafür wenn Nvidia nicht mitmacht. Keiner erwartet von Nvidia, dass sie "Features" entwickeln, welche wegen dem Performanceverlust eh kaum genutzt werden. Und die hohen Tessellationsstufen ziehen ja nicht nur die AMD Performance runter sondern auch die der Nvidia Karten. Das ist es aber Nvidia wohl Wert, weil im Vergleich AMD Karten stärker einbrechen. Anders kann ich mir das nicht erklären. Außerdem unterstützt nun Intel auch Freesync und es ist sehr wahrscheinlich, dass sich Freesync durchsetzen wird. Sogar Nvidia unterstützt Adaptive Sync in den Gaming Notebooks nennt es aber trotzdem G-Sync, obwohl dort kein Modul eingebaut ist.
PS: Bevor man einen so langen Text schreibt sollte man vorher sichergehen, dass die Argumente auch stimmen :)
 
Moon_Knight schrieb:

Wäre mal interesant zu erfahren, wie sich die Intel HD bei async compute verhält.
Ergänzung ()

der Unzensierte schrieb:
@topic: Wäre ein ziemliches PR-Desaster für Nvidia wenn das so zutrifft.

Wieso denn? Entscheidend ist doch, WAS am Ende herauskommt und nicht, WIE man dies erreicht.
Ergänzung ()

pipip schrieb:
Nur hat AMD wieder alles korrekt angegeben, was man unterstützt und nicht.

Hat Nvidia aber auch.
 
Diese Threads sind immer wieder auf der einen Seite ein lustige Unterhaltung, auf der anderen Seite braucht man manchmal sehr viel Kraft nicht auf die Tastatur zu brechen. :D

Der Test hier ist ein erstes Indiz, das wir bekommen, was mit DX12 möglich sein kann. Was aber wird kann nur die Zeit zeigen. Volker hat das eigentlich sehr schön zusammengefast.

Auf der einen Seite haben wir hier viel Marketing. Und das behauptet erst einmal alles was irgendwie vor Gericht bestand haben könnte. Und wenn nicht, dann gibt es halt eine Abmahnung. Für den Kunden ist das natürlich nicht das Beste. Da kann man sich schnell verarscht vorkommen.

Bei der Technik wird es dann noch blöder für den Kunden. Nehmen wir einfach mal an AMD kann async compute und ist damit rasend schnell und Nvidia kann es garnicht. Wiegesagt, nehmen wir einfach mal an. Dann kann es immer noch ganz schnell passieren, dass die großen Publischer sagen: "lasst es weg. Das Feature kostet Zeit, kann Probleme machen und bringt nur was bei 20% unserer Zielgruppe." Dann hat es sich wieder ganz schnell mit dem Vorteil für AMD und in einem halben Jahr können wir dann hier im Forum lesen, dass das Feature doch nicht so wichtig war, bzw. dass es ja offensichtlich nur eine techdemo war, es ....

Unterm Strich kann jetzt noch keiner sagen was passiert. Mir scheint allerdings, das Nvidia die bessere Strategie fährt für ihr Unternehmen. Heute das bieten was benötigt wird (und da reichen ja z.B. auch fast immer 3,5GB), das dafür so gut wie möglich. Damit stehen sie dann in aktuellen Benches besser da, was den Absatz ankurbelt. Wenn es dann so weit ist, das etwas anderes gebraucht wird, dann führen sie es ein. Die alte Technik ist veraltet. Man ist aktuell wieder ein bischen besser als der Wettbewerber. Die alten Kunden sind die neuen Kunden. Und wieder verdient Nvidia.
Klar, der Kunde freund sich wenn seine 3 Jahre alte Karte immer noch top ist, nur hilft das AMD herzlich wenig. Ich erinnere mich da an einen anderen Kommentar hier im Forum vor langer Zeit, wo jemand einmal bei AMD gearbeitet hat und sinngemäß sagte: "die leisten gute Arbeit, aber irgendwie habe ich das Gefühl, dass sie nicht wirklich Geld verdienen wollen".
 
Herrlich. Bei den absurden Ergebnissen für AMD in Project Crap hieß es ja, der AMD Treiber sei Schuld, nein nein mit Nvidia hatte das überhaupt nichts zu tun! Manche wollten es sogar nicht wahr haben, dass es ein Nvidia Spiel ist - obwohl es im Spiel kaum eine Stelle gibt, wo das Nvidia Logo nicht zu sehen ist.

Jetzt wo Nvidia etwas (!) schlechter als AMD abschneidet, und offensichtlich Probleme mit einem Kernfeature von DX12 hat, war es zunächst halb so wild, echte DX12 Spiele sollen ja erst mal kommen, dann macht man sich über den Entwickler lustig. Unfähige Programmierer, ja genau :lol:
Oder dass sie mit der ganzen AKtion nur Werbung für ihr Spiel machen. Scheinbar hat man schon vergessen, dass Nvidia sich zunächst gemeldet hat und sich negativ über das Spiel bzw die Sinnhaftigkeit des DX12 Benchmarks geäußert hat. Obwohl sie die Möglichkeit hatten, mit dem Entwickler eng zusammenzuarbeiten, was sie ja nicht mal abstreiten...

Naja, etwas off-topic aber für die, die meinen AMD Mantle sei ein Flop gewesen:
https://www.khronos.org/assets/uplo...y/2015-gdc/Valve-Vulkan-Session-GDC_Mar15.pdf

01.09.2015 23.35.54.jpg
 
Azdak schrieb:
Dann kann es immer noch ganz schnell passieren, dass die großen Publischer sagen: "lasst es weg. Das Feature kostet Zeit, kann Probleme machen und bringt nur was bei 20% unserer Zielgruppe." Dann hat es sich wieder ganz schnell mit dem Vorteil für AMD und in einem halben Jahr können wir dann hier im Forum lesen, dass das Feature doch nicht so wichtig war, bzw. dass es ja offensichtlich nur eine techdemo war, es ....

Mach aus den 20% bei vielen Titeln mal gut 50% da die Konsolen alle mit GCN GPUs ausgestattet sind und das Feature schon fast brauchen um genug Leistung/Qualität auf den Fernseher zu zaubern.

Hier übrigens eine grafische Darstellung zu dem zweiten kleinen Benchmark der von einem User auf beyond3d geschrieben wurde.
Vielleicht kann jemand mit Erfahrung mal kurz über das Programm schauen.
Nai :stacheln: ;)

Edith ergänzt, der verlinkte Benchmark ist eine neuere Iteration. Die Ergebnisse gehören zur älteren Version und wurden hier bereits angesprochen.
 
Zuletzt bearbeitet:
poi schrieb:
Mach aus den 20% bei vielen Titeln mal gut 50% da die Konsolen alle mit GCN GPUs ausgestattet sind und das Feature schon fast brauchen um genug Leistung/Qualität auf den Fernseher zu zaubern.

Die Konsolen-Chips sind zu schwach, um viel davon zu profitieren. Hat man schon an den Mantle-Benchmarks seinerzeit gesehen.
 
max_1234 schrieb:
Doch, hat er richtig verstanden.
Diese Funktion ist nicht nativ auf der GPU vorhanden, allerdings wurde damit geworben.
Nun wird sie lediglich softwareseitig "emuliert".

Wenn Software Grafikfunktionen emulieren muss (CPU!), wieso spart man sich die Karte dann nicht gleich und spielt nur mit CPU.

Wer der englischen Sprache mächtig ist, kann sich hier informieren!
https://www.reddit.com/r/nvidia/comments/3j5e9b/analysis_async_compute_is_it_true_nvidia_cant_do/

Kurz gesagt:
-Maxwell unterstützt scheinbar Asynchronous Shader in einer 32 Queue Konstellation (31+1) und ist in dieser Anzahl sogar schneller als AMD. Darüber bricht allerdings die Leistung allmählich ein. Oxide hat wohl enorm viele Aufgaben in ihrem Spiel eingebaut.


Strikerking schrieb:
ARK ist absolut nichts sagend ist bloss ein Early Access Alpha Müll.

Wenn dann gleiche Regeln für alle! AOTS ist noch im wesentlich früherem Stadium.

ARK Survival ist 100x besser als Ashes of the Singularity. Grafisch als auch vom Gameplay her!


poi schrieb:
Mach aus den 20% bei vielen Titeln mal gut 50% da die Konsolen alle mit GCN GPUs ausgestattet sind und das Feature schon fast brauchen um genug Leistung/Qualität auf den Fernseher zu zaubern.

So funktionieren Asynchronous Shader aber nicht. Im Prinzip ist das nichts anderes als eine optimierte Lastverteilung um auf der GPU immer möglichst 100% Auslastung zu erreichen. Die verschiedenen Aufgaben werden sobald wie möglich parallel verarbeitet statt bisher nacheinander. Sobald die Shader (-> Arbeiter in der GPU) nicht mehr zu tun haben, wird ihnen sofort eine neue Aufgabe zugeteilt. Wichtige Aufgaben haben hierbei Vorrang.

Im Schnitt arbeitet eine GPU bei Spielen um die 80% Auslastung. Mit der "Asynchronous Shader-Methode" versucht man das so gut wie möglich auf 100% zu bekommen. Das heißt man hat theoretisch Potential für 20% mehr. Hättest du +50% wäre deine Effizienz nicht höher, denn die GPU hat vorher bereits alle Aufgaben erledigt. So hohe Zuwächse wirst du also niemals erreichen!

Die eigentlichen Aufgaben werden genau so schnell bearbeitet wie vorher. Nur die einzelnen Shadereinheiten arbeiten jetzt zusammen als Gruppe im Akkord. Eine XBOX One wird durch Asynchronous Shader übrigens kaum schneller, da die Einheiten alle bereits größtenteils ausgelastet sind. Hier wären +5% bereits utopisch! Den Unterschied würdest du kaum merken....
 
Zuletzt bearbeitet:
Hardware_Hoshi schrieb:
ARK Survival ist 100x besser als Ashes of the Singularity. Grafisch als auch vom Gameplay her!
Grafik kann ich schlecht beurteilen, aber gameplay: shooter vs strategiespiel.... bananen sind besser als birnen ! Der gelbe Zettel ist besser als der Rote!
 
zeedy schrieb:
Herrlich. Bei den absurden Ergebnissen für AMD in Project Crap hieß es ja, der AMD Treiber sei Schuld, nein nein mit Nvidia hatte das überhaupt nichts zu tun! Manche wollten es sogar nicht wahr haben, dass es ein Nvidia Spiel ist - obwohl es im Spiel kaum eine Stelle gibt, wo das Nvidia Logo nicht zu sehen ist.

Jetzt wo Nvidia etwas (!) schlechter als AMD abschneidet, und offensichtlich Probleme mit einem Kernfeature von DX12 hat, war es zunächst halb so wild, echte DX12 Spiele sollen ja erst mal kommen, dann macht man sich über den Entwickler lustig. Unfähige Programmierer, ja genau :lol:

Tja, eben genauso wie bei Project Cars wo aus AMDler-Sicher nVidia ja der Böse war und die Programmierer das Unfähigste was auf dem Planeten rumläuft. Jetzt sind plötzlich die Spieleprogrammierer unfehlbare Halbgötter in Code und nVidia unfähig ;)

Je nach Einfärbung ists mal so und mal so. Darum macht diese Art der Diskussion auch so herrlich wenig Sinn und der einzige Gewinner dabei ist CB, weil sie die Klicks abstauben.

zeedy schrieb:
Naja, etwas off-topic aber für die, die meinen AMD Mantle sei ein Flop gewesen:

Vulkan ist immer noch != Mantle und das wird sich auch nicht ändern. Mantle ist auf GCN ausgelegt, Vulkan auf mehrere Grafikarchitekturen. Mantle-Spiele werden nicht ohne Änderungen auf Vulkan laufen und umgekehrt. Mantle ist tot, Vulkan lebt. Naja, Vulkan lebt hoffentlich bald. Ist doch immer noch nicht final spezifiziert, oder?
 
Zuletzt bearbeitet:
Prozessor Knox schrieb:
@Krautmaster

Es sollen ja angeblich 20-30% Mehrperformance mit XBox und DX12 zu erzielen sein. Und man sollte nicht vergessen, dass die Konsolen einen erheblichen Marktanteil besitzen.

@Herdware

DX12 ist für Nvidia möglicherweise ohne größeren Vorteil. Absolut möglich.

richtig, aber je nach dem wie gut Nvidia bereits heute die Auslastung der eigenen GPU im Griff hat, durch ggf. andere Techniken und Architektur, sind dinge wie Async Shader natürlich bedeutend unbedeutender als bei AMD die offensichtlich teils ein Auslastungsproblem bei der GPU haben, sieht man schon an dem Flop zu Spieleleistungs Verhältnis.

Genau das Auslastungsproblem ist und war bei AMD seit Jahren deutlich ausgeprägter als bei Nvidia, der Grund wieso Mantle und DX12 auch aufkamen - was auch richtig ist denn mit zunehmender GPU Leistung wird es schwerer diese abzurufen oder Flaschenhälse wie die CPU zu eliminieren. Die Leistung von Nvida unter DX11 ist gerade in diesen Szenarien, (wie Swarm) die eigentlich per DX12 angegangen werden, bereits extrem gut, deutlich besser als bei AMD - da ist natürlich der Gain deutlich kleiner und natürlich auch der Fokus der weniger auf Dinge wie Async Shader.
In der API wird Nvidia diese unterstützen - müssen sie ja, also der Code wird ausgeführt. Wenn Nvidia die Programmierrichtlinie für die eigenen Karten in sofern klarstellt, dass nach Möglichkeit dieses Feature (Async Shader) für Nvidia nicht genutzt wird,ist das durchaus berechtigt und weniger ein Armutszeugnis wie ich finde - da Nvidia Anstrengungen diesbezüglich bereits längst auf anderen Wegen unternommen hat und die bisherigen Tests eigentlich zeigen dass Nvidia deutlich weniger auf DX12 angewiesen ist als AMD.

Im Umkehrschluss heißt das natürlich auch, dass AMD mehr gewinnen wird, diese Asynchronen Shader auf eigener Architektur wie auch bei den Konsolen wohl deutlich nötiger hat und natürlich den Nutzen anstrebt. Dem Programmierer selbst bedeutet das vor allem Mehraufwand und auch erhöhte Komplexität, dennoch ist es natürlich wünschenswert dass die Technik genutzt wird (auf AMD Karten) um deren Leistung zu erhöhen.

Im einfachsten Fall muss eben bei Nvidia auf Async Shader einfach verzichtet werden, wie groß der Impact ist ... vermutlich kaum nachvollziehbar. Thief mit AMDs Mantle rennt mit Async Shadern ja auch nicht auf und davon, im Spezialfall kann bei AMD der Gain vielleicht bis 46% sein - heißt aber nicht dass Nvidia auch nur 1% gewinnen würde und muss.

Das Ganze wird die Zukunft ja zeigen, ob sich die Programmierer den Aufwand machen und Asynchrone Shader implementieren, im Rahmen der Konsolen sicher möglich und auch schon der Fall. Wenn Nvidia hier mit einem klassischen Weg ein besseres Ergebnis liefern sollte als über die rudimentär implementierte Asynchrone Shader API, dann ist es doch vollkommen in Ordnung von der Nutzung jener abzuraten - da sie vielleicht wirklich aus Nvidia Sicht eher Ballast zur Erfüllung der DX12 Specs ist.

Ich denke der Blick auf DX12 ist bei AMD udn Nvidia grundlegend verschieden. Bei Nvidia ist das eher ein Muss "weil Marketing" und bei AMD ist es eher ein Muss "weil die eigene DX Optimierung am Ende ist und die Auslastung der Chips nur über DX12 zu verbessern ist". Beides im Hinblick auf auch neue Generationen und vielleicht hat Nvidia mit Pascal und dieser neuen Architektur dasselbe Auslastungsproblem wie AMD heute (wenn es um DX11 geht), ergo wäre auch da DX12 "nötiger als heute".
 
Zuletzt bearbeitet:
Zurück
Oben