News DirectX 12: Nvidia-Treiber soll Async Compute nachreichen

Interessant wie viele Hardwarefehler NVIDIA in letzter Zeit macht. Vor einem Jahr das GTX 970 "Feature" und jetzt das.
Interessant wie sich das Kaufverhalten der Nutzer vermutlich nicht ändern wird.

Aber macht nichts, NVIDIA hat ja phüüüüüsx!!!!!!111einself...:freak:
 
Hardwarefehler?
 
nVVater schrieb:

Braucht nicht zu behaupten NVIDIA hätte das nicht gewusst. ;)

Gut, die fehlenden Shader sind kein "Fehler", doch NVIDIA wurde mit der Einführung dieser bestimmt nicht so überrascht, dass man sie nicht hätte einbauen können.
 
Ice-Lord schrieb:
AMD hat in den Letzten Jahren wirklich viel dafür getan die Industrie vorran
zu treiben wie eben Mantle, TressFX, FreeSync oder auch die Vulkan (OpenGL Next) API.
Alles freie Software, wo im Gegenzug nVidia nur ihre geschlossenen APis und
Techniken durchdrücken will. (G-Sync, Dieser Hairworks Blödsinn usw..)
Bei solchen Aussagen kommt mir immer das Kotzen.
Jeder Hersteller von Geräten will ein Produkt verkaufen, was Geld einbringt und dazu muß es für den Kunden interessant werden.
Dazu haben beide Hersteller abseits von den klassischen API Schnittstellen zusätzliche Features, damit die Grafikkarte interessant wird.
Das ist bei AMD Mantle und TressFx. Mantle ist interessant und wird jetzt in Vulkan und DX mehr oder weniger kopiert/umgesetzt.
Nvidia hat G-Sync und Hairworks. G-Sync ist interessant und wurde von VESA im letzten DP Standard integriert.
Hairworks und TressFX bleiben uninteressante Lösung die keinen weiter interessieren.

Warum jetzt G-Sync als das pure Böse hingestellt wird und Mantle als der Prophet genzt in meinen Augen schon arger Verleumdung.
Wenn ich mir die Kommentare durchlese gibt es viel mehr Leute die AMD grundlos in den Himmel loben/Nvidia schlecht reden als andersherum und am schlimmsten ist dann immer das Totschlagargument, dass alle anderen Nvidia Fanboys sind. Mich kotzt es hier auch wirklich an, dass hier von der Moderation hart durchgezogen wird.
Ich gehe davon aus, das beide Hersteller an sich selbst und an mein Geld denken und lügen wie gedruckt. Ich bin davon überzeugt dass AMD nicht besser ist als Nvidia, geschweige denn Intel oder sonst ein Hersteller ansatzweise besser ist.

Zu der News:
Nvidia bestätigt das AS als DX12 Feature nicht wirklich gut funktioniert/gar nicht funktioniert und das man an dem Treiber arbeitet um die AS Funktionalität unter Windows 10/DX12 herzustellen.
Meine bisherigen Erfahrungen ist, das der Nvidia Treiber unter Windows 10 noch eine immense Baustelle ist und ich auf das Feature liebend gerne solange verzichte, das der Treiber erstmal wieder stabil und vernünftig läuft und die bisherigen Features überhaupt wieder einwandfrei funktionieren.
Das hier wieder sonst was reininterpretiert wird, was der Chip bei Nvidia kann und was nicht, vor allem, das dann als Tatsache hinzustellen, ist der nächste Punkt der mich kochen bringt.

Diese Mundpropaganda die hier wild betrieben wird, hat schon Vista und Windows 8 völlig grundlos zum Flop werden lassen, aber hey CB verdient ja mit den Klicks auf der Seite, denen ist ja egal was da für ein Müll geschrieben steht...
 
Sam'sHardware schrieb:
und das sind nur einiger deiner Beiträge
Du wiederholst quasi die ganze Zeit, dass Async Compute bei Nvidia doch nicht so wichtig ist wie bei AMD, dass das Spiel nur eine Alpha ist, dass es für Spekulationen noch zu früh ist, dass DX12 Spiele noch nicht draußen sind usw.

dann scheint Lesen nicht deine Stärke zu sein. Der potentielle Gain ist bei AMD größer, Async Compute / Shader kann für Nvidia durchaus wichtig sein, das Wichtige ist dabei hier aber das kann. Genauso gut kann es auch komplett egal sein, sei es über einen quasi so effizienten Fallback, Einsatz im unkritischen Bereich oder auch einfach durch ein Nachreichen von verbessertem Treibersupport, who knows?

Aktuell weiß es niemand. Ich zumindest nicht... wohl aber scheinbar 95% der Schreiberlinge hier ^^

Mach dir ma keine Sorge um meine 980 TI, die is ganz schnell ersetzt wenn das rote Lager ihr performancetechnisch davonläuft - was angesichts der Marktsituation nur begrüßenswert wäre wenn AMD wieder Boden gut macht. Für eine bei mir ohnehin nicht einsetzende Panik wäre es aber viel zu früh ;)

Wenn AMD wieder vorlegt beim P/L, bzw. dem was ich unter Leistung wünsche, bekommen se gern wieder meine Euronen und nicht zu knapp. Wie die letzten 2 Gens vor der grünen GTX 980 TI (Schande über mein Haupt) auch. Nur müssen se dazu akut vorlegen und nicht in einer "WasWäreHätteWenn-Wunschkonzert auf 3 Jahre Situation" ... find ich. Vllt. tanz ich da aber auch komplett aus der Reihe wenn ich zum aktuell besseren Produkt greife und mich weniger in Spekulationen verhasple...
(vielleicht aber auch einfach nicht was den Marktanteil zumindest etwas erklärt??)
 
Zuletzt bearbeitet:
NJay schrieb:
Braucht nicht zu behaupten NVIDIA hätte das nicht gewusst. ;)

Gut, die fehlenden Shader sind kein "Fehler", doch NVIDIA wurde mit der Einführung dieser bestimmt nicht so überrascht, dass man sie nicht hätte einbauen können.

Einbauen auf die schnelle?Ich schmeiss mich weg😆😆
 
@Krautmaster
Nicht jeder will sein Geld für eine 980 Ti ausgeben und nicht jeder hat das Geld um sich jedes Jahr eine neuen Grafikkarte zu kaufen.
Natürlich weiß ich dass der potentielle Gain bei AMD größer ist. Aktuell weiß man, dass Nvidia wohl nativ kein Async Compute beherrscht und das ist doch Grund genug um darüber zu diskutieren.
Außerdem hat Nvidia bei der GTX 980 Ti mit Async Compute geworben und wenn es nicht nativ unterstützt wird dann ist das für mich genauso fragwürdig wie wenn bei einer GPU von 4GB nur 3,5GB performant nutzbar ist, denn beides bedeutet Leistungsverlust bzw. es kann nicht seine volle Leistung entfalten.
Und Async Compute kann nicht sondern wird für Nvidia wichtig sein, da der Großteil der DX12 Spiele mit AMD als Partner entwickelt wird, AMD wegen Mantle in diesem Bereich schon Erfahrung hat, weil die Unreal Engine, CryEngine und Frostbite Engine Async Compute beherrschen und weil es die Konsolen können. Für Nvidia ist es daher wichtig, dass in Spielen mit aktiviertem Async Compute kein Performanceverlust auftritt.
Außerdem wollte ich mit meinem Beitrag eher darauf eingehen, dass du so tust als ob zurzeit alles nur Theorien wären, es kaum Fakten gäbe am liebsten abwarten sollte. Viele Leute können aber nicht abwarten. Wie ich schon in dem vorherigen Beitrag fragte was sollen die Leute machen die eine neue GPU kaufen wollen? Abwarten und Tee trinken?
Ach ja "einfach durch ein Nachreichen von verbessertem Treibersupport". Meinst du so wie bei dem Spezialtreiber für die GTX 970 der die VRAM Nutzung verbessern sollte und der nie gekommen ist?
 
Zuletzt bearbeitet:
@SavageSkull,

mit Falschinformationen um sich werfen tust du aber vortrefflich. Als Bezugspunkt lies bitte dies einmal, dann erübrigt sich weiteres Fragen deinerseits:
http://www.vesa.org/wp-content/uploads/2014/07/VESA-Adaptive-Sync-Whitepaper-140620.pdf
http://www.vesa.org/wp-content/uploads/2010/12/DisplayPort-DevCon-Presentation-eDP-Dec-2010-v3.pdf ( Release December 2008 - 2009 )

Diese Mundpropaganda die hier wild betrieben wird, hat schon Vista und Windows 8 völlig grundlos zum Flop werden lassen, aber hey CB verdient ja mit den Klicks auf der Seite, denen ist ja egal was da für ein Müll geschrieben steht...

Japp. Und du bist einer der sie betreibt. Prost denn, woll.
 
Zuletzt bearbeitet:
SavageSkull schrieb:
Nvidia hat G-Sync und Hairworks. G-Sync ist interessant und wurde von VESA im letzten DP Standard integriert.
Hairworks und TressFX bleiben uninteressante Lösung die keinen weiter interessieren.

G-Sync ist NV's Lösungsansatz von adaptiv Sync, dass nicht von NV ist und Gysync ist auch kein VESA Standard.
AMD's Free Sync setzt auf den VESA Standard, der im DP integriert wurde.
AMD's Variante ist per software gelöst und auch Intel setzt auf die selbe Methode. NV verbaut im Monitor ein Modul der im Schnitt 100 USD kostet und der nur mit NV-Karten funktioniert. Das lustige ist aber, dass NV bei Notebooks selbst die Software Variante nützt, obwohl sie groß gesagt haben, die Wahrscheinlichkeit ist sehr gering, dass sie das mal machen werden. Aber im Kleingedruckten kam die Aussage, aber wir sagen niemals nie !

TressFX ist im vergleich zu Hairworks ein offener Standard und läuft auf NV Karten ebenso gut. Wenigstens hat AMD bisher nicht absichtlich Techniken integriert, damit AMD Karten und ältere (NV) Karten schlechter performen. Stichwort zu hoher Tesselationsfaktor.
Naja, aber mal sehen wie es mit TressFX 3.0 läuft, denn das soll auch AS unterstützten (für Tombraider, Deus EX angekündigt).
 
Zuletzt bearbeitet:
crazy_tomcat schrieb:
Einbauen auf die schnelle?Ich schmeiss mich weg😆😆

Komisch das Asynchronous Shader es in AMD Karten verbaut ist, die deutlich älter sind als die aktuellen NVIDIAs... Somit wusste AMD, dass das kommt. NVIDIA hats einfach ignoriert.
 
Kam vor paar Stund, hoffe war noch nicht hier: http://www.extremetech.com/extreme/...ading-amd-nvidia-and-dx12-what-we-know-so-far

290
3qX42h4.png

980 TI
vevF50L.png
 
Zuletzt bearbeitet:
Jeder dert Probanden AMD /NVIDIA hat seine Art der Grafikkartenlayouts/Designs.Das wird über Jahre im vorraus festgelegt und dann irgendwann in Hardware gegossen.Da ist nichts mit auf die schnelle.Wohl oder übel werden alle Grafikartenhersteller mit Ihren jeweiligen Aktuellen Karten und die nächste Generation leben müssen. Wir als Konsumenten können entscheiden was/wann /wo wir kaufen wollen.Also bitte lasst endlich diese Unsägliche Diskussion in diesem Ton.Schlussendlich ist jeder swelbst dafür verantwortlich was er kauft,und sage mir keiner es gäbe keine Möglichkeit sich umfassend vorher zu informieren.
°° Komisch das Asynchronous Shader es in AMD Karten verbaut ist, die deutlich älter sind als die aktuellen NVIDIAs... Somit wusste AMD, dass das kommt. NVIDIA hats einfach ignoriert. °°°
Amd hat die Konsolen mit den Grakas bestückt insofern war damit zu rechnen das es sich irgendwann auszahlt
 
Zuletzt bearbeitet:
Nai schrieb:
Es macht keinen sinn und ist zudem nur schlecht möglich - gerade in einer Bindless-API - das Async-Compute über die CPU auszuführen, oder Teile davon wie das Scheduling auf der CPU berechnen zu lassen. Das ist ein Gerücht was sich mal wieder extrem lange hält.

Hast du eine Quelle was da genau Vorsich geht? Irgendwas ist da ja im Argen!
 
Wir 980Ti Käufer haben es doch nicht anders Verdient. Nach dem 970 Betrug (es ist betrug) da noch zu NV zu greifen ....

Schaut mal in den AMI Foren rein, das Ding ist durch. NV hat kein Hardware AC. Das so eine heftige Schande!

Es ist vollkommen egal ob AC teil von DX12 ist oder nicht. AC wird unter DX12 genutzt. Also meine Graka soll DX 12.1 haben, ******dreck. Ich habe eine DX11 Graka. Pech gehabt, nimmt es wie Männer hin. Der Treiber wird eh auf sich warten lassen damit Grass über Sache wächst und kaum einer seine 980Ti abgeben kann. Für mich ist nun klar, nie wieder NV. Das sagen auch so viele in den AMI foren, zb Neogaf oder NV forum.

Mag sein das die 390X eine 290X 8GB ist, aber die Preise sind Fair. Und wie man sieht, steckt da auch was drin.

Meine 980Ti habe ich nur für Starwars BF3 geholt und jetzt wird wohl ein 380 oder was, mit meiner mit halten. So hat meine 980Ti für mich Persönlich, max 280,- Euro Wert.
 
Zuletzt bearbeitet:
Wenn, man sich die Situation generell so ansieht, wundert mich gar nichts mehr, warum viele zur Konsole rennen. Seit Jahren, dass selbe Spiel. Mal ist die eine, mal die andere Seite der "Böse Bube". Jetzt hat Nvidia mal wieder gezeigt, dass es unfähig ist, in die Zukunft zu entwickeln, mal sehen, was man dann bei AMD in nächster zu lesen bekommt. Genau, sowas bringt viele Ex PC Gamer dazu sich u.a. eine Konsole zu zulegen und sich sagen; ich steige hier aus kein Bock mehr auf so ein Affentheater.

Wird eh immer mehr auf Konsole hin entwickelt, wozu dann noch einen 2000€ Rechner, wenn`s auch mit einer 400€ Konsole geht. Finde diese Entwicklung sehr schade, früher hatten gute PC-Games ein gewisses Alleinstellungsmerkmal, dass ist heute leider nicht mehr so. Sorry wollte jetzt keinen Konsolen /PCvergleich lostreten, bin nur maßlos enttäuscht, was Nvidia hier mal wieder verzapft hat.

Hoffe mal, dass AS-Shader nicht bei Lightroom und Co in nächster Zeit zur Grundvorausetzung werden.
 
Eigentlich mir egal wie NV es macht solange die Performance mit AMD gleich ist ist es egal wie genau das klappt (ok die gameworks sabotagen mal aussen vor gg).
Bei dx11 mit der Cpu Auslastung hat NV es ja auch ohne Mantle geschafft da mehr rauszuholen wenn auch nicht ganz so krass viel.
Das NV hier aber schon wieder was übersehen haben soll .. nunja bei so einer Firma wie Nv die gerade für ihre guten Treiber bekannt ist klingt das für mich genauso wie der Speicherscheiss der 970 und das sage ich als NV-Käufer .
Aber am Ende kann man nur warten bis das Spiel auf den Markt ist und dann wird man eh 12 Trillionen Benches finden, da es das erste Game wird das offiziell DX12 testbar wird.
 
Zuletzt bearbeitet:
Andy1978 schrieb:
Die ersten Konsolenentwickler nutzen bereits asynchrones Computing und erreichen dadurch Fps-Verbesserungen im zweistelligen Prozentbereich (Tomorrow Children auf der PS4 knapp 20%; Oxide spricht von Kollegen, die auch schon ohne Weiteres 30% erreicht haben). Da das Ganze ein Kern-Feature von DirectX 12 ist (AC), könnte es in den kommenden Jahren von den Konsolen auf den PC überschwappen. Ashes of the Singularity soll laut eigenen Aussagen übrigens "keinesfalls ein Aushängeschild für Asynchronous Shader" darstellen, da einfach nur die vorhandenen Compute-Berechnungen umgestellt worden seien, das Spiel aber nicht darauf ausgelegt sei. Eine Stellungnahme von Nvidia zu diesem Thema liegt bisher nicht vor.

Naja. Das eine sind Konsolen und was ganz anderes ist der PC.
Auf den Konsolen ist die CPU um einiges schwächer als auf dem PC und solche Techniken sind daher deutlich effektiver als auf einem PC mit starker CPU.
Ashes of Singularily läuft auf nVidia Karten jetzt momentan in DirectX11 noch genau so schnell wie mit allen DX12 Optimierungen, wenn man eine schnelle CPU verwendet. Da wird auch Async Compute nichts dran ändern. Erst recht keine 20-30%.
 
Zuletzt bearbeitet:
@foofoobar:
Danke für den Link.
Sehr informativ und endlich mal das ganze Thema von Anfang bis Ende erklärt!
 
NJay schrieb:
Komisch das Asynchronous Shader es in AMD Karten verbaut ist

Es werden keine "asynchronen Shader" verbaut. Sowas gibts gar nicht. Es werden Asynchrone Command Units verbaut. AMD-Karten haben 2 bis 8 davon, je nach Karte. nVidia hat die nicht. AMD hat sie im Hinblick auf Mantle (und wegen Konsolen) verbaut, nVidia nicht.
 
Zurück
Oben