News DirectX 12: Disput zwischen Oxide und Nvidia geht weiter

Hito schrieb:

Hast du den verlinkten Artikel gelesen?

Da wird eigentlich sehr gut erklärt, was DX12-Unterstützung bedeutet und was nicht. Inklusive Featurelevels und speziellen Hardwarefeatures. Es wird auch ausdrücklich gesagt, dass alle GPUs, denen Nvidia und AMD offizielle DX12-Unterstützung bescheinigen, auch tatsächlich vollständige Unterstützung der API bieten. Es gehört nunmal zur Definition der D3D12-API, dass dafür auch Featurelevel 11_0 ausreicht. (Aber wohl nicht mehr 9_X, wie es noch bei DX11 der Fall war.)

Was die Unterstützung von speziellen HW-Features angeht, die nicht zwingender Teil der DX12-API sind (nicht mal von FL12_1) und mit ihr so gut wie nichts zu tun haben, stehen beide Hersteller ähnlich da. Beide unterstützen nicht auf allen GPUs alles, und was unterstützt wird, kann durchaus trotzdem unterschiedlich funktionieren. Allerdings hat AMD da etwas mehr zu bieten.
 
Ich glaube ich werde mal etwas Geld in die Hand nehmen und mit einem Hebelprodukt auf die Nvidia Aktie "short" gehen. Wenn das stimmt wird sich im Kurs sicher bald was tun. ;-)
 
man sollte ja auch meinen, dass es via DX12 API in recht wenigen Schritten möglich ist das zu verifizieren oder zu benchmarken, so wie im beyond3d.com Forum bereits geschehen (siehe oben) und da sieht man eben auch schon Unterschiede die auf eine vielleicht schon aus DX11 API Fokus grundlegend verschiedene Herangehensweise bei Asyc Compute schließen lassen.

Da heißt es wohl "Async Compute" geht bei beiden... aber beide Architekturen verhalten sich mit Threadzahl anders. Wenn Oxide jetzt natürlich in die vollen geht und 1000 Threads aufmacht verhält sich das vielleicht auf Maxwell ungünstig da die Implementierung dies nicht vorsieht, sondern auf wenige Threads ausgelegt ist (was durchaus ja sinnig sein kann, oder in den Fällen dann schneller ist).

Sowas lässt sich wohl nur im Detail und mit Aufwand untersuchen.
 
Und was für Auswirkungen soll das haben liebe AMD-Truppe?
https://www.computerbase.de/2015-08...of-the-singularity-unterschiede-amd-nvidia/2/ <- Performance über alle Karten unterirdisch, DX11 bei AMD peinlich, peinlich, peinlich. Reihenfolge bei DX12, nichts wirklich überraschendes und dann halt doch irgendwie nur ein beschissener Titel, der quasi gezielt einen Flaschenhals aufzeigt und damit eher ein Bench-Tool ist als sonst was.

Wie man daraus ableiten will wie schlecht Nvidia doch bei DX12 ist und sein wird... sorry aber da muss man wirklich eine rote Brille auf der Nase haben.
 
Viele Leute haben eine Nvidia Karte gekauft weil es hieß die sind Zukunftssicher weil DX12 tauglich, Vorteil gegenüber AMD und habe eben keine AMD Karte gekauft, und genau die Kunden haben recht jetzt Sauer zu sein. Nvidia hat schon beim 3,5GB VRAM Problem der GTX970 versucht alles schön zu reden!

Ich finde es einfach schade wie Nvidia hier reagiert! Wenn „Async Compute“ nicht unterschützt wird und der Treiber es nur emuliert, dann muss ich das irgendwann auch zugeben! Ok wir haben Mist gebaut!
 
zeromaster schrieb:
Und was für Auswirkungen soll das haben liebe AMD-Truppe?

Butthurt?
Es geht um falsche Aussagen und Erpressung, nicht um Benchmarks.
Aber wenn du es drauf anlegst, es findet sich sicher jemand der deinen Beitrag mit Freuden wieder ins Nirvana kommentiert.

mfg,
Max
 
Krautmaster schrieb:
Wenn Oxide jetzt natürlich in die vollen geht und 1000 Threads aufmacht verhält sich das vielleicht auf Maxwell ungünstig da die Implementierung dies nicht vorsieht, sondern auf wenige Threads ausgelegt ist (was durchaus ja sinnig sein kann, oder in den Fällen dann schneller ist).

Sinnig bei Spielen wie "Minesweeper" oder "Solitaire". Da kann dann Maxwell die volle Power seiner begrenzten Threadperformance ausspielen.
 
deathscythemk2 schrieb:
Hier zeigt sich wieder das Stockholmsyndrom von vielen nVidia Fans. Sie wurden schon wieder hinters Licht geführt und verteidigen nVidia immernoch. Versteh das wer will. Meine letzte nVidia war die GTX570 und bisher gibt es keinen Grund von meiner 290 zu wechseln, offensichtlich werde ich sogar noch lange was davon haben mit Win10 + DX12.

Je nach Spiel find ich auch die 290 zu schwach, WoW mit 290 51-65 fps. Eine 770 62-81. Gerade Drops unter 60 fps in solchen Spielen macht die Karte für mich einfach unattraktiv. Das ist das Problem an AMDs Treibern das gerade solche Spiele einfach eine Stückchen schlechter laufen.
 
Krautmaster schrieb:
Da heißt es wohl "Async Compute" geht bei beiden... aber beide Architekturen verhalten sich mit Threadzahl anders. Wenn Oxide jetzt natürlich in die vollen geht und 1000 Threads aufmacht verhält sich das vielleicht auf Maxwell ungünstig da die Implementierung dies nicht vorsieht, sondern auf wenige Threads ausgelegt ist (was durchaus ja sinnig sein kann, oder in den Fällen dann schneller ist).

Das klingt für mich sehr ähnlich, wie seinerzeit die Tessellation-Geschichte. Da lag es ja genau anders herum. AMDs GPUs hatten Probleme, wenn Entwickler es mit der Tessellation-Einstellung übertrieben haben.
Ich frage mich, ob die selben, die jetzt auf Nvidia einhacken, damals AMD auch volle DX11-Unterstützung abgesprochen haben, weil deren Implementierung von Tessellation nur auf niedrigere Stufen optimiert war und die Leistung einbrach, wenn zu hohe Stufen genutzt wurden.

Ich nehme mal an, da war es das andere Fan-Lager, das einen Aufstand darum gemacht hat bzw. "seinen" Hersteller verteidigte. :)

Wäre doch schön, wenn man grundsätzlich versuchen würde, sowas objektiv zu bewerten und nicht abhängig vom jeweiligen Markennamen.
Und nicht nur die Fans sollten sich mit Kritik zurück halten, sondern auch Nvidia und AMD selbst, denn sie sitzen alle im Glashaus und sollten besser keine Steine werfen.
 
Prozessor Knox schrieb:
Sinnig bei Spielen wie "Minesweeper" oder "Solitaire". Da kann dann Maxwell die volle Power seiner begrenzten Threadperformance ausspielen.

nicht unbedingt. Oftmals ist es sinnvoller wenige Threads und dafür schnelle zu haben anstatt 1 Mio davon die aber für sich langsamer sind.
Wenn man bisher alles sequentiell abgearbeitet hat wären selbst 32 Queues schon ne gute Steigerung (bzw so viele es die Hardware sinnvoll zulassen) - aber wie gesagt ich bin jetzt da nicht der Experte für um den spezifischen Workload für zu interpretieren oder mir diesen auszumalen, vielleicht bist du da ja tiefer drin.

Ich für meinen Teil finds nur interessant wie bis 32 Queues die Maxwell Karten, bzw die 750 TI bis 16 Queues, gleichbleibend niedrige Latenzen aufweisen und wie schon erörtert diese besser ausfallen als bei GCN, jene aber mit deutlich mehr wiederum besser klar kommen. In wie fern das jetzt gut oder schlecht ist, da bin ich außer Stande das zu beurteilen. Das kannst du mir vielleicht mit einem weiteren, hoffentlich weniger dümmlichen Kommentar, besser erklären.

Auf die UT Engine geb ich mehr als die von Oxide, und die schreiben ja auch schon dass man bei Async Compute schon wissen sollte was man tut

AsyncCompute should be used with caution as it can cause more unpredicatble performance and requires more coding effort for synchromization.
 
Zuletzt bearbeitet:
Herdware schrieb:
Wäre doch schön, wenn man grundsätzlich versuchen würde, sowas objektiv zu bewerten und nicht abhängig vom jeweiligen Markennamen.
Und nicht nur die Fans sollten sich mit Kritik zurück halten, sondern auch Nvidia und AMD selbst, denn sie sitzen alle im Glashaus und sollten besser keine Steine werfen.

joa sehe ich auch so. Selbst den renommierteren Hardware Seiten dürfte das nicht einfach fallen so etwas mal eben zu verifizieren, da muss man schon andere Studios und Game Developer die direkt damit zu tun haben fragen, und auch für die dürfte das noch relativ #Neuland sein.
 
@ zeromaster komm mal runter. Was hier peinlich ist, ist der Wind den du hier machst. Leute die sich hier anständig mit diesem Thema auseinander setzen, sind schon viel weiter. Die Frage ist kann Nvidia async shader auf Tier lvl 1, oder nicht und wenn wie.

So Verbale Highlights wie dein Beitrag, helfen da auch nicht weiter.
 
Es ist doch völlig egal, wie, warum, und weshalb, wenn am Ende die Performance trotzdem nicht stimmt. Ich gehe von einem grundsätzlichen Problem der Maxwell-Architektur aus, denn immerhin sitzt Nvidia bei Oxide mit am Tisch und sie kriegen es trotzdem nicht gebacken.
 
Herdware schrieb:
Wäre doch schön, wenn man grundsätzlich versuchen würde, sowas objektiv zu bewerten und nicht abhängig vom jeweiligen Markennamen.
Und nicht nur die Fans sollten sich mit Kritik zurück halten, sondern auch Nvidia und AMD selbst, denn sie sitzen alle im Glashaus und sollten besser keine Steine werfen.

Das geht halt aktuell nicht. Keiner sagt etwas wirklich festes, überall spielt Marketing und PR mit rein. Nvidia druckst wie üblich um die Wahrheit rum, AMDs PR-Chef gibt Kommentare wie "Who's laughing now?" von sich .. das hilft alles ungemein, nur nicht beim aufklären der ganzen Geschichte. Und Oxide macht natürlich auch Taram, wenn Ashes kein DX 12 hätte würde sich dafür ohnehin kaum ein Mensch interessieren, mehr PR als jetzt werden sie nie wieder haben. Unterm Strich ist es aber ein großer Kindergarten sowas überhaupt öffentlich auszufechten.

Das alle angeblich an einem Tisch sitzen war ja auch bei Project Cars schon so .. das sagt halt auch nichts aus. Am besten ist es aktuell einfach gar nix zu glauben und mal noch 2, 3 Titel abwarten. ARK kommt ja noch diese Woche und auch noch einw eiteres Spiel in ein paar weiteren. So kann man der ganze Sache mal auf den grund gehen. Aktuell ist es stochern im Nebel.
 
Zuletzt bearbeitet:
Herdware schrieb:
Das klingt für mich sehr ähnlich, wie seinerzeit die Tessellation-Geschichte. Da lag es ja genau anders herum. AMDs GPUs hatten Probleme, wenn Entwickler es mit der Tessellation-Einstellung übertrieben haben.
Ich frage mich, ob die selben, die jetzt auf Nvidia einhacken, damals AMD auch volle DX11-Unterstützung abgesprochen haben, weil deren Implementierung von Tessellation nur auf niedrigere Stufen optimiert war und die Leistung einbrach, wenn zu hohe Stufen genutzt wurden.

Ich finde, man sollte die beiden Geschichten anhand der Folgen beurteilen.

Async Compute ist ein Feature, dass die Leistung steigern soll. Die Grafikqualität bleibt damit unangetastet. Wenn es AMD GPUs beschleunigt und nVidia Karten nicht, dann freuen sich einfach die AMD Besitzer und die nVidia-Besitzer müssen halt ohne die Bonus-Performance auskommen.
Bei der Tesselation-Geschichte hingegen sieht die Sache etwas anders aus. Tessalation soll die Grafik verbessern, was es aber bei steigernder Stufe aber immer weniger und schließlich überhaupt nicht mehr tut. nVidias Vorliebe für hohe Stufen liegt folglich nicht darin das eigene Produkt besser zu machen, sondern mehr darin das Konkurenzprodukt zu schädigen.
 
Zuletzt bearbeitet:
BeezleBug schrieb:
Die Frage ist kann Nvidia async shader auf Tier lvl 1, oder nicht und wenn wie.

Und noch weiter, wie sich das dann später tatsächlich in den nächsten DX12 Spielen auswirken wird und ob überhaupt.

Was nutzt es jetzt zu sagen, theoretisch können die Nvidia Karten dies, oder nicht ?
Am Ende kommt's doch nur darauf an wie viel FPS in welcher Grafikqualität in den Spielen dabei rumkommen.

Ob das jetzt mit, oder ohne async zustande kommt interessiert selbst die Nvidia Fans dann nicht mehr, wenn sie FPS-mässig gut vorne liegen und alles klasse läuft.
Aber das wird man in der echten Praxis halt erst mit den nächsten DX12 Spielen sehen.

Und nicht nur mit 1-2 Titeln, sondern mit ner Menge.
Dann sieht man erst mal wie's durchschnittlich aussieht.

Aber das wird eben noch dauern.

Volker schrieb:
Am besten ist es aktuell einfach gar nix zu glauben und mal noch 2, 3 Titel abwarten. ARK kommt ja noch diese Woche und auch noch einw eiteres Spiel in ein paar weiteren. So kann man der ganze Sache mal auf den grund gehen. Aktuell ist es stochern im Nebel.

So isses.
 
Zuletzt bearbeitet:
Das alle angeblich an einem Tisch sitzen war ja auch bei Project Cars schon so .. das sagt halt auch nichts aus. Am besten ist es aktuell einfach gar nix zu glauben und mal noch 2, 3 Titel abwarten. ARK kommt ja noch diese Woche und auch noch einw eiteres Spiel in ein paar weiteren. So kann man der ganze Sache mal auf den grund gehen. Aktuell ist es stochern im Nebel.

Ja aber ARk ist auch wieder so ein unfertiges Spiel wir sollten die ersten Fertigen DX12 spiele abwarten um alles richtig zu beurteilen.
ARK ist absolut nichts sagend ist bloss ein Early Access Alpha Müll.
 
Volker schrieb:
Das alle angeblich an einem Tisch sitzen war ja auch bei Project Cars schon so .. das sagt halt auch nichts aus. Am besten ist es aktuell einfach gar nix zu glauben und mal noch 2, 3 Titel abwarten. ARK kommt ja noch diese Woche und auch noch einw eiteres Spiel in ein paar weiteren. So kann man der ganze Sache mal auf den grund gehen. Aktuell ist es stochern im Nebel.

Bei PC ist AMD irgendwann mal eingeladen worden, hat die ganze Sache dann aber offenbar nicht mehr konsequent weiterverfolgt. Das ist schon ein deutlicher Unterschied zum jetzigen Fall. Und die DX12 Unterstützung für ARK sollte bereits letzten Freitag erscheinen, ist dann aber wohl wegen Performanceproblemen verschoben worden. Also irgendwie kann ich mir schon denken, wer von diesen Problemen besonders betroffen gewesen sein dürfte.
 
Strikerking schrieb:
Ja aber ARk ist auch wieder so ein unfertiges Spiel wir sollten die ersten Fertigen DX12 spiele abwarten um alles richtig zu beurteilen.

Endlich wird die Diskussion mal vernünftig, ohne Hysterie.
Bisher gibt's nur EA(early access)-Kram. Und Spiele die ursprünglich vielleicht, oder sogar sicher noch gar nicht auf DX12 optimiert waren.
Also abwarten und Tee trinken.

Peace !
 
strex schrieb:
Das sehen die Tests bis jetzt nämlich nicht so. Bis zu einer Queue Depth von 31 ist sogar eine 960 schneller als Fury, erst wenn alle Queues ausgelastet wird ist GCN schnell da sie mehr Queues zur Verfügung stellt. Sprich beide Architekturen haben Vor- und Nachteile und je nachdem ich eine Menge an Queues fülle ist einmal die eine, einmal die andere besser.

Quelle: https://www.reddit.com/r/nvidia/comments/3j5e9b/analysis_async_compute_is_it_true_nvidia_cant_do/

Schau dir mal die Zahlen in den verlinkten Tests an.
Die Nvidia Karten brauchen für gleichzeitig Compute+Graphics zufällig ziemlich genau "Compute only"+"Graphics only" was auf serielles und nicht paralleles arbeiten schließen lässt. Bei AMD sieht das anders aus. Da ist "Compute only"+"Graphics only" nur ein wenig langsamer als max{"Compute only";"Graphics only"}. Das wiederum lässt darauf schließen, dass beides zeitgleich bearbeitet werden kann (dann Asynchronous Shader).
 
Zurück
Oben