Bericht Doom mit Vulkan: Benchmarks zeigen bis zu 66 Prozent mehr FPS

MichiSauer schrieb:
Dass NV hier kleinere Sprünge macht liegt daran, dass NV den Overhead schon unter DX11 Treiberseitig massiv reduzieren konnte. Wo da der Trick liegt hat AMD (wahrscheinlich aufgrund der Personal-Lage und Finanzen) nie rausfinden können.

NV treibt sehr hohen Aufwand um die Treiber applikationsspezifisch anzupassen, das verursacht hohe Kosten bei NV. Ob das mit den neuen APIs in gleichen Umfang möglich ist wage ich zu bezweifeln.

AMD hat den Aufwand in neue APIs gesteckt, was mittel- bis langfristig die Kosten senken sollte, und damit auch die Preise.
 
Und ein weiteres Beispiel dafür, dass Nvidias Hardware ernsthafte Probleme mit Async Compute hat.

Das schöne ist, dass AMD (speziell auf die Fury X bezogen) von Vulkan sowohl im CPU-Limit als auch im GPU-Limit (dank Async Compute) deutlich profitiert sprich von langsameren als auch von schnellen (z.B. übertakteten) CPUs dazugewinnen kann. Bei Nvidia fällt letzteres raus.
 
Zuletzt bearbeitet:
foofoobar schrieb:
NV treibt sehr hohen Aufwand um die Treiber applikationsspezifisch anzupassen, das verursacht hohe Kosten bei NV.
Und wenn man sich die Marktanteilverteilung anschaut, hat sich der Aufwand auch gelohnt ;)
 
Sind ja tolle Ergebnisse, gerade als R9 290X Besitzer freut mich das sehr!
Aber nuja... den Singleplayer habe ich bereits durch, den Multiplayer finde ich grottig. Für mich ist Vulkan bei Doom also auch nicht mehr als DX12 bei AoS, eine nette Demonstration dieser APIs. Da ich beide Spiele nicht (mehr) spiele, bringt's mir recht wenig. Und leider befürchte ich, dass ich davon auch in Zukunft nichts haben werde, zumindest nicht mit meiner R9 290X, da diese spätestens zum Jahreswechsel getauscht wird.
 
MaLow17 schrieb:
Und ein weiteres Beispiel dafür, dass Nvidias Hardware ernsthafte Probleme mit Async Compute hat.

Das schöne ist, dass AMD (speziell auf die Fury X bezogen) von Vulkan sowohl im CPU-Limit als auch im GPU-Limit (dank Async Compute) deutlich profitiert sprich von langsameren als auch von schnellen (z.B. übertakteten) CPUs dazugewinnen kann. Bei Nvidia fällt letzteres raus.

Noch einmal für dich, falls du die Textpassage im Artikel "überlesen" haben solltest. :freak:

Welche Funktionen unter anderem für das Leistungsplus sorgen, legt AMD in einem eigenen Blogeintrag dar. Dies wäre zum einen die Unterstützung von Asynchronous Compute (bei AMD Asynchronous Shaders genannt), die Vulkan oder DirectX 12 voraussetzen und die Auslastung am Limit der GPU verbessern sollen, indem die Befehle der einzelnen Threads parallel statt seriell abgearbeitet werden können. Dies funktioniert derzeit nur mit AMD-GPUs, wie Bethesdas Vulkan-FAQ für Doom verrät. Gemeinsam mit Nvidia arbeite man aber bereits daran, Asynchronous Compute auch auf GeForce-Grafikkarten zu unterstützen.

Genau was kann NVidia dafür, dass Bethesda die Engine zuerst für AMD optimiert hat? Das sind erste Gehversuche mit Vulkan und nicht mehr und genau aussagekräftig wie ne Stulle mit Käse.
 
Zuletzt bearbeitet:
xexex schrieb:
Genau was kann NVidia dafür, dass Bethesda die Engine zuerst für AMD optimiert hat? Das sind erste Gehversuche mit Vulkan und nicht mehr.

wenn sie ni ch ständig nur proberitären mist machen würden hätten sie das Problem jetzt nicht. Also selber schuld. sollen ihre Karten die nächsten jahre verhungern.
 
Klingt nach den selben Versprechungen, die wir schon vor knap einem Jahr in Bezug auf Maxwell gehört haben. Die arbeiten an den Treibern, um AC für NV zu ermöglichen usw. bla.bla.
Daraus wird wohl wieder nichts. Denn wie wir nun mittlerweile wissen, ist Pascal letztlich einen geshrinkte Kopie von Maxwell mit minimalen Änderungen im Frontend. Da ist nichts mehr zu erwarten in Bezug auf harwareseitiges AC.
 
xexex schrieb:
Genau was kann NVidia dafür, dass Bethesda die Engine zuerst für AMD optimiert hat? Das sind erste Gehversuche mit Vulkan und nicht mehr und genau aussagekräftig wie ne Stulle mit Käse.

Die selbe ausrede wurde doch schon letztes Jahr im Herbst gebracht als es bei den ersten Test aufgefallen ist, dass Nvidia kein Async Computing kann.

Und wo sind wir nun? Nvidia kann es immer noch nicht... anscheinend doch nicht Treibermässig lösbar was.
 
birday schrieb:
Einseitig ist eine schwachsinnige Bezeichnung für eine API, die vom jedem Spiel benuzt werden kann :<

er meint damit so sachen wie damals, als manche benchamrks auf nvdia karten optimiert waren bei dx 11 oder was auch immer apis;). das gibt es ja auch bei spielen zuhauf z.b. nividias mean to be play program oder AMDs evolved. es kommt natürlich auch darauf an, wie "gut" auf dieser api die softweare gestaltet, programmiert wird. als z.b. world of warcraft von dx9 auf dx 11 gewechselt hatte, war das ja eher eine mittlere katastrophe, auf nvidia karten 570/580, amds 7950/70 verschanden ganmze zonen, da war ein fach ein schwarzes loch, bildfehler ohne ende. die ursache war da wohl z.b. eine schlampige importierung der dx 11 api und das ausser acht lassen bestimmter treiberparameter von amd und nvidia....
mir als endverbraucher solls recht sein, wenn vulkan zulegt. bleibt abzuwarten wie spielehersteller darauf reagieren und diese api auch sauber in die spiele "integrieren. ich als endkunde habe dann wohl die chance auf mehr auswahl:)
 
Krautmaster schrieb:
ich nehm das hier mal in den passenden Thread rüber:



@ Topic

Super wie die Fury X /RX 480 Fahrt aufnimmt. AMD kann die 4k Shader wirklich deutlich besser damit auslasten.

@ CB. Was heißt bei euch Max und TXAA? 1x, 8x? Alles auf Ultra oder Albtraum was geht?

Bitte noch den Verbrauch testen ;)

Krautmaster, kannst du mir bitte erläutern, warum du 4K mit AA testest? Der Sinn erschließt sich mir nicht. Es sei denn, du zockst auf einem 65'' Fernseher?
 
Blah blah blah.

In MOMENT unterstützt die Engine von BETHESDA GAR kein AC mit NVidia Chips. Also einfach mal abwarten und wenn die Tests mit annähernd endgültiger Engine da sind, sich ein Bild verschaffen.
 
Zuletzt bearbeitet:
xexex schrieb:
Blah blah blah.

In MOMENT unterstützt die Engine von BETHESDA GAR kein AC mit NVidia Chips. Also einfach mal.......

Ich Bau dir den satz mal richtig. Nvidia Chips unterstützt kein AC :D
 
xexex schrieb:
Blah blah blah.

In MOMENT unterstützt die Engine von BETHESDA GAR kein AC mit NVidia Chips. Also einfach mal.......

Oh Xexex hat wohl keine Argumente... was los? Kannst es wohl einfach nicht wahrhaben was?
 
eiscreme schrieb:
Das stimmt nicht ganz OpenGL ist genauso performant wie DX11, das hat uns unter anderem Valve mit Dota2 gezeigt. Der Grund wieso OpenGL meistens schlechter abschneidet als DX11 ist, dass zunächst auf DX11 programmiert wird dann auf OpenGL portiert wird meistens werden hier Wrapper benutzt, was unter anderem auch zu Performance Einbußen führt. Jetzt frag man sich wieso man von DX11 nach OpenGL portiert und nicht anders herum. Der Grund ist einfach, OpenGL hat viel Mist gebaut was die Usability angeht und es viel einfacher mit DX11 zu programmieren.
Das stimmt nicht. Der Grund liegt eher darin, dass jeder seine eigene OpenGL Implementation hat und die in der Tat unterschiedlich performant sein können und dazu kommt noch, dass Entwickler extreme Schwierigkeiten haben vernünftig durch das openGL Chaos durchzusteigen.
Ständig muss ich immer wieder solche Tweets von Entwicklern lesen. Folgendes stammt zum Beispiel von einem Engine Entwickler der Unity Engine, der ein Feature für alle möglichen Platformen mit allen möglichen APIs realisieren muss.
Gfx API complexity. Implementing per-MRT blend modes in Unity, code lines: DX11,DX12,PS4 ~40, Metal 7 (!), OpenGL ~240 :(

Solche Dinge bekommst du hier ständig zu lesen. OpenGl scheint das reinste Chaos zu sein, was Komplexität aber auch Performance angeht. Man KANN performant programmieren, aber da es möglich ist alles auf 20 verschiedene Arten zu machen ist es schwer herauszufinden was genau der performanteste Weg ist etwas zu realisieren.

Max007 schrieb:
DICE hat es mit BF4 vorgemacht, Bethesda/id jetzt mit Doom, ich gehe davon aus, dass Spiele aus dem Hause DICE / Frostbite-Engine sowie Bethesda/id zukünftig alle Vulkan unterstützen werden.
Bisher sieht es in BF1 aber nicht so aus. Dort gibt es nur einen Schalter für DX11 und DX12.
Ob DX12 oder Vulkan ist für Entwickler die ihre Spiele nur auf Windows entwickeln letztendlich auch vollkommen egal. Ein Wechsel oder eine zusätzlcihe Implementation von Vulkan ist im Anschluss aber auch ohne großen Aufwand möglich, wenn man das unbedingt möchte. Bringt aber auch keine Vorteile gegenüber DX12, wenn man das Spiel eh nur auf Windows vertreibt.
 
Zuletzt bearbeitet:
Also für mich bedeutet das nur das AMD GPUs aus der Zukunft kommen und die CPUs aus der Steinzeit (nicht APUs).

Aber schön das man damit beides in den Griff bekommt, dann passt ja wieder alles.
 
Sunjy Kamikaze schrieb:
Ich Bau dir den satz mal richtig. Nvidia Chips unterstützt kein AC :D

surtic schrieb:
Oh Xexex hat wohl keine Argumente... was los? Kannst es wohl einfach nicht wahrhaben was?

Wie soll man gegen so geniale Argumentation auch ankommen?

Bethesda gibt explizit an die Engine derzeit nur auf AMD Karten optimiert zu haben und AC auf Nvidia Karten noch nicht zu unterstützen. Und daran soll nun Nvidia Schuld sein..... Ah ja..... Genial!
 
Jetzt sagen wieder 90% DANKE AMD und kaufen sich dann wieder ne Nvidia. Wenn wir nicht alle AMD mehr unterstützen seht ihr ja wo das mit Nvidia und technischem Fortschritt enden wird...
 
cvzone schrieb:
Also entweder ist der Vulkan Treiber sehr gut auf die AMD Hardware optimiert oder aber der AMD OpenGL Treiber ist purer Schrott. ;)

Starte mal Linux mit einer AMD Karte dann bekommste ziemlich schnell die Antwort ^^
Gibt einen Grund warum Linux Spieler zu nvidia greifen, hoffentlich ändert sich das mit Vulkan, weil mir nvidia etwas größenwahnsinnig erscheint mit ihren aktuellen Preisen.

Vulkan ist recht nahe an AMD Mantle, daher ist die Performanz ziemlich gut :)
 
xexex schrieb:
Noch einmal für dich, falls du die Textpassage im Artikel "überlesen" haben solltest. :freak:

Genau was kann NVidia dafür, dass Bethesda die Engine zuerst für AMD optimiert hat? Das sind erste
Gehversuche mit Vulkan und nicht mehr und genau aussagekräftig wie ne Stulle mit Käse.
Mhm ja, rede es Dir nur weiter ein. Das ist nicht ein Vulkan-Problem, sondern Nvidia hat ein Hardware-Problem mit Async Compute, welches u.a. ein Kern-Feature von DirectX12 ist. Seit wann ist die DirectX12-API nochmal am Start? Die Fakten sprechen das Gegenteil. Sieht man ja sehr gut an Ashes of Singularity (lächerliche Software-Lösung des Problems mit Async Compute), Hitman, Gears of War Ultimate Edition, Quantum Break, der zurückgezogene Ark - Survival Evolved -DirectX12 - Patch (warum bloß?) und jetzt auch in Doom. Nvidia umgeht das Problem, indem sie Async Compute einfach nicht nutzen :). Man muss übrigens kein Hellseher sein, um zu wissen, dass diese Liste immer länger werden wird.
 
Zuletzt bearbeitet:
Vangart schrieb:
Krautmaster, kannst du mir bitte erläutern, warum du 4K mit AA testest? Der Sinn erschließt sich mir nicht. Es sei denn, du zockst auf einem 65'' Fernseher?

wieso sollte ich 4K ohne AA testen? TXAA kostet ja nicht die Welt. Ich zocke an einem 40" Philips , AA is da willkommen. :D
 
Zurück
Oben