Bericht Doom mit Vulkan: Benchmarks zeigen bis zu 66 Prozent mehr FPS

Ich hoffe das die AMD mobile GPUs als MxM kommen das ich meine 860M endlcih tauschen kann.
 
MaLow17 schrieb:
Mhm ja, rede es Dir nur weiter ein. Das ist nicht ein Vulkan-Problem, sondern Nvidia hat ein Hardware-Problem mit Async Compute, welches u.a. ein Kern-Feature von DirectX12 ist. Seit wann ist die DirectX12-API nochmal am Start? Die Fakten sprechen das Gegenteil. Sieht man ja sehr gut an Ashes of Singularity (lächerliche Software-Lösung des Problems mit Async Compute), Hitman, Gears of War Ultimate Edition, Quantum Break, der zurückgezogene Ark - Survival Evolved -DirectX12 - Patch (warum bloß?) und jetzt auch in Doom. Nvidia umgeht das Problem, indem sie Async Compute einfach nicht nutzen :).

naja was heißt hier Hardware Problem. Wenn Nvidia ihre GPU auch ganz ohne Async Compute an Rand auslasten kann, welcher Sinn hätte dann Asnyc Compute? Woher soll nun die Mehrleistung kommen?

Bitte etwas über den Tellerrand schauen. Schau dir einfach mal die Rohdaten der Chips an. Bei quasi Voller Last auf der GPU MUSS AMD eigentlich schneller sein. Und selbst wenn Nvidias GPUs dann Async Compute perfekt unterstützen würden erhöht das ja nicht die Leistungsfähigkeit der GPU.

Schau einfach mal auf die RX 480 und die GTX 980.

ca. 5,7 Mrd. vs 5,2 Mrd Transitoren
5.833 vs 5.079 GFLOPs in der für Games wichtigen SP Leistung

-> allein über diese Rohdaten is also AMD ziemlich genau 15% schneller.

Schaut man sich nun die aktuellen Vulkan Benchmarks an kommt das für ne GTX 980 wohl ziemlich genau hin, ergo kann deren Auslastung nicht wirklich daneben sein und man durch Async Compute nicht wirklich was gewinnen.

Man kann wohl genauso sagen dass AMD bisher ein Architekturproblem hatte welches mit Async Compute verpufft. Da aber beide Hersteller sicher in ein Auslastungsproblem über die nächsten Jahre gekommen wären macht Async Compute auf lange Sicht vielleicht durchaus Sinn, für AMD offensichtlich schon heute.

Edit: Wenn man beachtet wie viel mehr Rohleistung bei AMD teils für dieselben FPS benötigt wird / wurde, dann erklärt das auch den Effizienznachteil. Noch ein Vergleich:

Fury X vs GTX 980 TI
8.601 GFLOPs vs 6.770 GFLOPs

-> ~25% mehr Flops für eine wenn überhaupt meist identische Performance im GPU Limit.

Und in den Vulkan Benches ist sie nun im GPU Limit immerhin 8% in 4K vorn. In 1080p genau die ~25%


also etwa das was auch bei der Rohleistung auf dem Papier steht.


--> die Frage bleibt also: Was für ein Gain sollte bei Async Compute & Nvidia Karten rumkommen? Viel mehr als mikrige 5% werden da kaum drin sein

Natürlich ist es super dass man bei AMD seit langem eine sichtlich bessere Auslastung erreicht, nahe dem offensichtlichen Optimum. Ich hoffe dass das auch bis weit über 4000 Shader super skaliert.
 
Zuletzt bearbeitet:
Krautmaster schrieb:
wieso sollte ich 4K ohne AA testen? TXAA kostet ja nicht die Welt. Ich zocke an einem 40" Philips , AA is da willkommen. :D

Verstehe. Ich gehe davon aus, dass es sich um den 40er mit VA-Panel handelt? Taugt das Teil zum Zocken? Überlege mit diesen Monitor anzuschaffen. Wie siehts mit Input-Lag aus?
 
MaLow17 schrieb:
Mhm ja, rede es Dir nur weiter ein. Das ist nicht ein Vulkan-Problem, sondern Nvidia hat ein Hardware-Problem mit Async Compute, welches u.a. ein Kern-Feature von DirectX12 ist.

Drehe dir es ruhig so wie es für dich passend erscheint. In Wirklichkeit hat aber AMD ein Hardware Problem OHNE Async Compute. Die bisherigen AMD Karten konnten trotz der guten Hardware auf dem Papier nie ihre Leistung ausspielen. Von Vulkan und DX12 WIRD AMD mehr profitieren als Nvidia nur daraus auf Hardwareschwächen von Nvidia zu schließen ist absolut unlogisch. AMD produziert seit zwei Jahren Karten die sich nicht am vorhandenen Markt orientieren.... Manche nennen es zukunftsträchtig.... Andere würden es richtigerweise am Markt vorbei entwickelt sehen. Genauso wie die gesamte Bulldozer CPU Plattform seinerzeit.
 
Hallo,

vor lauter neuer APIs habe ich total die Übersicht verloren. Gibt es vielleicht eine gute Seite, die die verschiedenen APIs vergleicht, also DX11, DX12, Mantle, Vulkan usw.
Am besten mit den jeweiligen Vorteilen und was dies bedeutet und dann noch Insider-Informationen, wie schwierig die Implementierung der jeweiligen API ist.

Vielen Dank :)
 
Async Compute ist der dümmste Hype/Irrglauben seit VRAM. Jeder meint heute, er braucht mindestens 8GB VRAM, wenn in den meisten Spielen in den Standardauflösungen nichtmal 4 GB gebraucht werden. Und man gibt bereitwillig Geld dafür aus, dafür, dass man vll bei 1-3% der Frames nen Vorteil hat.

Den wirklichen Geschwindigkeitsvorteil für die AMD Karten gibt's bei DX12, Mantle und Vulkan aufgrund des reduzierten Treiber-Overheads. D.h. es fallen weniger Berechnungen auf der CPU an, wodurch das System in den meisten Auflösungen nicht mehr im CPU-Limit ist. Das heisst ebenso, dass bei 4K die neuen APIs wenig bis gar nix bringen, weil das System in hohen Auflösungen rein durch die Rohleistung der GPU limitiert wird.
Nvidia hat unter den vorigen DX-Versionen und OpenGL offensichtlich den Treiber-Overhead deutlich verringern können, wodurch bei der Verwendung von Low-Level-APIs nun kaum mehr Geschwindigkeitssteigerungen drin sind.

Async Compute nutzt brach liegende Shader zu anderen Berechnungen. Essentiell wird die GPU auch dadurch besser genutzt, hat aber trotzdem nix mit Treiber-Overhead zu tun.
In Ashes of Singularity hat ASC auf den AMD Karten gerade mal ein paar % gebracht. Also man darf sich darüber keinen Haxen ausreissen - viel Potential hat die Funktion nicht.
 
Vangart schrieb:
Verstehe. Ich gehe davon aus, dass es sich um den 40er mit VA-Panel handelt? Taugt das Teil zum Zocken? Überlege mit diesen Monitor anzuschaffen. Wie siehts mit Input-Lag aus?

Input Lag is gut, kann mich nich beschweren. Taugt zum zocken besser als gedacht aber wenn du viel Zockst ist wohl ein FreeSync / Gsync Panel mit 1440p sinniger. Ich bearbeite halt auch gern Fotos / Videos. Tearing fällt mir aber kaum auf auf dem Teil. Ich zocke meist mit Vsync aus.
 
KillX schrieb:
Starte mal Linux mit einer AMD Karte dann bekommste ziemlich schnell die Antwort ^^
Gibt einen Grund warum Linux Spieler zu nvidia greifen, hoffentlich ändert sich das mit Vulkan, weil mir nvidia etwas größenwahnsinnig erscheint mit ihren aktuellen Preisen.

Da bist aber nicht auf einem aktuellen Stand. AMD arbeitet hart an neuen Open Source Linux-Treibern, und die haben da große Fortschritte gemacht. Die sind noch nicht zu 100% da, aber wenn die fertig sind, kann NVidia mit ihren Closed Source Treibern auch da einpacken.
 
Hmm, dass die gewählte Szene unter Vulkan und sicher auch DX12 so einen gravierenden Unterschied macht, haut die Vergleichbarkeit von Testergebnissen in Zukunft irgendwie über den Haufen. Zumindest solange es keine Standardtests für die Spiele gibt.
 
hübie schrieb:
Edit: Vergleich von meiner 980Ti mit FuryX im 3DC
Du vergleichst hier nicht mit einer Fury X sondern einer Nano. Und dann vergleichst du nicht wirklich Grafikkarten sondern gesamte Setups, da er eine völlig andere CPU verbaut hat. Die vielen Cores dürften DOOM weit weniger bringen als dein hoher Takt. Nichtmal die Grafikeinstellungen sind gleich. Kurz gesagt, dein Vergleich ist völlig daneben.

Naja, sei's drum. Schieben wir es mal auf die Uhrzeit.

hübie schrieb:
Wenn du mal hinter die Kulisse schauen würdest, dann siehst du mit welchem Takt die hier getestete 980 Ti läuft. ;) Die 980 Ti ist in jeder Lebenslage deutlich oberhalb der RX 480. Egal was ein Balkendiagramm dir suggerieren will. Das kannst du gerne überprüfen.

In der Szene vom Test hier, habe ich average >55 fps was noch mal geschmeidige 20% über der Fury X sind.
Der CB-Test zeigt etwas anderes. Worauf willst du mit dem Takt hinaus? Dass hier mit Standardtaktraten getestet wurde? Das gilt doch nicht nur für die 980 Ti, sondern für alle Karten. Sonst wäre der Vergleich auch reichlich unfair und sinnbefreit.
 
Zuletzt bearbeitet:
Sunjy Kamikaze schrieb:
Ich Bau dir den satz mal richtig. Nvidia Chips unterstützt kein AC :D

Die 900er Serie unterstützt kein AC in Hardware, da gibt'seinen Basteltreiber der mehr schlecht als recht funktioniert. Die 1000er karten können ac in hardware, dazu gibt es mehrere Tests im Netz. Doom nutzt aber derzeit das AC bei Nvidia von sich aus nicht, steht so im Text.
 
was spielt das jetzt wieder für ne Rolle? :rolleyes: Äpfel und Birnen. Es ging nicht um den Preis sondern die Sinnhaftigkeit von Async Compute in Hardware bei Nvidia.

Edit: Dass eine RX 480 ein weit besseres P/L Bietet als Nvidias Maxwell und bisheriges Pascal Aufgebot ist bekannt. Geht man einen Schritt weiter und setzt die Flops als maximal mögliche Gaming Leistung an, dann sieht es für AMD noch rosiger aus denn mehr Flops fürs Geld bekommt man da schon lange. Da mit neuen APU diese Flops wohl auch wirklich gut am Schirm an kommen (bei AMD wie Nvidia) scheinen die Flops wieder wichtigerer Indikator der Spieleleistung zu werden ;)
 
Zuletzt bearbeitet:
Naja, du sagst, sie brauchen AC nicht, weil sie schnell genug sind. Mag ja sein.

Aber AMD-Karten zum gleichen Preis sind unter DirectX11 ungefähr gleich schnell und unter Vulkan/DirectX12 deutlich schneller.
 
ich sag nicht sie brauchen AC nicht weil sie schnell genug sind. Da haste falsch gelesen. Was bitte ist "schnell genug"...

Du hast eben nur eine bestimmte Rohleistung, ein theoretisches Maxima dass der Chip leisten kann. AMD konnte das bisher in DX11 / OpenGL kaum abrufen, die Auslastung des Chips bei lag bei hypotetischen 80%, und je mehr Shader und Rohleistung, umso mieser wurde es. Siehe die Fury X, gewinnt nun bis zu 66% -heißt die Auslastung unter alter API war miserabel.

Diese maximale Rechenleistung eines Chips ist bekannt. Siehe der Flop Wert. Nvidia setzt zumeist schon nahe am möglichen Maxima die Rechenleistung in Bilder um - in diesem Fall bringt Async Compute wenig bis nichts.

Theoretisch sind die Nvidia Chips schon lange langsamer als die AMD Pendants. Genau deswegen ist Nvidia zumeist effizienter und hat eine höhere Marge da "weniger Chip" für dieselbe Spieleleistung ausreichte.


Edit: Genau wegen diesem "Auslastungsthema" gewinnen bei AMD die GPU über Zeit etwas an Leistung. Zum Release der Hawaii Chips ala RX 290X war auch da die Auslastung der 2816 Shader eher schlecht. Durch Treiberoptimierung und höherem GPU Bound bei heutigen Titeln bringt man zwischenzeitlich aber die hohe Rohleistung recht gut auf die Straße.

Hawaii wurde ja oft als Stromschleuder bezeichnet. Mit 5.632 GFLOPs leistet eine R9 290X auch theoretisch viel (41% mehr als die damals ähnlich schnelle GXT 780). Theoretisch kam das einer durchschnittlichen ChipAuslastung von 100% bei der GTX 780 zu 60% bei der R9 290X gleich, wobei er bei Teillast dennoch satt Energie verbrät.

Über die Zeit wurden diese niedrigen 60% (bei denen sich eventuell Fiji heute befindet) über Optimierungen nach oben gedrückt, Headroom war ja genug da. Mit Async Compute und Vulkan kommt man dann schon nahe auf die 100% und das sieht man auch in den Benches.

Eine R9 390 (Hawaii) ist quasi gleich schnell wie eine RX 480. Eine GTX 780 wäre sicher ~40% abgeschlagen.
 
Zuletzt bearbeitet:
Ein großer Teil der Foristen können nicht über den Tellerrand ihres PC Daseins blicken.

Der größte Vorteil der Vulkan API ist, dass sie plattformübergreifend ist und im Gegenteil zu OpenGL extrem performant.

Nur um das Kurz mal deutlich zu machen. Spieleentwickler haben nur noch einen großen Entwicklungsaufwand für PC (Linux, Windows, Mac OS), Playstation, X-Box, Nintendo, Android, usw.
Das heißt, der PC Blockbuster muss nicht mehr aufwändig portiert werden (Direct X -> OpenGL Wrapper), genauso umgekehrt, Playstation oder X-Box Spiele für den PC zu portieren, ist dann Pipifax. Dank Skalierbarkeit auch von starken Systemen auf kleine wie Tablets oder Smartphones.

DirectX hat den riesen Nachteil, dass es nur auf Windows PC (bei DX12 sogar nur ab Windows 10) und abgewandelt auf der X-Box läuft. Es ist also für große Entwicklerstudios ziemlich bescheuert weiter auf verschiedenen Systemen mit verschiedenen APIs zu arbeiten, wo es jetzt Vulkan gibt.

Wer weiter auf Direct X setzt ist entweder eine Microsoft Hure oder bekommt keine frischen Entwickler engagiert.

Meine Meinung.
 
Zuletzt bearbeitet:
xexex schrieb:
In Wirklichkeit hat aber AMD ein Hardware Problem OHNE Async Compute. Die bisherigen AMD Karten konnten trotz der guten Hardware auf dem Papier nie ihre Leistung ausspielen. Von Vulkan und DX12 WIRD AMD mehr profitieren als Nvidia nur daraus auf Hardwareschwächen von Nvidia zu schließen ist absolut unlogisch. AMD produziert seit zwei Jahren Karten die sich nicht am vorhandenen Markt orientieren.... Manche nennen es zukunftsträchtig.... Andere würden es richtigerweise am Markt vorbei entwickelt sehen.
Na was ist Deiner Meinung nach besser, ein Problem endlich gelöst zu bekommen, weil man eigenständig alles in die Wege geleitet hat, eine Schnittstelle ins Leben zu rufen, die viel näher an der Hardware arbeitet und diese seinen Konkurrenten auch noch frei zur Verfügung stellt oder aber aus "Kostengründen" eine Hardware zu entwickeln, die nur für das Hier und Jetzt ausgelegt ist und sobald man sich ein bisschen in Richtung Zukunftsstandards bewegt, gleich auf die Nase fällt und man dann ganze Treiber-Teams beauftragen muss, die sich den Kopf zerbrechen müssen, um den Schaden in Grenzen zu halten, damit es nicht so auffällt, wo sich die Katze in den eigenen Schwanz beißt und wir wieder bei den Kosten wären, die eingespart werden sollten, wegen kastrierter Hardware :).

Nochmals für Dich zum Mitschreiben: AMD hat kein Hardware-Problem, sondern ein DirectX11 Treiber-Problem, wenn überhaupt, weil die Karten nicht ihrer Rohleistung entstprechend unter dieser Schnittstelle ausgelastet werden. Trotzdem reicht das aber für die Konkurrenz. Nvidia hat ein Hardware-Problem, sobald es um die echte Nutzung von Async Compute geht. Das wird auch kein Treiber-Update beheben können.
 
Zuletzt bearbeitet:
Schnell genug im Sinne von nicht besser auszulasten.

Dein Vergleich hat schon Sinn gemacht. Vielleicht sollte man aber den Preis bei diesem Vergleich im Hinterkopf behalten. Klar, bei AMD kriegt man ne schlechtere FPS-Ausbeute im Vergleich zur theoretischen Leistung unter DX11. Deshalb ist der Stromverbrauch auch höher als bei Nvidia. Aber dafür bezahlt man halt auch viel weniger. Und mit DX12/Vulkan gibt es einen Haufen mehr Leistung und man ist auch von der Effizienz her auf Augenhöhe mit Nvidia.
 
Krautmaster hör mal bitte endlich auf mit deinen albernen Gflops Vergleichen....
Es ist ja wohl ziemlich offensichtlich, dass diese nur innerhalb einer Architektur sinnvoll sind. Denn ein CUDA Kern ist ja nicht = Compute Shader!
 
shAGGie schrieb:
Der größte Vorteil der Vulkan API ist, dass sie plattformübergreifend ist.
Leider ist Vulkan nur eine Grafik API und keine Spielengine... Daher bringt es einem Entwickler nur etwas, wenn er eine komplett eigene Spielengine baut. Und dann müssen alle anderen Bestandteile ebenfalls Plattformunabhängig entwickelt werden.

Für was sich Entwickler entscheiden ist eine Kosten/Nutzen Geschichte und sie deswegen zu beleidigen ist eine Frechheit.

Meine Meinung.
 
Zurück
Oben