Bericht Doom mit Vulkan: Benchmarks zeigen bis zu 66 Prozent mehr FPS

Langfristig gesehen war der Kauf meiner 290X im Vergleich zur 780Ti genau richtig.
AMD ist einfach viel langlebiger als Nvidia, was die Performance angeht.

Was mich viel eher interessieren würde, wäre ein Test der älteren Nvidia Karten mit deren damaligen Gegenparts von AMD,
also speziell Vergleiche: 7970 vs. 580/680 und die 290X vs. 780 Ti).
 
@zeedy

Ich schreib ja nicht, dass man sich Benchmarks komplett sparen kann da man mit Vulkan nur noch auf die Flops schauen muss lol.

Natürlich, auf +- 10-20% geht das sicher nicht, aber 10% sind auch nicht wirlich viel oder, gerade in Anbetracht dass SI, VRam Ausbau, Treiber-Optimierung usw alles raus is da es nicht in die Flops einfließen kann.

Auch nehme ich die Flops ja nicht als aktuellen Maßstab der Performance, viel eher einer möglichen erreichbaren Performance. Maybe könnte also die Fury X zur RX 480 in FHD nochmal um 20% zulegen.

Du willst mir ja nicht sagen dass es bei OpenGL besser passt...



Vorstellbar dass man sich quasi mit dem orangenen an den gelben Balken annähern muss (dann hätte man die R9 390 als Maß nehmen müssen), relativ gesehen. Was das tatsächliche Optimum ist ist ja unbekannt.

Edit: Sieht doch gut aus für AMD.

Edt2: Mach meine Arbeit nicht schlecht :D
 
Zuletzt bearbeitet:
GUN2504 schrieb:
Langfristig gesehen war der Kauf meiner 290X im Vergleich zur 780Ti genau richtig.
AMD ist einfach viel langlebiger als Nvidia, was die Performance angeht.

Was mich viel eher interessieren würde, wäre ein Test der älteren Nvidia Karten mit deren damaligen Gegenparts von AMD,
also speziell Vergleiche: 7970 vs. 580/680 und die 290X vs. 780 Ti).

Volle Zustimmung.

Aber offensichtlich ist das den Leuten ziemlich egal und Nvidia macht es genau richtig. Die Leute kaufen wie die Lemminge ihre Karten weil die Balken in den Benchmarks etwas länger sind. Dass die AMD Karten teilweise doppelt so lange halten ist dabei völlig egal... Wird in 2 Jahren eh ne neue Karte für 500€ gekauft!

Ich hab mit keinem MItleid der über die hohen Preise bei Nvidia jammert. Alles hausgemacht. Wer "preimum bullshit" will muss auch dafür löhnen.
 
zeedy schrieb:
FLOPs sind aber nur ein theoretischer Wert. Nehmen wir doch die 1070 und die 390 zum Beispiel: mit dem typischen Boost von 1,7GHz im Referenzdesign liefert das Ding bis zu 6,53 TFLOPs. Die R9 390 bis zu 5,12 TFLOPs. D.h. die 1070 müsste 27,5% schneller sein. In 1440p ist sie aber nur 14% schneller.



:lol: Mumpitz weil??? Es dir nicht passt, dass die roten Balken viel länger sind als die grünen? ^^

Hier noch ein bisschen Salz auf deine Wunde ^^
https://www.youtube.com/watch?v=EyuoQIuEZj0

Wieso sind in dem Video zwei verschiedene Vulkan Treiber

Bei AMD ist es die 1.0.17 und bei Nvidia die 1.0.8

Kann einer mir erkären welche die aktuellere bzw. welche eigentlich auf dem Papier besser ist?
 
CloakingDevice schrieb:
Du vergleichst hier nicht mit einer Fury X sondern einer Nano. Und dann vergleichst du nicht wirklich Grafikkarten sondern gesamte Setups, da er eine völlig andere CPU verbaut hat. Die vielen Cores dürften DOOM weit weniger bringen als dein hoher Takt. Nichtmal die Grafikeinstellungen sind gleich. Kurz gesagt, dein Vergleich ist völlig daneben.

Naja, sei's drum. Schieben wir es mal auf die Uhrzeit.

Die Nano hält den Takt aber im Gegensatz zu anderen. Und hier werden 12 Thread gut ausgelastet. Vulkan ist deutlich unabhängiger von der CPU wie du im 3DC nachlesen kannst. Meine CPU fährt ja nicht ständig die vollen 4172 MHz aus ;) Das dürfte schon so passen - vor allem unter 4k wo die CPU doch deutlich mehr in den Hintergrund rückt.

CloakingDevice schrieb:
Der CB-Test zeigt etwas anderes. Worauf willst du mit dem Takt hinaus? Dass hier mit Standardtaktraten getestet wurde? Das gilt doch nicht nur für die 980 Ti, sondern für alle Karten. Sonst wäre der Vergleich auch reichlich unfair und sinnbefreit.

Das ist die Boost-Geschichte von NVIDIA. Der Grundtakt dürfte bei so ziemlich keiner Karte in freier Wildbahn anliegen. Ich hatte mir mal die Arbeit gemacht, alle Karten die im Hardwareluxx gelistet sind zu nehmen und einen Schnitt zu errechnen. Boost war im Mittel bei 1311 MHz bei 69% ASIC und 1,19 Volt. 1076 ist da wie gesagt sehr konservativ. Wohingegen AMDs Karten den Takt nutzen der da steht. Erst mit der RX 480 hat sich das etwas verändert.
 
zeedy schrieb:
FLOPs sind aber nur ein theoretischer Wert. Nehmen wir doch die 1070 und die 390 zum Beispiel: mit dem typischen Boost von 1,7GHz im Referenzdesign liefert das Ding bis zu 6,53 TFLOPs. Die R9 390 bis zu 5,12 TFLOPs. D.h. die 1070 müsste 27,5% schneller sein. In 1440p ist sie aber nur 14% schneller.



:lol: Mumpitz weil??? Es dir nicht passt, dass die roten Balken viel länger sind als die grünen? ^^

Hier noch ein bisschen Salz auf deine Wunde ^^
https://www.youtube.com/watch?v=EyuoQIuEZj0

Hat es einen bestimmten Grund, warum man bei der GTX 1070 den Vulkan Treiber 1.0.8 nimmt und nicht den 1.0.11.1?

Bei mir ist jedenfalls Vulkan 1.0.11.1 installiert. Kann leider nicht gegentesten, da ich Doom 2016 nicht besitze.
 
JazzLash schrieb:
Durch den geringen Marktanteil von AMD werden vielleicht viele Spielehersteller auf Vulkan verzichten.

Diese Aussage ist ungefähr mit soviel Recherche wie die in meiner Signatur entstanden => 0.
 
john.veil schrieb:
Wie sicher ist es, das die neuen 10x0er Asynchronous Compute wirklich in Hardware können?

die 10x0 können Async Compute nicht in HW dazu müsste NV ihre Architektur weitestgehend umbauen, Sie haben lediglich Optimierungen vorgenommen das die Karten nicht mehr soweit zurückfallen.
 
shAGGie schrieb:
Ein großer Teil der Foristen können nicht über den Tellerrand ihres PC Daseins blicken.
Was du bei deinem Tellerrand übersehen hast ist, dass Vulkan nur eine Grafik-API ist und DirectX eine API Sammlung aus allen möglichen APIs.
Was du hier vergleichst ist Vulkan und Direct3D. DirectX besteht aber auch noch aus XInput, DirectMath, DirectAudio und vielem mehr. Das macht es den Entwicklern viel leichter ihr Spiel zu entwicklen, wenn man alles in einem Guss bekommt anstatt das man sich alles irgendwo zusammensuchen muss.

Hinzu kommt auch, dass die Tools und die Integration in die Entwicklungsumgebungen dann für diese Dinge meistens deutlich besser funktionieren. Das war ja schon bei DX11 und OpenGL so und ist auch bei Dx12 und Vulkan nicht anders. Ein gutes Tooling ist sehr sehr wichtig beim Entwickeln und kann sogar ausschlaggebender sein als die Komplexität der API an sich. Die Dokumentation und Support in der Entwickler-Community sind weitere Faktoren die hier eine wichtige Rolle spielen.
Das ist bei den Profis nicht anders als bei uns. Auch die sind sehr darauf angewiesen sich Hilfe bei ihren Kollegen zu holen und wenn die Mehrheit mit DX12 arbeitet, dann ist es sinnvoll das auch zu tun.



Nur um das Kurz mal deutlich zu machen. Spieleentwickler haben nur noch einen großen Entwicklungsaufwand für PC (Linux, Windows, Mac OS), Playstation, X-Box, Nintendo, Android, usw.
Das ist bei Low Level APIs eben nicht mehr so einfach. Da muss man für jede Plattform auch wieder alles doppelt und dreifach programmieren. High Level APIs wie OpenGL haben diesen Vorteil durch ihre hohe Abstraktion, aber Vulkan hat dies aus Performancegründen aufgegeben.
Du kannst also ruhig Für windows DX12 verwenden und dann, wenn du das Spiel portierst für den Port Vulkan verwenden. Der Aufwand wird dadurch nicht viel höher.


Wer weiter auf Direct X setzt ist entweder eine Microsoft Hure oder bekommt keine frischen Entwickler engagiert.
99% aller großen AAA Entwickler sind sich ohnehin schon im Vornhinein darüber im klaren, das sie ihr Spiel nur auf Windows veröffentlichen werden. Publisher sind überhaupt nicht dazu bereit Spiele auf andere Systeme außer Widows zu portieren oder zu unterstützen.
Momentan bekommst du übrigens auch schon jede Menge DX12 geschulte Entwickler und noch keine, die sich wirklich mit Vulkan auskennen.
Die Idioten der Khronos Group haben sich ja mal wieder die Butter vom Brot nehmen lassen und obwohl sie eher mit Vulkan angefangen haben und sogar mit Mantle eine gute Vorlage bekommen haben, sind sie erst ein Jahr später als DX12 fertig gewesen. Da hat die halbe Welt schon angefangen auf DX12 umzuschulen.

Es ist echt so, als ob die Khronos Group aus der ganzen OpenGL Geschichte der Vergangenheit nichts gelent hätte.
Vulkan hätte sich tatsächlich durchsetzen können, aber auch nur, wenn es 1-2 Jahre vor DX12 auf dem Markt gekommen wäre. Nicht 1 Jahr danach.
 
Ich werde das Gefühl nicht los, das man bei Asynchronous Compute Äpfel mit Birnen vergleicht.

Bei AMD werden extra Asynchronous Compute Engines verbaut und bei nVidia nicht. Das dann AMD besser da steht ist kein Wunder.
Das man bei Pascal, trotzt fehlender Hardware, bei AC zugelegt hat ist für mich das größere Wunder.

Aber mir zum Glück sowieso egal ob ein Game nun 80FPS oder mit Vulkan 140FPS macht, mein UHD 55" JS8090 läßt sowieso nur 60Hz zu und spiele daher mit gelockten 60FPS.
 
Zuletzt bearbeitet:
Hahaha auf Videocardz prügeln die sich schon darum, dass die Ergebnisse hier gefaked seien weil die was ganz anderes raus kriegen. Den Upvotes zu Folge gehören die Nvidia Fanboys zu den Skeptikern dieses Ergebnisses. Die konnten halt nicht lesen dass AC nur mit TSSAA funzt und haben nur die Balkendiagramme angeguckt. Ohne TSSAA klappt das halt nicht. ;)
 
Zuckerwatte schrieb:
oh wow ein küsntliches CPUlimit(1,2GHz....).....damit kannste die 150% direkt knicken.

nicht direkt. Im Prinzip kannste nen AM1 mit ner GTX 980 TI kombinieren ;)

1,2 Ghz bei 12 Threads ist nicht soo lahm. Denke ein Celeron/ Pentium / i3 profitiert auch schon deutlich von Vulkan.

@R00tMaster

auch für dich nochmal. Es gibt bisher wenig sinnvolle Ansätze/Gründe weshalb Async Compute bei Nvidia viel bringen sollte. Dafür ist, gerade im Vergleich mit AMD, die Auslastung der GPU bereits auf "zu hohem Niveau". Der Headroom und Gain durch AC wäre auch bei perfekter Implementierung sicher deutlich geringer.

Nur weil es etwas wie Async Compute gibt muss es nicht gleich immer sinnvoll sein es zu implementieren. Würde Nvidia dadurch die Möglichkeit sehen auf selber Fläche und Chip Rohdaten deutlich mehr rauszukitzeln wären sie sicher schnell dabei - sicher würde es auch was bringen (vielleicht 5%) aber nicht mal eben ab und an 40+ wie bei AMD. Bei AMD wird ja durch Async Compute auch nicht die Leistung der GPU erhöht sondern die Umgesetzte Leistung, und es hängt eben vom Delta ab wie hoch der Gain ist (und da bei Doom und OpenGL die AMD Karten "versagen" ist der Gain hier überragend).

Es mag was bringen und bei künftigen GPu von Nvidia auch immer interessanter werden, aktuell dürfte aber kaum wirtschaftlich sein (außer vielleicht bei neu in Entwicklung befindlichen Designs)
 
Zuletzt bearbeitet:
Finde die Entwicklung toll, der "Vorgänger" Mantle zeigte bereits wohin die Reise gehen wird.

Allerdings verstehe ich hier einige Leute nicht wirklich, klar ist es toll das nun AMD um einiges mehr Power auf die Straße bringt, aber es ist doch nur Doom und nicht die gesamte Spielebranche. Einige drehen hier sowas von am Rad mit ihrem AMD gehype... Spiele mit Vulkan sind mau, wer aktuell Leistung benötigt kommt leider nicht an NVIDIA vorbei... oder spielt ihr nun nur Vulkantitel?!? 😳🤔

Vielleicht werde ich einfach auch langsam alt 😂
 
@Krautmaster

Ich habe das schon verstanden. ;)

Nur verbaut AMD ja extra Hardware auf ihre Grakas. Ohne diese Asynchronous Compute Engines würde AMD bestimmt wieder schlechter als nVidia dastehen.

Man müßte bei AMD diese Asynchronous Compute Engines abschalten und dann mit nVidia vergleichen, um ein fairen vergleich machen zu können.
 
Zuletzt bearbeitet:
Im Endeffekt ist ja auch egal wie man diese Leistung erreicht. Nvidia hat unter DX11 und OpenGL wohl die besseren Treiber die eine bessere Auslastung und dadurch mehr FPS verursachen, AMD kann dafür unter DX12 und Vulkan dank AC wieder aufholen wo Nvidia gar keine Reserven mehr übrig hat. Wenn AC ein Bestandteil von DX11 und OpenGL wäre, würde AMD wohl auch da einiges mit AC ausbügeln können. Hauptsache einer der beiden APIs mit AC wird sich bald durchsetzen und AMD zieht mit ihren alten Karten hinterher, bzw kann das GFLOP Potential der 480 besser ausnutzen.

Man müßte bei AMD diese Asynchronous Compute Engines abschalten und dann mit nVidia vergleichen, um ein fairen vergleich machen zu können.

Warum? Nvidia hat es dank besserer Treiber und fehlenden Reserven ja gar nicht nötig welche zu verbauen und hat scheinbar absichtlich drauf verzichtet. Wie man die Auslastung jetzt erreicht ist ja auch egal, wichtig ist was am Ende in den Benchmarks ankommt. Wenn sich endlich das schlummernde Potential der AMD-Karten zeigt ist doch gut. ;)
 
Zuletzt bearbeitet:
@R00tMaster

nicht wirklich da da ein direkter Vergleich kaum möglich ist. ;)

Es sind einfach zwei verschiedene Ansätze so wie ich das sehe. Was jetzt besser oder schlechter ist sei dahingestellt. Sofern man ACEs perfekt unterstützt und über Async Compute auch auslastet mag man damit vielleicht besser fahren als das was Nvidia aktuell als Ansatz wählt ja, die ganzen letzten Jahre und auch bei quasi allen bestehenden Games scheint aber Nvidia tendenziell die stellenweise deutlich bessere Auslastung zu erzielen. In wie fern da nun die ACE bei AMD eine Rolle spielen (da zb nicht richtig unterstützt) sei mal dahingestellt. Bin da kein Experte für.

Edit: Wichtig ist ja das Ergebnis. Wenn das mit Vulkan oder DX12 stimmt und auch die Basis zur perfekten Auslastung von künftigen Generationen schafft - nur her damit! Nvidia kann das wegen mir auch in 5 Jahren erst unterstützen, sofern eben die eigene Auslastung krankt und somit ein Handlungsbedarf entsteht.

Fakt scheint eher der zu sein, dass Nvidia nicht länger mit viel weniger Rohleistung auflaufen kann als AMD. Ergo muss Nvidia bei breiterem Vulkan Support zb die größeren GPU rausklopfen, mehr Shader verbauen (ähnlich AMD) und ggf auch wieder die PackageDichte erhöhen.
 
Zuletzt bearbeitet:
R00tMaster schrieb:
Man müßte bei AMD diese Asynchronous Compute Engines abschalten und dann mit nVidia vergleichen, um ein fairen vergleich machen zu können.

Tüdelü, lasst uns Asnychronous Shader ausschalten, um realitätsfern wieder nVidia die längeren Balken zu geben. Beinahe Nobel-Preis-würdig, gefällt es da jemandem überhaupt nicht, dass die Radeons so gut dastehen?

Eigentlich zeigen diese Ergebnisse nur, was sich mit moderner Technologie aus Grafikkarten noch rausholen lässt. Bei AMD gewaltig viel, zum massiven Vorteil deren Kunden, bei nVidia an sich nix (da keine Asnyc-Unterstützung für Pascal gegeben ist, wird dort wahrscheinlich genau wie bei Maxwells Async-Treiber(-Lüge?), der nie kam auch kein Fortschritt mehr vorhanden sein. Der "einzige" (immer noch große) Vorteil für Geforces liegt immerhin darin, dass man praktisch den CPU-Overhead unter Vulkan beinahe komplett eliminiert.

Und jetzt geh ich fröhlich Pippi Langstrumpf vor mich hin pfeifend wieder und lass dir deine Fanboy-Welt ;)
 
Mir ist dieser FPS-Wahnsinn zum Glück egal, und da ich kein Shooter-Fan bin auch mit 60 FPS zufrieden.

Vor den 144Hz-Monitoren gabe es sogar sehr viele Gamer die behauptet haben, zwischen 30 und 60 FPS kein Unterschied zu merken (gibt es sogar heute noch welche von).
Ergänzung ()

BookerDeWitt schrieb:
Tüdelü, lasst uns Asnychronous Shader ausschalten, um realitätsfern wieder nVidia die längeren Balken zu geben. Beinahe Nobel-Preis-würdig, gefällt es da jemandem überhaupt nicht, dass die Radeons so gut dastehen?

Mir ist es wirklich schei..egal, das AMD mit Vulkan 180 FPS erreicht und nVidia "nur" 100 FPS.

Ich spiele keine Shooter und spiele nur mit 60 FPS da mein UHD 55" JS8090 eben nur 60Hz zuläßt.

Jedenfalls benötigt AMD extra verbaute Hardware, nur um unter Vulkan/ASC besser dazustehen als nVidia. Freut mich auch für die AMD-Besitzer, aber mir ist es halt Wurscht ob meine Graka nun 80 oder 180 FPS erreicht.
Mir sind nur die 60FPS wichtig, alles was darüber geht interessiert mich nicht.

Ich spiele mit meiner GTX 1070@1080p@60Hz alles unter sehr Hohen Einstellungen mit nur max.110 Watt (Graka) verbrauch, und das kann/konnte mir AMD jetzt nicht liefern. Wäre es andersrum hätte ich mir eine AMD gekauft.

Ihr immer mit eurem beklopptem Fan-Boy gelaber. Es gibt auch User da draußen denen die Marke egal ist (ich), hohe FPS unwichtig weil man keine Shooter spielt (ich) und nach Leistung+Effizienz kaufen (ich). Und da ist nVidia nunmal vorne, da kann ich auch nichts für.
 
Zuletzt bearbeitet:
Zurück
Oben