Bericht Doom mit Vulkan: Benchmarks zeigen bis zu 66 Prozent mehr FPS

issenia schrieb:
Ja genau. NVidia kann da noch viel rausholen.... Und das werden sie auch vielleicht irgendwann. Schließlich versuchen Sie das schon seit einem Jahr für die Maxwell.
Ich habe gesagt, dass sie dort Potenzial haben. Das bedeutet, dass es dort eine MÖGLICHKEIT gibt etwas zu verbessern.
Du behauptest hier, dass sie dort viel herausholen werden. Nicht ich.

Es ist aber für gewöhnich schon so, dass die ersten Treiber einer neuen Chipgeneration nie die performantesten sind und das dort gerade zu Beginn des Produktzyklusses immer noch einiges drin steckt. Ein Jahr nach dem Release sind Karten bisher für gewöhnlch immer 10% schneller gewesen alleine durch die Tatsache, dass die Hersteller ihre ursprünglichen Treiber weiterhin verbessert haben. Mit DX12 und Vulkan wird das zwar schwieriger, weil viel weniger vom Treiber verwaltet wird, aber AC wird bei nVidia wie gesagt zum großen Teil immer noch vom Treiber verwaltet. Man könnte also auch dort annehmen, dass eventuell noch 10% Mehrleistung im Bereich AC-Scheduling innerhalb des nächsten Jahres zu erwarten sind. Auswirken wird sich das aber vielleicht höchstens in 1% auf's Spiel, schließlich ändert sich an den Warp-Schedulern in der Hardware selbst nichts.
 
@noxon
Hast wohl die Ironie in meinem Post nicht gefunden. Macht aber nichts.
Ob nVidia irgendwo ein Potential im Treiber noch brach liegen hat, ist reine Spekulation. Noch spekulativer ist es anzunehmen, dass nVidia dieses evtl. vorhandene Potential tatsächlich auch in Leistung ummünzen werden.
Aus meiner Sicht ergibt sich einfach folgendes Bild:
nVidia wird die User einfach weiter mit Versprechungen wie bereits seit einem Jahr füttern, bis dann Volta mit ebenfalls AC in Hardware daherkommt.
Und wie schon in der Vergangenheit, wird dann mit Maxwell und Pascal das gleiche passieren wie früher z.B. mit meiner schönen alten Kepler. Die werden wie eine heiße Kartoffel fallen gelassen.
 
Zuletzt bearbeitet:
Ist schon Interessant eine R9 290x lässt eine GTX 980 im Regen stehen mit Vulkan. Und bei der GTX 980 wird schon seit 1 Jahr versprochen das Async Compute nachgereicht wird! Wo bleibt es? Wo sind die Performancezuwächse? So langsam wird es peinlich für Nvidia? Wer will Karten mit einem Mindeshaltbarkeitsdatum kaufen.
https://www.youtube.com/watch?v=WOaHpZjQ73M
 
Zuletzt bearbeitet:
Wobei ich bei Nvidia den immer etwas knapp bemessenen Vram schlimmer finde. Somit wird man meistens etwas schneller zu einem Upgrade gezwungen obwohl der Chip noch gar nicht so schlecht wäre....
Erst jetzt mit Pascal hat man 8GB oder eben auch früher mit der Titan zum absoluten Wucherpreis...

Seit der R9 290 glaube ich gibt es die Karten schon mit 8GB. Jetzt also auch heute noch kann man in zum Beispiel Doom die Alptraumeinstellung wählen und dank Vulkan ist man gar nicht mal so schlecht mit dabei...

Gut HBM hat auch nur 4 aber da wird das Ganze anders verwaltet bzw sparsamer umgegangen!
Kann man mit der Fury X eigentlich die Albtraumeinstellung wählen? Glaube nicht oder?!

Denke Doom wird sagen 4GB sind 4GB, mir scheiß egal ob HBM oder nicht!!! :evillol:
 
Zuletzt bearbeitet:
noxon schrieb:
Das ist ein Vergleich zwischen der Vulkan Low Level API und OpenGL High Level API Version. Daraus kannst du keinerlei Rückschlüsse auf AC ziehen. AC ist nur ein kleiner Teil der neuen API. viele Optimierungen liegen auch in anderen Bereichen, die mit AC nichts zu tun haben.

Und? Ein Async On vs Off Vergleich wäre meiner Meinung nach trotzdem interessant.
 
@VAN DOOM: Ja könnte man, gibts hierfür einen Steam Startbefehl: "+menu_advanced_AllowAllSettings 1"

@zeedy: Ja und hat irgendwo in den ersten paar Seiten schon mal einer gemacht. Hat nur scheinbar keinen gejuckt, oder keiner hats verstanden.

Man braucht doch nur mit SMAA benchen, und schon hat man Vulkan ohne AC.
 
Zuletzt bearbeitet:
hübie schrieb:
Die Nano hält den Takt aber im Gegensatz zu anderen. Und hier werden 12 Thread gut ausgelastet. Vulkan ist deutlich unabhängiger von der CPU wie du im 3DC nachlesen kannst. Meine CPU fährt ja nicht ständig die vollen 4172 MHz aus ;) Das dürfte schon so passen - vor allem unter 4k wo die CPU doch deutlich mehr in den Hintergrund rückt.
Hast du da zufällig irgendwelche haltbaren Daten zu? Die simple Behauptung, dass das schon passt macht es nicht wirklich glaubwürdiger. Zumal die Nano immer noch keine Fury X ist, ob sie ihren Takt nun konstant hält oder nicht.

hübie schrieb:
Das ist die Boost-Geschichte von NVIDIA. Der Grundtakt dürfte bei so ziemlich keiner Karte in freier Wildbahn anliegen. Ich hatte mir mal die Arbeit gemacht, alle Karten die im Hardwareluxx gelistet sind zu nehmen und einen Schnitt zu errechnen. Boost war im Mittel bei 1311 MHz bei 69% ASIC und 1,19 Volt. 1076 ist da wie gesagt sehr konservativ. Wohingegen AMDs Karten den Takt nutzen der da steht. Erst mit der RX 480 hat sich das etwas verändert.
Wie kommst du darauf, dass CB mit dem Grundtakt gebencht hat? Dazu steht hier gar nichts, ergo sollten das alles Stock-Karten sein ohne OC, aber mit allen werksseitigen Features. Also auch mit Boost.
 
VAN DOOM schrieb:
Hm. Mal gucken wie sich das entwickelt.

Bei HWL ist die 1080 zumindest dabei und bei Full HD merkt man schon eine Steigerung. In 2560x1440 wiederum seitens Nvidia kaum...
Hardwareluxx
Habe jetzt nichts gefunden, was für eine CPU benützt wird, aber bei einer langsamen gewinnen auch Nvidia Karten viel, während hier bei CB ja ein auf 4,5 GHz getakteter 6700K ist und deshalb eher kein CPU Limitierung stattfindet.
 
Zuletzt bearbeitet:
cruse schrieb:
NV muss für die "1180" hier definitiv massive designänderungen vornehmen ;)
"Müsste" soll hier wohl stehen. ;)
Für Pascal ist der Drops gelutscht. Das können die erst mit Volta.
 
zeedy schrieb:
Und? Ein Async On vs Off Vergleich wäre meiner Meinung nach trotzdem interessant.
Ja, aber nur geht das nicht mit der Version von Doom. du kannst AC nicht einfach einschalten und wieder ausschalten.
Da kann man CB und anderen Testern also keinen Vorwurf machen die nicht zu testen. Wie sollen sie dies denn machen?
AC kann man auf AMD Systemen nur deaktivieren, wenn man gleichzeitig ein anderes AA Verfahren verwendet. Wenn man es wieder aktivieren will muss man auch wieder ein anderes AA Verfahren auswählen.
Man weiß beim Vergleich also nicht, wodurch die Unterschiede zustande kommen. Durch AC oder durch die unterschiedlichen AA Verfahren.
 
noxon schrieb:
Das interessiert die Entwickler doch nicht, ob es hardwareseitig unterstützt wird oder nicht. Wichtig für sie ist, wie es funktioniert. Von euch Trollen scheint hier wohl keiner den wirklichen Unterschied zwischen den Impementierungen zwischen AMDs und nVidias AC zu verstehen..

Danke für die Erklärung. Leider sind einige Forennutzer in solchen Threads sehr lernresistent, selbst wenn du auf jeder Seite die Technik nochmal erklärst.

Ich empfehle dazu die Erklärung von wccftech und insbesondere diese Abschnitte.

Graphics and compute workloads are assigned to specific blocks in Nvidia GPUs. With Maxwell this meant that the developer had to sort of guess how the compute and graphics workload should be split via static partitioning. Meaning the developer would say OK I want graphics to get this much and compute to get this much of the resources. Unfortunately this would result in a highly inefficient mixed workload unless the developers was able to get the ratio just right, which is extremely difficult. Otherwise either the graphics or the compute part of the workload would finish first and the a portion of the GPU’s resources would have to wait idly by until the other part is done to start working on the next thing.

What Dynamic Load Balancing does is it allows the workload to be partitioned dynamically. This means that the developer doesn’t really have to guess anymore because the GPU will now take over this responsibility. If either the graphics or compute workload are completed first, the other workload gets picked up and distributed to the rest of the GPU’s resources that have finished their work. The result is all parts of the GPU will be put to work and nothing will go to waste, completing the task faster and improving performance as a result.
http://wccftech.com/nvidia-geforce-gtx-1080-dx12-benchmarks/

Vereinfacht ausgedrückt, wenn man es mit CPUs vergleichen wollte, liefert AMD eine GPU mit vielen Kernen und hoher Rohleistung. Der Anwender muss sich darum kümmern diese entsprechend mit Daten zu füttern. Gut optimierte Software kann von dieser Technik profitieren, der Aufwand für die Entwickler ist aber höher.

Nvidia ist hier vom Prinzip schon einen Schritt weiter. Deren Entwicklung ist weiter fortgeschritten weiter und man schaltet einen Load Balancer ein der die Last entsprechend aufteilt. Das senkt den Entwicklungsaufwand und lastet die Kerne besser auch wenn die Software nicht bis ins letzte Detail optimiert wurde.

Das ganze hat eine Ähnlichkeit mit VISC auch wenn systembedingt die Details anders ausfallen.
http://wccftech.com/intel-inverse-hyper-threading-skylake/
VISC_Title-635x398.jpg
 
Zuletzt bearbeitet:
Mit meiner 960 läuft DOOM unter Vulkan viel schlechter, als mit OpenGL. Schon enttäuschend, daß nvidia bei nextgen-Schnittstellen so underperformed.
 
ampre schrieb:
Ist schon Interessant eine R9 290x lässt eine GTX 980 im Regen stehen mit Vulkan. Und bei der GTX 980 wird schon seit 1 Jahr versprochen das Async Compute nachgereicht wird! Wo bleibt es? Wo sind die Performancezuwächse? So langsam wird es peinlich für Nvidia? Wer will Karten mit einem Mindeshaltbarkeitsdatum kaufen.

Das ist falsch. In diesem Fall steht "Zu verbrauchen bis.. oder verwendbar bis.." im Raum :D
 
Web-Schecki schrieb:
Nvidia darf ja gar kein AC implementieren, stimmt. Total der unfaire Nachteile. Das selbe macht AMD ja andauernd mit GSync, CUDA, PhysX.. oh wait!

natürlich darf Nvidia AC implementieren, wieso aber sollten sie sofern es keinen wirtschaftlichen Vorteil bietet. Du schreibst ja kurz zuvor selbst

Bei Vulkan/DirectX12 kann man recht pauschal sagen: Mehr FLOPS sind meistens auch mehr FPS.

und damit hast du auch recht. Zeigt aber auch wie wenig die Nvidia Karten wohl selbst mit perfektem AC zulegen könnten... wenig bis gar nicht. Ob du nun deine GPU ohne AC mit 95% auslastest oder mit AC mit 98% is recht egal. Genau danach siehts ja bei der GTX 1080 zb aus.
 
xexex schrieb:
Ich empfehle dazu die Erklärung von wccftech und insbesondere diese Abschnitte.

Wunderbar, wccftech als Quelle anzugeben ist wie seine Masterarbeit mit Wikipedia zu machen..


xexex schrieb:
[BLUBB BLUBB]

Nvidia ist hier vom Prinzip schon einen Schritt weiter. Deren Entwicklung ist weiter fortgeschritten weiter und man schaltet einen Load Balancer ein der die Last entsprechend aufteilt. Das senkt den Entwicklungsaufwand und lastet die Kerne besser auch wenn die Software nicht bis ins letzte Detail optimiert wurde.

nVidias weiter fortgeschrittene Technik sieht man ja zu Beispiel auch in diesen Benchmarks, das stimmt natürlich ;)

Genau wie noxon meinte, AMD hat zwar mehrere Pipelines aber einfach überhaupt keinen Zugriff auf diese (Quelle?^^). Schrecklich dieses GCN, erledigt alles in Hardware, was, wie man sieht wohl besser funktioniert. Aber natürlich ist der lang versprochene Async-Shader-Treiber bei nVidia dazu in der Lage, man will ihn nur noch nicht veröffentlichen, man wartet ja nur schon bereits ein Jahr drauf.

Wer Ironie findet:

Diese ist beabsichtigt und darf behalten werden.
 
issenia schrieb:
Ja genau. NVidia kann da noch viel rausholen.... Und das werden sie auch vielleicht irgendwann. Schließlich versuchen Sie das schon seit einem Jahr für die Maxwell..

das ist doch dasselbe wie das was bisher immer beim AMD Kauf bezüglich "Zukunftstauglichkeit" rangezogen wurde. Weniger alten usw...

Ich hatte eher spekuliert dass Fiji binnen 12 Monaten gut 10-20% zulegt, Pustekuchen, in normalen Titeln quasi gar nichts. Kann eben sein, muss aber nicht. Deswegen versteh ich auch diejenigen die ihre GPU strickt nach einem bestehenden Rating kaufen und nicht auf "was wäre wenn vielleicht".

Das sind nun also quasi dieselben Argumente nur auf anderer Seite ;)

Ich denke nicht das Maxwell oder Polaris da groß zulegen könnten, egal wie Nv sich anstrengt und auch egal wie gut AC funktioniert.

Wenn Nvidia mit AC ihre Auslastung von 90 auf 99% steigern kann funktioniert es quasi perfekt, nur sieht es halt mau aus gegen AMD die ihre GPU Auslastung dann vielleicht von 60 auf 95% steigern können. Wie gut AC funktioniert kann man schwer am "Balkenunterschied" festmachen.
Ergänzung ()

issenia schrieb:
NVidia hat bereits angekündigt, dass sie mit der nächsten Generation (Volta) eine GCN-ähnliche Architektur einsetzen werden.
Wer da noch an irgendwelche Versprechungen in Bezug auf Maxwell und Pascal glaubt, ist wahrscheinlich sehr leichtgläubig.

das mag durchaus stimmen. Aber ich denke diese Erwartungshaltung ist da auch weniger verbreitet wie zb bei AMD. Möglich das Nvidia das Design ändert und damit machen sie auch alles richtig. Dann hatten sie über JAHRE das effizientere Design und haben sich dank diesem Designs die Marktanteile erkämpft. Merkst was? ^^

Ab einer gewissen Shaderzahl muss Nvidia vielleicht auch wieder ein Architekturwechsel vollziehen. Aber ganz ehrlich, so wo is das Problem? Meine Auffassung von GPU definiert sich weniger dadurch wie schnell diese noch nach 4-5 Jahren sind. Bei den meisten wird der Zyklus eher kürzer sein.

Maxwell hat bald 2 Jahre ins Land und lag da quasi immer vorn + war effizienter. Wenn 2018 dann jeder AA Titel auf Vulkan setzen mag wird bei den meisten wohl die nächste GPU drin stecken, lass rot oder grün sein, vollkommen egal. Dann juckt Maxwell keinen mehr wenn dessen Architektur vielleicht 20% gegenüber GCN eingebüßt hat.

Edit: Aktuell ist es natürlich schwer da man nicht weiß wie DX12 / Vulkan vom Markt angenommen wird. Also wieder das Glückspiel als Käufer. Such ich anhand des Ratings oder anhand des Doom Titels meine GPU raus?
 
Zuletzt bearbeitet:
BookerDeWitt schrieb:
nVidias weiter fortgeschrittene Technik sieht man ja zu Beispiel auch in diesen Benchmarks, das stimmt natürlich ;)

Die Frage ist - was siehst DU in diesen Benchmarks was andere anscheinend nicht sehen?

Was ich sehe ist, dass AMD derzeit in EINEM Spiel eine gute Performance abliefern kann und dieses eine Spiel anscheinend die Architektur von AMD gut ausnutzen kann. Auf der anderen Seite sehe ich, dass Nvidia sonst der AMD Hardware überlegen ist und nicht einmal eine der Fury entsprechende Karte auf dem Markt hat. Wobei eigentlich schon, allerdings ist die Titan X heutzutage nicht mehr relevant.

Nvidia hat hier geschafft, was Intel seinerzeit geschafft hat als die Bulldozer Architektur vorgestellt wurde. Sie haben in der Vergangenheit und auch in der heutigen Zeit Chips auf dem Markt, die mit der vorhandenen Software besser umgehen können. AMD hat hingegen Hardware entwickelt die nur theoretisch viel Leistung bietet sowohl mit Bulldozer "damals" als auch mit den jetzigen Grafikchips.

Es ist schön, wenn die Software langsam auf diese Architektur optimiert wird und man hier und dort Ergebnisse zu sehen bekommt die man sich erhofft hatte. Davon kann sich aber weder AMD noch der Kunde was kaufen. Was zählt ist die Leistung hier und jetzt. Auf Hoffnungen und Versprechen baut man kein Produktportfolio auf, das ist verfehlte Produktpolitik. Wegen dieser Politik konnte sowohl Intel als auch Nvidia bis heute die Preise diktieren und AMD musste ihre Hardware zu Schleuderpreisen verkloppen.
 
Zuletzt bearbeitet:
Bei DF wurde der Vulkan Patch ebenfalls getestet: https://www.youtube.com/watch?v=ZCHmV3c7H1Q

Kommen auch zum Schluss, dass vor allem AMD der Nutznießer von Vulkan ist, da eben Shader besser ausgelastet werden, als auch der CPU Overhead deutlich reduziert wird. Beachtlich ist jedenfalls, dass die Fury X die 1070/980ti teils nen Stück hinter sich lässt. Power hat das Teil also, wird nur oftmals nicht gut ausgenutzt, aber das ist ja bekannt.
 
Zuletzt bearbeitet:
Zurück
Oben