• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

Test Forza 7 Benchmark: Vega hat mehr Benzin im Blut als Pascal

Reichlich interessant was man mit Hardware/Software Scheduler sich hier alles zurechtbiegt.
Microstuttering auf Nvidia GPU´s, AMD´s tolle Zukunftsleistung.
Es ist ja gut dass das so ist aber der Glaube fehlt da doch scho dran.

tek9 schrieb:
Im gleichen Zeitraum als Nvidia sich dazu entschlossen hat mit Kepler einen auf DX11 optimierten scheduler einzuführen und weiterhin diese ineffiziente API zu unterstützen,

Ich glaube nicht dass man es sich so einfach machen kann wie es manche hier tun.
Directx11 als ineffiziente API zu beschreiben, gerade bei den vielen Problemen mit der Directx12 API und dem doch recht großen Aufwand dafür zu entwickeln, naja.

ZeroZerp schrieb:
Mensch Leute- Jeder hat hier im Netz inzwischen Zugriff auf hunderte von Tests. Man kann doch garnicht so verquert sein und den Schnitt dieser Test, also die aktuelle Realität so fehlzuinterpretieren...

Man darf sich von einem Forum eben nicht zu viel erwarten. Menschen die sich wirklich mit der Materie auskennen verkehren hier kaum und wenn doch dann bringt es kaum wos es denen zu erklärn weil de Realität oft anders aussieht als man das erhofft hat.

So zu tun als ob AMD ihre Hardware voll auf Directx12 ausgerichtet hat und Nvidia ned is einfach ein Trugschluss. Grade Nvidia pusht Directx12 und Vulkan enorm. Die ganzen Extensions für Vulkan in letzter Zeit sind schon sehr geil. :)
 
Zuletzt bearbeitet:
dass AMD unter DX 12 zumeist mehr zulegt als Nvidia liegt auch nicht an der Architektur oder deren Ausrichtung an sich, sondern daran dass AMD aktuell in vielen Fällen nur eine mangelhafte Auslastung erreicht. Ist also dasselbe wie das Argument des "langsamer altern der AMD GPU".
Für den Kunde ist das durchaus gut wenn er sich zum Zeitpunkt X für eine AMD Karte kauft die sich bei Preis Leistung natürlich daran orientieren muss was sie aktuell an Performance liefern kann. Für AMD ist das natürlich beschissen. Wäre ihre Karte schon zum Release besser ausgelastet und Vega würde immer die Performance von Forza 7 zeigen - dann könnte man auch andere Preise verlangen und Customs wären längst am Markt.
Im Prinzip haben wir eine ähnliche Situation wie damals beim Fiji Launch. Da stand die GTX 980 TI vs die Fury X, fast identisch von der Performance. Ich hab auch lang hin und her überlegt und mich aber aufgrund des besseren OC + +2 GB VRam für die TI entschieden - was auch die richtige Wahl war wie ich finde. Von der Rohleistung hatte ich erwartet dass Fiji deutlich vorbei zieht, gerade nach 1-2 Jahren. Scheint als macht da aber oft der kleine VRam eine Strich durch die Rechnung.
Damals hies es wie heute Vulcan hier, DX12 da, ... letztendlich ist es fast immer vollkommen wurst ob die Karte nach 2-3 Jahren 10-20% schneller ist. Bei Quasi Gleichstand bei der Gaming Performance und VRam Ausbau sowie Multimedia Fähigkeiten würde ich die Karte kaufen die mehr Hubraum hat, mehr Rohleitsung. So zb auch die RX 480 / 580 der GTX 1060 fast immer vorziehen. Auch die Vega 56 is vom Chip her ein Monster, gäb es gute Customs um 399€ wäre sie für viele sicher interessant und hat viel ungenutztes Potential.

Denke in 2 Jahren kann man bei den Vega Karten mehr Zuwachs sehen als bei vielen Karten zuvor. Von der Rohleistung her muss eine Vega 56 ja die 1080 Ti zum Wackeln bringen.
 
Es sind doch zu viele Dinge, die da zusammen spielen, ums an einer Sache festzumachen, woran das liegen könnte. Spiel-(Engine)-API-Treiber-GPU... Manchmal schon ein Wunder, dass es überhaupt zufriedenstellend läuft.
Dass heutzutage für jedes (wichtigere) Spiel eine Treiberoptimierung erscheint, zeigt auch, dass das ganze Thema sehr komplex geworden ist und ständig neue Workarounds notwendig scheinen.

Zum Thema AMD vs Nvidia:
Größtes Problem von AMD bleibt vorerst das liebe Geld. Ohne Geld mangelt es nicht nur bei der Entwicklung der Hardware sondern auch bei den Treibern sowie auch bei den Support für die Spieleindustrie (Stichwort Gameworks). Eigentlich sollte der Spieleentwickler dafür sorgen, dass das Spiel mit vorhandener Hardware vernünftig läuft. Nur geht's auch hier nur ums Geld (natürlich, keiner macht das für umsonst, ist auch nicht abwertend zu verstehen): Der Spieleentwickler nimmt Hilfe von den GPU-Herstellern vornehmlich Nvidia an, spart dadurch bei diversen Entwicklungen und damit läuft es mit der jeweiligen Hardware (Nvidia) besser. Dadurch steht Nvidia natürlich auch besser da, laufen die Spiele doch besser... Nur grenzt man so allmählich die Konkurrenz aus. Nvidia könnte hier sich gegen AMD locker durchsetzen, weil es AMD schlicht an Geld gefehlt hat (mussten auch gegen Intel wetteifern, einfach zu viel für den kleinen)
G-Sync ist der nächste Wurf von Nvidia, die einzige Konkurrenz weiter auszugrenzen. Im Normalfall behält man einen Monitor deutlich länger als eine Grafikkarte und wenn man sich für eine der Sync-Techniken entschieden hat, wird ein Umstieg zur anderen schwer, weil auch der Monitor gewechselt werden müsste. Somit bleibt man eher der Marke treu.
 
Benutzt man DX11 so wie es designt wurde, kann man selbst aus modernen Grafikkarten kaum die Leistung herausholen, die für anspruchsvolle Spiele nötig ist. Deswegen müssen die Spieleentwickler auf viel niedrigere Ebene auf die verschiedenen Architekturen optimieren und das geht bei DX11 eben nur, wenn man die API sehr kreativ verwendet und sich auf die "Treiber-Magie" der Hersteller verlässt. Bei DX12 hat man auf die höheren Abstraktionsebenen verzichtet und die Spieleentwickler brauchen nicht mehr herumtricksen.

nVidia schafft es offensichtlich besser die Beschränkungen von DX11 zu umgehen. Das dürfte teils daran liegen, dass sie einfach mehr Resourcen in ihre Treiberentwicklung gesteckt haben, teils aber auch einfach an ihrem Marktanteil, der ihre Karten bei sehr vielen Entwickler zur Referenzplattform macht. Die "Entwicklungshilfe" in Form von nVidia-Entwicklern, die zu den Studios geschickt wurden tut ihr übriges.

Während nVidia sich einfach "durchgewurschtelt" hat, hat man bei AMD sich mehr auf die "saubere" Lösung konzentriert, sprich die Low-Level APIs. Damit fällt die Notwendigkeit der Umgehung der API zum größten Teil weg und auch die Treiber könnten wieder sehr viel schlanker werden, weil Spiele-spezifische Optimierungen nun auch direkt in den Spielen selbst enthalten sein können stattt sie in die Treiber zu integrieren, wo sie aus Architektursicht nichts verloren haben.

Der Umstand, dass nVidia unter DX12 nur wenig gewinnt bzw. teils sogar verliert hängt mMn hauptsächlich an zwei Umständen. Erstens schafft es nVidia bereits bei DX11 die größten Beschränkungen effizient zu umgehen. Das mag aus Entwickler-Sicht eher unschön sein, aber dem Kunden ist es im Endeffekt egal. Zweitens schaffen die Spiele-Entwickler es bisher nur selten den DX12-Pfad so gut auszunutzen wie das bei DX11 der Fall ist. Es fehlt einfach die langjährige Erfahrung.
Wenn DX12 langsamer als DX11 ist (bei gleichem Featureset) liegt das einfach daran, dass die Studios nicht den gleichen Grad der Optimierung bei DX12 hinbekommen wie die GPU-Hersteller in ihren Treibern bei DX11. Hier sind mMn die GPU-Hersteller gefragt Tools und Bibliotheken zu entwickeln, die die gleichen Optimierungen wie die DX11-Treiber enthalten.
 
Zuletzt bearbeitet:
@Limit
Danke für eine der aufschlussreichsten Erläuterungen in diesem Thread!

Es gibt die APIs, Graka Treiber und die Spieleentwickler. Jeder für sich kann 'sein Ding' machen... so sind aber alle im Zusammenspiel Verantwortlich für die Spieleleistung, die auf dem Schirm ankommt.
Jetzt ist mit Forza 7 ein Spiel auf dem Markt, wo dieses Zusammenspiel zeigt was Vega leisten KANN....
 
Limit schrieb:
Wenn DX12 langsamer als DX11 ist (bei gleichem Featureset) liegt das einfach daran, dass die Studios nicht den gleichen Grad der Optimierung bei DX12 hinbekommen wie die GPU-Hersteller in ihren Treibern bei DX11. Hier sind mMn die GPU-Hersteller gefragt Tools und Bibliotheken zu entwickeln, die die gleichen Optimierungen wie die DX11-Treiber enthalten.

Ja kann sein dass die GPU-Hersteller hier noch was tunen müssen in Ihren Treibern.
Aber faktisch auffällig ist doch dass AMD beim internen DX11 vs DX12 Vergleich selten bis nie schlechter ist in DX12 als in DX11. Und in der Regel sogar gewinnt.
Noch deutlicher ist der Effekt in der Regel auf einem non-Intel CPU.

Auf der anderen Seite gibt es eigentlich so gut wie kein Beispiel in welchem nVidia in DX12 relativ zu sich selbst in DX11 besser oder zumindest gleich gut dasteht.

Also wo soll AMD hier noch optimieren in DX12 ? Läuft doch mindestens so gut wie in DX11.
nVidia hingegen...eher nicht.
 
Da für LL APIs nicht mehr viel im Treiber zurecht gebogen werden kann wenn die Game Devs mist bauen, muss dies bereits in der Engine oder den Hersteller Frameworks erfolgen.

Da nVidia sich lieber damit beschäftigt den Code in Gameworks für DX11 anzupassen und die Devs nicht dabei unterstützt ihre Spiele mit DX12 zu entwickeln, herrscht seit 2013 Stillstand.

Mit dem fetten Marktanteil könnte nVidia kurzerhand durch regieren.
 
Erstaunlich wie sehr auch die Ryzen den ehemals großen Vorsprung von Intel eingedampft haben!

Ich finde die letzten Beiträge sehr gelungen! Danke Dafür!
 
Zuletzt bearbeitet:
Iscaran schrieb:
Ja kann sein dass die GPU-Hersteller hier noch was tunen müssen in Ihren Treibern.
An den Treibern dürfte es nicht so sehr liegen, denn als Low-Level API bietet DX12 da bei weitem nicht so viel Spielraum. Die ganzen Optimierungen kommen nun nicht mehr in den Treiber, sondern in die Programme. Erleichtert könnte das werden, wenn Bibliotheken entwickelt würden, die bereits optimierten Code bereitstellen. Das könnten die GPU-Hersteller übernehmen, da diese erstens ihre Architektur besser kennen als irgendwer anders und ein Großteil dieser Optimierungen sowieso schon haben und zwar in ihren DX11-Treibern.

Iscaran schrieb:
Aber faktisch auffällig ist doch dass AMD beim internen DX11 vs DX12 Vergleich selten bis nie schlechter ist in DX12 als in DX11. Und in der Regel sogar gewinnt.
Das dürfte weniger an der Architektur oder den DX12-Treibern liegen, sondern einfach daraus resultieren, dass DX11 bei AMD ein deutlicher Flaschenhals darstellt, so dass selbst einfache DX12-Implementierungen ohne größere Optimierungen bessere Ergebnisse liefern. Das bedeutet keinesfalls, dass AMD eine in irgendeiner Weise herausragend gute DX12-Implementierung besitzt.

Iscaran schrieb:
Noch deutlicher ist der Effekt in der Regel auf einem non-Intel CPU.
Die AMD-Treiber dürften gut auf AMD-CPUs optimiert sein.

Iscaran schrieb:
Auf der anderen Seite gibt es eigentlich so gut wie kein Beispiel in welchem nVidia in DX12 relativ zu sich selbst in DX11 besser oder zumindest gleich gut dasteht.
Die Optimierungen, die die Studios in ihre DX12-Implementierungen einbauen sind einfach noch nicht so gut wie die, die nVidia in ihre DX11-Treiber einbaut.

Iscaran schrieb:
Also wo soll AMD hier noch optimieren in DX12 ? Läuft doch mindestens so gut wie in DX11.
nVidia hingegen...eher nicht.
Wie bereits gesagt, bei DX12 müssen in erster Linie die Spielestudios optimieren. AMD und nVidia können ihnen dabei bestenfalls durch Bereitstellung von Informationen, Tools und Bibliotheken helfen.

Insgesamt denke ich, dass das Potential bei DX12 bisher nur sehr selten ausgeschöpft wurde. Das sieht man eben an den nVidia-Ergebnissen wo DX11 schneller ist, denn aus Architektursicht müsste DX12 in jedem Fall min. gleich schnell sein, denn die Optimierungen, die der nVidia DX11-Treiber enthält könnten die Studios bei DX12 auch in ihre Spiele einbauen.
 
Zuletzt bearbeitet: (kürzen)
Taxxor schrieb:
Du meinst die Technik, in der Vega mittlerweile sogar bis zum Faktor 14 weniger Leistung verliert als Nvidia, solange man dem Spiel nicht einen unnötig hohen Tesselation Faktor aufdrückt

Das war lediglich ein Beispiel für unterschiedliche Performance verschiedener Architekturen. Darfst diesbezüglich auch gerne GCN1 mit GCN3 vergleichen, dann kannst du dir das unnötige Nvidia-Gebashe sparen.
Ergänzung ()

Taxxor schrieb:
Das hatte ich schon übernommen mit den 20% Leistungsverlust der 1080 in Battlefield 1, wenn man DX12 nutzt, während AMD dadurch gewinnt. Hast du anscheinend ignoriert.

Habe ich nicht ignoriert, Mr. Cherrypicker. Es gibt genügend Beispiele, die meine Aussage untermauern.
Ergänzung ()

Taxxor schrieb:
Es gibt halt wenige Spiele die DX11 und DX12 Versionen haben,)

Immerhin schön, dass du es selbst gefunden hat.
Ergänzung ()

tek9 schrieb:
weil mit Maxwell und Pascal seit Jahren DX12 Entschleuniger in großen Stückzahlen verkauft werden.

Du weißt aber schon, dass DX12 nichts schneller macht als DX11, sofern man nicht unter Dx11 in irgendwelche Limits der API rennt?
Wie soll den auf der gleichen Hardware eine API schneller als die andere sein?
 
@Limit

Insgesamt denke ich, dass das Potential bei DX12 bisher nur sehr selten ausgeschöpft wurde. Das sieht man eben an den nVidia-Ergebnissen wo DX11 schneller ist, denn aus Architektursicht müsste DX12 in jedem Fall min. gleich schnell sein, denn die Optimierungen, die der nVidia DX11-Treiber enthält könnten die Studios bei DX12 auch in ihre Spiele einbauen.

Da liegt der Hase im Pfeffer. Und zeigt deutlich, wo die Probleme im Augenblick vorherrschen. Die Hersteller sollen sich jetzt nicht mehr nur um die optimierte Übergabe der Daten von Engine an die DXAPI Kümmern, sondern auch noch um die Hardwaregenaue Ansteuerung.

DX12 entfernt sich also wieder von dem, wofür die DX API ursprünglich gedacht war->Als einfacher, leistungsfähiger abstraction layer, der den Spieleentwicklern durch Standardisierung das Leben leichter machen sollte.

DX11 ist eine inzwischen erheblich optimierte Variante in der x-ten Iteration. Über Jahre gewachsen und den laufendem Bedarf angepasst und alles andere als "den modernen Anforderungen an die Spieleprogrammierung nicht gewachsen".
Sowas macht ein Spielestudio mal nicht ebenso "besser", welches sich auf ganz andere Aufgaben konzentrieren sollte.

Das sieht man sehr schön an den Auswüchsen und der überwiegend schlechten Implementierungen von DX12 und ich weiss nicht, ob das der richtige Weg ist, der da gerade eingeschlagen wird, da DX12 inzwischen zu Unrecht ein schlechtes Image anhaftet.

Aus DX12 wird vielleicht in 2-4 Jahren mal ein ordentlicher Leistungszuwachs generiert, wenn die API besser "erforscht" ist und auch die ersten Tricks unter den Programmierstudios die Runde gemacht haben. Aber jetzt sind wir gerade mal an dem Punkt an dem DX11 im Alltag angekommen ist.

@Kisser
Du weißt aber schon, dass DX12 nichts schneller macht als DX11, sofern man nicht unter Dx11 in irgendwelche Limits der API rennt?
Bingo...

Grüße
Zero
 
Zuletzt bearbeitet:
ZeroZerp schrieb:
Da liegt der Hase im Pfeffer. Und zeigt deutlich, wo die Probleme im Augenblick vorherrschen. Die Hersteller sollen sich jetzt nicht mehr nur um die optimierte Übergabe der Daten von Engine an die DXAPI Kümmern, sondern auch noch um die Hardwaregenaue Ansteuerung.
Ganz so Low sind die Low Level APIs zwar nicht, aber tendenziell ist das sicherlich korrekt. Das bedeutet allerdings nicht, dass sie das zwangsweise alles selbst machen müssen. Web-Entwickler müssen ja auch nicht den ganzen Web-Stack selbst implementieren, sie nutzen einfach optimierte Bibliotheken und Frameworks. Genauso könnte das hier laufen. AMD und nVidia oder auch irgendjemand anderes schreibt hochoptimierte Bibliotheken, die die Optimierungen vornehmen, die bei DX11 die Treiber übernommen haben. Der Vorteil im Vergleich zu DX11 wäre dabei nicht nur ein saubereres Design, sondern auch dass die Spiele-Entwickler nicht auf Gedeih und Verderb auf die Treiber-Entwickler der Hersteller angewiesen wären. Hier würde sich sogar ein Open Source Modell anbieten, so dass "alle" Spiele-Entwickler gemeinsam mit den Treiber-Herstellern an der Optimierung arbeiten könnten.

ZeroZerp schrieb:
DX12 entfernt sich also wieder von dem, wofür die DX API ursprünglich gedacht war->Als einfacher, leistungsfähiger abstraction layer, der den Spieleentwicklern durch Standardisierung das Leben leichter machen sollte.
Richtig. Der Grund dafür ist aber einfach der, dass ab einem gewissen Leistungsbedarf die alte API ein Bremsklotz darstellt, der mit großem Aufwand umgangen werden muss. Für weniger anspruchsvolle Software ist DX11 sicherlich noch lange Zeit absolut ausreichend, aber für max. Leistungsfähigkeit bedarf es entsprechender Optimierung, die DX11 einfach nicht vorsieht.

ZeroZerp schrieb:
DX11 ist eine inzwischen erheblich optimierte Variante in der x-ten Iteration. Über Jahre gewachsen und den laufendem Bedarf angepasst und alles andere als "den modernen Anforderungen an die Spieleprogrammierung nicht gewachsen".
DX11 wurde nicht angepasst, es ist immer noch das selbe wie bei seinem erscheinen. Was sich geändert hat ist wie die Entwickler die API verwenden. Die Software-Entwickler haben zusammen mit den Treiber-Entwicklern immer mehr Wege gefunden/geschaffen um um DX11-Beschränkungen herum zu entwickeln.

ZeroZerp schrieb:
Das sieht man sehr schön an den Auswüchsen und der überwiegend schlechten Implementierungen von DX12 und ich weiss nicht, ob das der richtige Weg ist, der da gerade eingeschlagen wird, da DX12 inzwischen zu Unrecht ein schlechtes Image anhaftet.
Das verbuche ich noch unter Kinderkrankheiten. Viele DX12-Implementierungen dürften mehr schlecht als recht angepasste DX11-Implementierungen sein. Mit steigender Erfahrung und besseren Tools / Bibliotheken dürfte die Qualität der DX12-Implementierungen besser werden.

ZeroZerp schrieb:
Aus DX12 wird vielleicht in 2-4 Jahren mal ein ordentlicher Leistungszuwachs generiert, wenn die API besser "erforscht" ist und auch die ersten Tricks unter den Programmierstudios die Runde gemacht haben. Aber jetzt sind wir gerade mal an dem Punkt an dem DX11 im Alltag angekommen ist.
Was DX12 angeht stimme ich dir zu, aber DX11 ist bereits schon lange nicht mehr adequat. Das sieht man daran wieviel Aufwand getrieben werden muss um die Unzulänglichkeiten von DX11 zu umgehen.
 
kisser schrieb:
Du weißt aber schon, dass DX12 nichts schneller macht als DX11, sofern man nicht unter Dx11 in irgendwelche Limits der API rennt?
Wie soll den auf der gleichen Hardware eine API schneller als die andere sein?

Das Problem aber ist, mit heutigen Games rennt man ohne Gamemurks Treibermagie fast immer in das Limit der API.

Da muss man also entscheiden ob man drum herum wursteln will oder gleich die neue API nehmen will, wo die Rechenlast von Haus aus besser verteilt wird.

Aber solange Win 10 noch nicht sehr verbreitet ist und Pascal noch da ist wird weiter gewurstelt.

Ein paar mehr Vulkan Games wären chick.
 
So dass Problem wird irgendwann NV massive einholen mit DX12 und dass ihre GPUS einfach zu Groß werden und genau da kann und wird AMD dass Blatt wenden genau wie Gameworks unter Vulkan und DX12 nicht so gut funktioniert. ;-)

Aber nach 6 Jahren wird es endlich mal zeit dass DX12 sich mehr Verbreitet.
 
Gschwenni schrieb:
Directx11 als ineffiziente API zu beschreiben,

Also Flaschenhälse hat die API schon, das kann man nicht bestreiten, aber man kann durch clevere Programmierung diese weitestgehend umschiffen. Bei Dx12 muss man die Flaschenhälse schon selbst programmieren, wie man z.B. an Forza 7 sieht (CPU-Limit bei den min-Frames in 4k Auflösung :rolleyes:).
 
@Kisser du ignorierst alles oder?
 
Limit schrieb:
An den Treibern dürfte es nicht so sehr liegen, denn als Low-Level API bietet DX12 da bei weitem nicht so viel Spielraum. Die ganzen Optimierungen kommen nun nicht mehr in den Treiber, sondern in die Programme. Erleichtert könnte das werden, wenn Bibliotheken entwickelt würden, die bereits optimierten Code bereitstellen. Das könnten die GPU-Hersteller übernehmen, da diese erstens ihre Architektur besser kennen als irgendwer anders und ein Großteil dieser Optimierungen sowieso schon haben und zwar in ihren DX11-Treibern.
Aber wenn jeder GPU Hersteller wieder seine eigenen Bibliotheken für DX12 entwickelt und zur Verfügung stellt, wären wir dann nicht wieder beim Gameworks Konzept?

Das dürfte weniger an der Architektur oder den DX12-Treibern liegen, sondern einfach daraus resultieren, dass DX11 bei AMD ein deutlicher Flaschenhals darstellt, so dass selbst einfache DX12-Implementierungen ohne größere Optimierungen bessere Ergebnisse liefern. Das bedeutet keinesfalls, dass AMD eine in irgendeiner Weise herausragend gute DX12-Implementierung besitzt.
Ich denke das liegt durchaus auch mit an der Architektur. AMD verbaut traditionell relativ viele ALUs und hatte unter DX11 und davor immer sehr viele Probleme die richtig mit Arbeit zu versorgen.
Mit DX12 und Async Compute sollte das viel leichter werden, ohne dass man, wie NVidia, viel Zeit in Treiberoptimierung stecken muss. Daher denke ich, dass AMD unter DX12 gerade mit Async Compute (quasi als metaphorisches Hyperthreading auf der GPU) deutlich häufiger in den Bereich der theoretisch erzielbaren Rechenleistung kommen wird und damit auch deutlich näher an NVidia heran, die das auch unter DX11 schon vergleichsweise gut managen.

Generell sehr interessant deine Ansichten. Hast du dich schon mal direkt mit DX12/Vulkan und Grafikprogrammierung außeinandergesetzt?
 
modena.ch schrieb:
Das Problem aber ist, mit heutigen Games rennt man ohne Gamemurks Treibermagie fast immer in das Limit der API.

ist das so? Wenns drum geht 400 FPS in FHD auszugeben mag das sein, aber es gibt viele Titel bei denen DX12 / DX11 kaum was bringt (bei AMD wie Nvidi) oder zT sogar DX12 leicht langsamer ist. In den Fällen wird dann wohl auch kaum ein API Limit vorliegen.
 
Zurück
Oben