News Microsoft: DirectX 12 erhält Raytracing-API DXR für Hybrid-Rendering

Jein, soweit ich mich erinnere wollte der professionelle Part bei OpenGL bleiben, wodurch beide APIs eher eine Coexistenz bilden werden.
Die Frameraten orientierte Fraktion mit nicht allso hohen Anspruch an die Präzision der Berechnungen kann bei Bedarf zu Vulkan wechseln und der Rest bleibt einfach bei OpenGL.
In meinen Augen ist das die weitaus bessere Lösung.
 
Wadenbeisser schrieb:
Jein, soweit ich mich erinnere wollte der professionelle Part bei OpenGL bleiben, wodurch beide APIs eher eine Coexistenz bilden werden.

Das mag sein, die Entwicklung ist aber weniger gewollt als erzwungen.

Vulkan, formerly named the "Next Generation OpenGL Initiative" (glNext),[47][48] is a grounds-up redesign effort to unify OpenGL and OpenGL ES into one common API that will not be backwards compatible with existing OpenGL versions.[49][50][51]

https://en.wikipedia.org/wiki/OpenGL

Damit schließt sich eben der Kreis und es kommt noch zusätzlich das Problem dazu, dass die Interessen zwischen einer Weiterentwicklung von OpenGL und Migration zu Vulkan aufgeteilt werden. Grundsätzlich fehlt jedoch eine treibende Kraft die hinter Vulkan stehen würde.

Sony (PS) hat eine eigene API, Valve hat die SteamOS praktisch begraben, Microsoft hat DX, Apple hat Metal. Bleibt Google die es auf Android pushen könnte, es aber derzeit eher ruhig angehen lässt und Linux Entwickler die gerne Spiele auf diese Plattform migrieren wollen aber im Spielemarkt kaum von Bedeutung sind. Für professionelle Anwendungen wird man wohl noch lange auf OpenGL setzen und so dümpelt der Vulkan halt vor sich hin und spuckt eher ein paar Rauchwolken ab und zu anstatt "auszubrechen".:freak:
 
Zuletzt bearbeitet:
Das die Konsolen eine eigene API Variante nutzen ist nun wirklich nichts neues und ie wird sich auch zu deren Lebenszeit nicht ändern sondern bestenfalls was hinzu kommen. Das ist ja auch der Sinn der Konsolen.
SteamOS kann man getrost mit Steam @ Linux gleich setzen und da gibt es bereits erste Spiele mit denen Vulkan nutzbar ist.
Kam nicht neulich auch mal ne Nachricht rum das Apple ebenfalls Vulkan nutzbar machen wolle? Dann kommt auch noch AMDs Vorstossmit dem Vulkan-OpenCL Mix für den Rasterisierung-Raytracing Mix hinzu. Wirklich rumdümpelnt tut da nicht weniger als bei DirectX, eher breitet sich Vulkan langsam weiter über mehr Plattformen aus.
Mir ist das nur allso lieb denn das ist ja letztendlich der Sinn einer API, die Vermittelung zwischen Hard- und Software. Die Plattform selbst ist dabei eher ein variabler Bestandteil.
 
Zuletzt bearbeitet von einem Moderator:
duskstalker schrieb:
der scheduler von amd und nvidia unter DX11 funktioniert grundlegend anders.

amd nutzt einen hardwarescheduler, der direkt von der software angesprochen werden muss, was bei DX11 im regelfall nicht wirklich gut funktioniert ("auslastungsprobleme") - hier liegt der fokus ganz klar auf direkter ansprache durch low level apis wie dx12 oder vulkan. amd karten werden unter low level apis nicht "schneller", hier fällt lediglich das bottleneck durch DX11 weg.

dass DX11 auf amd trotzdem sehr performant sein kann (wenn richtig umgesetzt) sieht man an star wars battlefront 2, ist aber absolut nicht der regelfall.

nvidia arbeitet mit ihrem treiber mit einem extrem aufwendigen software scheduler (tolle ingenieursleistung an der stelle), d.h. der nvidia treiber sammelt die ganzen aufgaben, die für die gpu anfallen und füttert die gpu entsprechend. das produziert einen overhead unter dx12, weil hier der software scheduler nvidia im weg steht - daher schneiden nvidia gpus mit ryzen cpus unter dx12 schlechter ab.
Das ist so mehr oder weniger vollkommen falsch. Sowohl AMD als auch NVIDIA GPUs haben mehrere unterschiedliche Warteschlangen, die von Hardwareschedulern gleichzeitig und asynchron zur CPU abgearbeitet werden und sich untereinander selbstständig durch Events synchronisieren können. Der primäre Unterschied ist jedoch, dass auf AMD GPUs die Schlange für Computeaufgaben und Rasteraufgaben gleichzeitig abgearbeitet werden kann, während der NVIDIA Treiber an geeigneten Stellen der Graphikkarte sagen muss, dass sie von Compute auf Graphik wechseln muss.

Auch ist der Unterschied zwischen DX11 und DX12 lediglich der, dass es in DX11 das Konzept der Hardwarewarteschlangen auf GPUs nicht existiert, wodurch eine Anwendung auch nicht direkt die Schlangen der GPU verwenden kann; alle API-Aufrufe der Anwendung werden in eine "implizite Warteschlange" eingereiht. Jedoch kann der Graphiktreiber im Endeffekt die Aufgaben in dieser "impliziten Warteschlange" nach Gutdünken umsortieren und in die Hardwarewarteschlangen der GPU einreihen, sofern das Ergebnis dadurch nicht verfälscht wird. Im Gegensatz dazu muss bei DX12 die Anwendung die Warteschlangen der GPU direkt verwalten.


duskstalker schrieb:
Anhang anzeigen 671933

wir sehen in der präsentation zu GCN (Hawaii), dass die gesamte pipeline von amd grundlegend anders aufgebaut ist - während nvidia hardware darauf ausgelegt ist komplett abstruse tessellationsfaktoren (sub pixel tessellation) zu berechnen (abermillionen polygone), "verstopft" bei amd übermäßige tessellation die pipeline. zufall, dass bei the witcher 3 hairworks mit tess level 64 läuft? :rolleyes:

Rasterpipelines sind allgemein bei kleinen Dreiecken sehr ineffizient, sowohl bei AMD als auch bei NVIDIA. Die in dieser Folie gelisteten Probleme treten dementsprechend in sehr ähnlicher Form bei beiden Herstellern auf. Das letzte Bild wird bei NVIDIA sogar identisch aussehen, wenn man potentielle Early-Outs des Tiefentests vernachlässigt. Als Benchmark kann man sich zum Beispiel das anschauen:
https://www.g-truc.net/post-0662.html
Das zeigt, dass sowohl auf einer R200 als auf einer GTX 680 kleinere Dreiecke massiv an Rasterisierungsdurchsatz kosten, wobei die Unterschiede zwischen beiden Karten jetzt nicht so sehr dramatisch sind.
 
Zuletzt bearbeitet:
Artikel-Update: 4A Games hat den Einsatz von Microsoft DXR, erweitert um Features der Nvidia-Umsetzung RTX, auf der GDC 2018 inzwischen bestätigt und am Donnerstagabend deutscher Zeit einen ersten Einblick in die Engine des Spiels gegeben. Umgesetzt wurden per Raytracing die Effekte „Ambient Occlusion“ und „Indirect Lighting“, höchstwahrscheinlich auf Basis der von Nvidia in Aussicht gestellten GameWorks-Bibliotheken.

[Embed: Zum Betrachten bitte den Artikel aufrufen.]

Microsoft DXR in der Filmindustrie
Auch Epic Games hat auf der GDC eine weitere Demo mit DXR-Unterstützung auf Basis des Backends XTR von Nvidia auf Basis der Unreal Engine 4 gezeigt – in Kooperation mit ILMxLAB. In diesem Fall handelt es sich allerdings um eine reine Technologie-Demonstration ohne direkten Bezug zu einem Spiel. Es wird ein bisher nur aus Filmen bekanntes Qualitätsniveau präsentiert – in Echtzeit gerendert. Die Entwicklung wurde auf Nvidias DGX Station mit vier Grafikkarten vom Typ Tesla V100 vorgenommen. Kostenpunkt: 49.900 US-Dollar. Ob sie auch zur Berechnung des finalen Videos zum Einsatz kam, ist nicht bekannt. In diesem Fall kommt auch Nvidias Raytracing-Rauschunterdrückung zum Einsatz.

[Embed: Zum Betrachten bitte den Artikel aufrufen.]
 
Hallo @ all,

Scheiß auf Raytracing...

...aber es gibt ein neues Metro? Wie geil ist das denn?

Freu mich schon. Wahrscheinlich mach sie es schon wieder so anspruchsvoll, daß man es mit einem Benchmark verwechselt und nur auf zukünftigen High-End Systemen läuft.

(Vermutete) Systemanforderungen für 4K:

mindestens 12 Kerne mit HT(/SMT) bei mindestens 5GHz,
64GB RAM
mindestens SLI aus 2x 3080ti mit jeweils 32GB VRAM, oder entsprechendes Crossfire System
usw...:evillol:
 
Kaum gibt es eine Neuerung, kommt Nvidia mit einer eigenen, für die Konkurrenz unzugänglichen Variante um die Ecke. Und anstatt den freien Standard zu unterstützen, machen alle großen Studios mit.
Das ist hier so, das ist bei Free-/G-Sync so, das ist bei Game works so.
Es ist eine riesige Sauerei.
 
@kingphiltheill

Würdest du genau so machen wenn du über 80% Marktanteil in Spielerechner hast. Warum sollten dann die großen Entwicklerstudios auf so etwas setzen? Aus Sympathie? ... Wirschaftlich betrachtet ist das alles logisch und ich würde es nicht anders tun.
 
@Wolfgang
Vielleicht sollte man im Artikel noch erwähnen, dass dieses Star Wars Video auf Hardware im Wert von $150.000 gerendert wurde (DGX-1) und somit wohl kaum die nächsten Tage so auf heimischen PCs lauffähig ist.
https://www.unrealengine.com/en-US/...ng-in-unreal-engine-4-with-ilmxlab-and-nvidia
https://blogs.nvidia.com/blog/2018/03/21/epic-games-reflections-ray-tracing-offers-peek-gdc/
[...]Running on an NVIDIA DGX Station[...]

Anscheinend soll man so unter 1080p auf 24 FPS gekommen sein, dazu habe ich aber keinen Beleg.
 
Taxxor schrieb:
Das traurige ist, dass überall nur Hairworks eingesetzt wird(wenn überhaupt) obwohl ich bis heute der Meinung bin, dass TressFX im ersten Tomb Raider bzw. PureHair(basiert auf TressFX 3.0) in Rise of the Tomb Raider bis heute am besten ausgesehen hat.

Bei Hairworks wirkt einfach alles aufgeplustert und Haarbewegungen sind völlig unrealistisch.
Geht man in Witcher 3 mit Hairworks einen Schritt nach vorne, verhalten sich die Haare als stünde man gerade mitten in einem Orkan.
Kein Vergleich mit Laras Haaren in RotTR.
Und dabei haben weder Nvidia noch AMD Karten durch PureHair massig Leistung verloren (10-15%) während Hairworks selbst die Nvidia Karten schon um diese Größen fallen lässt.

Hairworks für bestimmte Monster in FFXV sieht zwar ganz gut aus, die fps werden aber auch einfach mal halbiert.

Sehr ich genauso. Hab's ausgemacht.
TressFx ist halt auch p
Open source, dass kann man problemlos einbauen.
 
kingphiltheill schrieb:
Kaum gibt es eine Neuerung, kommt Nvidia mit einer eigenen, für die Konkurrenz unzugänglichen Variante um die Ecke.

sowas kommt nur raus, wenn man schon an der überschrift scheitert.
 
Krautmaster schrieb:
GTA ist auch nen Mrd schwerer Titel, lief am Anfang auch nicht 100% war aber bei Weitsicht usw revolutionär. Ich liebe die Details in GTA V, man merkt das deutlich mehr Aufwand als bei allen EA Titeln der letzten 2 Jahre reingeflossen ist.

Der Zyklus bei GTA ist auch sehr lange, das is aber eher der Ausnahme Titel schlechthin.

Edit. Abgesehen davon entstand der in einer Zeit als der GPU Markt noch weit ausgeglichener war.
Bei GTA V gibt's Schatten Optionen von beiden.
Also von AMD und Nvidia. Es geht also beides. Man muss nur wollen.
 
Hat AMD nicht auch ihr Raytracing? Warum hört man denn jetzt nur von Implementierungen von Nvidias Variante? Oder wird wieder keiner das Raytracing von AMD nutzen? Würde ja sicherlich nicht so schwierig sein beide Varianten in jedes Game einzubauen, damit jeder was davon hat, ob er nun Nvidia kauft oder AMD...oder hat nVidia wieder nen Absatz in ihren Gameworks Paragraphen, der die Implementierung von Technologien von Konkurrenten untersagt? Wär ja mal wieder typisch: "Ihr seht die volle Pracht von Spiel xyz nur wenn ihr unsere GPUs kauft!" Naja aber vlt wird AMDs Raytracing ja später noch nachgepatcht bei Metro, sobald man auch mal mehr von deren real time Raytracing sieht...
 
Meine Meinung ist ja, dass AMD sich komplett aus dem PC gaming Bereich rausgehen sollte um so eine Monopol Situation für Nvidia zu erreichen. Klar gibt's ja noch Intel, aber meiner Meinung nach zählen apus nicht.
Nvidia wird dann ordentlich an die Kette genommen.
Leider wird dass nicht passieren.
Trotzdem sollte sich AMD auf die Mainstream Karten, professionellen Karten und apus konzentrieren. High end kann von mir aus Nvidia machen.
 
Off topic:
Wenn ich mir diesen fantastischen METRO Trailer anschaue kommt wieder dieses klasse METRO feeling auf. Hoffentlich wird die Qualität stimmen und man brauch nicht wieder das absolute High end equiqment.
 
edenjung schrieb:
Bei GTA V gibt's Schatten Optionen von beiden.
Also von AMD und Nvidia. Es geht also beides. Man muss nur wollen.

wie gesagt, man schaue sich die Marktanteile AMD / Nvidia an als GTA V entwickelt wurde ;)

Da war das noch weit ausgeglichener als heute. Zudem hat man bei GTA V eine weitestgehend neue eigene Engine aufgebaut. Das machen die wenigsten ... gerade die die nicht so viel Budget haben ziehen meist nur eine bestehende Engine hoch. Wenn die dann schon Gameworks Kram drin hat is es sicher ein leichtes auch neue Effekte darüber zu implementieren.
Man muss also wollen ja, und es sich auch leisten können.

Genauso wird ein Doom Nachfolger sicher wieder auf Vulkan setzen + ggf dann auch AMDs RT Variante beinhalten.

Zudem soll die normale DX12 Variante dieser RT Implementierung genauso auch auf AMD laufen.
 
Zuletzt bearbeitet:
Licht- und Schatteneffekte sind natürlich echt sehr hübsch, aber ...

Ist den Designern eigentlich gar nichts peinlich, oder sind die einfach nur blind bzw. testen die fertige Demo nicht?

Das Gras sieht so aus, als ob es gerade auf dem Oktoberfest ist, 3 Wiesn-Maß getrunken hat und nun im Bierzelt zu Volksmusik schunkelt. Das Laub der Bäume und alle anderen Büsche hingegen stehen absolut still.

Oder ist das irgendein Grafikdemo-"Insider", den ich nicht kenne? :D
 
Zuletzt bearbeitet:
Ich hab mir jetzt das Metro Video angeschaut und ich muss sagen, ich bin von der grafischen Qualität nicht beeindruckt...abgesehen von den Wassereffekten ist da nichts zu sehen, was besser als ein stark gemoddetes Skyrim aussieht. Auf das Spiel freue ich mich trotzdem! Denn schöne Grafik ist eine nette Dreingabe, aber nebensächlich solange das Gameplay stimmt!
 

Ähnliche Themen

Zurück
Oben