News DirectX 12 Ultimate: Neue API für Turing, RDNA2 und Xbox Series X

HaZweiOh schrieb:
Gibt es ernsthafte Hinweise, dass dieser Quatsch mit USB 4 endlich aufhört? (einen Link dazu?)

Zumindest was die USB 4-Anschlüsse selbst angeht, wird das Names-Chaos damit wohl aufhören. Da gibt es kein "USB 4 Gen irgendwas", wohinter sich doch wieder was mehr oder weniger altes verbirgt, sondern alle USB 4-Anschlüsse haben das selbe Featureset, den selben Anschluss (Typ C) und sind zu älteren USB- und Thunderbolt-Standards kompatibel.
Aber das alte Chaos wird in Form von USB 3.X- und Thunderbolt 2-Geräten natürlich noch lange parallel weiter bestehen.
https://www.computerbase.de/2019-06/usb-4-erste-produkte/

Ich finde es etwas schade, dass es zumindest an der neuen XBox keine USB4-Anschlüsse zu geben scheint. Für eine brandneue Konsole, die dann ja wohl für einige Jahre so am Markt bleiben soll, wäre das ein interessantes Feature gewesen.
Selbst USB 3 oder gar 2 in Form von Typ C, z.B. zum Anschluss alternativer, kabelgebundener Controller oder Headsets usw. wäre nett gewesen.
 
  • Gefällt mir
Reaktionen: HaZweiOh
Da offiziell (ohne teure Verlängerungslizenz, etwa für Firmen) Windows 7 Ultimate nicht mehr unterstützt wird, hat man sich vielleicht bei Microsoft nach einer anderen Marke im Portfolio umgesehen, die man mit dem Zusatz "Ultimate" marketing-trächtig aufbrezeln glaubt zu können :D .

Ich hätte DX13 auch besser gefunden als DX12 "Ultimate" oder DX12U, allem Aberglaube zum Trotz, egal, nicht wirklich mein Bier.

Ob das AMD(/RTG) dann auch durch die Einführung von DX12U Vorteile im PC Gaming-Bereich (bei Konsolenports) bringen wird, bleibt abzuwarten, ich denke es wird hauptsächlich der XBSX zugute kommen bzw. den portierenden Entwicklern (für eine einfachere PC Umsetzung).

Insgesamt ist der Ansatz aber vorbildlich (da die Kundschaft auch davon profitieren dürfte), keine Frage :).
 
Chismon schrieb:
Ich hätte DX13 auch besser gefunden als DX12 "Ultimate" oder DX12U, allem Aberglaube zum Trotz, egal, nicht wirklich mein Bier.

Es ist und bleibt DX12 FL2, an der Sprache hat sich doch nichts geändert. DX12 Ultimate kennzeichnet doch nur den Featureumfang den eine Grafikkarte mit diesem Prädikat mitbringen muss.
 
  • Gefällt mir
Reaktionen: .Sentinel.
ZeroZerp schrieb:
Das ist doch genau der gleich Käse, der nur an einigen Stellen manuell einigermaßen "hingepfuscht" wurde.
Da kann ich nur wiederholen- Da sind mir die "echten" RT Reflections 1000 mal lieber...

Das ist schlicht noch mehr Cherry picking von dir. Es ist ein Multiplatformtitel der auf Althardware der Konsolen laufen muss. Das nicht alles erfasst wird ist alleine der Performance zu schulden. Durchgehendes RT wird es schon wegen der Rohleistung nicht geben. Der Entwickler hat jetzt nur schlicht noch mehr zu optimieren. Gerade bei den Konsoleros die hier immer auf die so enormen Optimierungen bestehen ist der Ruf nach RT geradezu absurd. Was Hitman zeigt ist nicht viel schlechter aber um Faktor 10 billiger.
 
  • Gefällt mir
Reaktionen: aldaric
Warum nicht einfach DX13? Ich befürchte nach DX12 Ultimate kommt DX12 Professional oder sowas und in 20 Jahren sind wir bei DX12 Ultimate Turbo Special Extreme...Bei USB die gleiche kacke...haben entwickler angst die versionsnummer zu ändern? Auf der anderen seite hat man (weis nicht wies heute is) bei Firefox für jeden firelefanz die Versionsnummer geändert...

Ich glaub das Internet macht uns alle Klüger und Dümmer, gleichzeitig.
 
  • Gefällt mir
Reaktionen: Mcr-King
Coeckchen schrieb:
Warum nicht einfach DX13?

Gerne noch einmal.... Weil es weiterhin DX12 ist.

DX12 ist die Sprache/API, FL12_2 ist der kommende Hardware Feature Level.
1584715384093.png

https://docs.microsoft.com/en-us/windows/win32/direct3d12/hardware-feature-levels

Die Spiele werden weiterhin DX12 unterstützen und damit programmiert, für die Grafikhardware ist es jedoch ein "Prädikat" für die Ausstattung, genauso wie es früher DX10.1 GPUs gab.

Es geht darum zu kennzeichnen was unterstützt wird.
1584715589917.png

https://en.wikipedia.org/wiki/Feature_levels_in_Direct3D

Allerdings ist der Titel vom Artikel eigentlich falsch, denn eine neue API ist DirectX12 Ultimate eben nicht.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Tanzmusikus
Floppy5885 schrieb:
...Wenn ich mir die PS4 Slim anschaue, 1,8TFlops und teilweise ein besseres Bild als so manch ein Gaming PC mit 6 TFlops.
Das wird bei RT nicht anders sein.

Sorry, das stimmt nicht. Wenn ich mich nicht irre, dann hat meine 980Ti 6TFLOPS, also wie die One X. Trotzdem laufen die Spiele auf meinem PC besser, da ich keine Krüppel-CPU habe. Meine CPU ist alt und nicht die schnellste, aber keine Bremse wie bei der Current-Gen
 
Zuletzt bearbeitet:
Botcruscher schrieb:
Das ist schlicht noch mehr Cherry picking von dir.
Nö- Das sind ECHTE Szenen aus dem Digital Foundry Analyse- Video.
Genau so kriegst Du das dort zu sehen!
Zudem war der Titel ja DEIN Beispiel, dass dort die Spiegelungen so toll wären. So what?

Es ist ein Multiplatformtitel der auf Althardware der Konsolen laufen muss. Das nicht alles erfasst wird ist alleine der Performance zu schulden.
Genau- Aber Du bist ja derjenige, der den Titel als Referenz hervorgekramt hat.
Und ich sage ja nichts anderes, als dass ich so etwas, wie die Beispiele, die ich gepostet habe, in den heutigen Zeiten in denen eben "richtige" Spiegelungen in 4K und 60FPS mit ner 2060s möglich sind nicht mehr unbedingt sehen will. Ganz zu schweigen von den noch leistungsfähigeren Konsolen.
Du warst ja derjenige, der sagt es wäre ausreichend.

Empfindest Du das von mir gepostete als ausreichend? Auch meine anderen Beispiele von Screenspace- Reflections?
Das in Zeiten, wo man vermeintlich ohne 1440P oder 4k nicht mehr leben kann, weil sonst alles so "verschwommen" wirkt?

Vor 30 Jahren waren Gitternetzgrafiken, die mit 1 FPS und ohne Occlusion vor sich hingezuckelt haben der absolute Brüller. Das mag doch heutzutage auch keiner mehr sehen.
Und das obwohl sie heutzutage wahrscheinlich mit 1Mio FPS laufen würden.
Da schreit auch keiner- Sauerei, dass man bessere Grafik integriert, die unendlich viel mehr Leistung kostet.
Ja- Bessere Grafik wird mit jeder Qualitätsstufe auch immer mehr Leistung kosten!
Das sind keine News und auch nichts, worüber man sich aufregen braucht.

Die Spielehersteller haben alle Szenarien, in welchen Spiegel auf komplizierte Art- und Weise darzustellen waren wie das Feuer gemieden (aus gutem Grund). Da kann man doch froh sein, dass das jetzt dann nicht mehr der Fall sein muss.

Durchgehendes RT wird es schon wegen der Rohleistung nicht geben.
Das brauchts doch garnicht. Es reichen doch schon die korrekten Spiegelungen von Wolfenstein Youngblood, die eben selbst ne Karte, die deutlich schwächer ist als die künftige Konsolenhardware in 4K 60FPS stemmt.
Was ist so schlimm dran?

Der Entwickler hat jetzt nur schlicht noch mehr zu optimieren. Gerade bei den Konsoleros die hier immer auf die so enormen Optimierungen bestehen ist der Ruf nach RT geradezu absurd.
Manchmal ist RT sogar billiger "RT AO, Contact Shadows", als gerasterte Varianten. Wieso sollte man diese Vorteile auf den neuen Plattformen nicht nutzen? Da kriegt man ne Qualitätssteigerung UND mehr Performance.

Was Hitman zeigt ist nicht viel schlechter aber um Faktor 10 billiger.
Wenn Du die Beispielfotos-/Szenen als nicht viel schlechter empfindest, dann ist das so.

Hier für die anderen Forenteilnehmer nochmal der Vergleich. Soll jeder bitte selbst urteilen, ob das unmerklich schlechter ist:
1584715880105.png


Dagegen Younblood mit RT- Spiegelungen
1584715907965.png


Man muss sich halt mal den aktuellen Realitäten stellen. Eine Romantisierung alter und deutlich schlechterer Technik ist hier wirklich fehl am Platze.

LG
Zero
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Retroyer, psychotoxic, Der Nachbar und 2 andere
eRacoon schrieb:
Bin so froh dass das kein Nvidia Only Feature geblieben ist, können uns sicher in Zukunft über sehr coolen Raytracing Einsatz freuen wenn die Installed Base immer größer wird. :)
Das war nie ein "Nvidia only Feature" sondern schon immer der DXR Standard von Microsoft

Man sollte halt nicht auf die roten Trolle hören, die so etwas gern in die Welt setzen ,um die Firma nur irgendwie zu diskreditieren.

ZeroZerp schrieb:
Manchmal ist RT sogar billiger "RT AO, Contact Shadows", als gerasterte Varianten.

Für die Spieleschmieden ist Raytracing immer billiger ,wenn die Engine das Feature bereits implementiert hat, wie dutzende Light Designer zu beschäftigen👍

Und schon allein daher führt neben der korrekten Berechnung kein Weg mehr daran vorbei , egal was so manche Dauerskeptiker immer mit ihren gleichen ollen Kamellen hier zum Besten geben

Die hybride Umsetzung erlaubt eine Stück für Stück Einführung , je nach dem wie schnell sich die Hardware dahingehend entwickelt

Wenn dann ein Vendor nicht so pusht wie der andere , wird er sich eben bei einigen Grafikoptionen auf Rasterebene wiederfinden, wo der andere schon Raytraced , alles kein Beinbruch
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: psychotoxic, .Sentinel., pietcux und eine weitere Person
Otsy schrieb:
Ich denke das nahmst du eher selektiv wahr. Was (vollkommen berechtigt) angebracht wurde ist die Kleinst-Nische und der außerordentlich schmale Marktkorridor, welchen RT bisher erreichte und abdecken konnte. Das wird sich durch die neuen Konsolen ändern und (meiner Einschätzung nach) in der nächsten GPU-Generation nach RDNA2 auch auf dem PC in marktfähigen Preisen und einer wahrnehmbaren Präsenz äußern.
Das war ganz und gar nicht berechtigt.
Auch vor ein paar Monaten hätte man schon die Weitsicht besitzen können, dass diese Technik die Gamingwelt verändern wird, auch wenn die Performance in den ersten Spielen und auf der ersten Hardware noch nicht perfekt war. Ganz im Gegensatz. Dafür, dass es die ersten Versuche waren, wurde die Technik eigentlich schon sehr gut in Spielen umgesetzt.

Ich habe das damals explizit in Beiträgen erwähnt, dass die Hardware besser wird, dass die Entwickler momentan noch nicht wissen, wie sie die Technik optimal anzuwenden haben und das mit kommendem hardwaresupport von AMD dieses Feature absolut unverzichtbar werden wird.
Und obwohl ich das gesagt habe sind mir die Leute ständig an die Gurgel gesprungen und haben behauptet, dass Nvidia da einen absoluten Blödsinn entwickelt hätte, den keiner bräuchte. Das habe ich nicht nur so empfunden.


Botcruscher schrieb:
Durchgehendes RT wird es schon wegen der Rohleistung nicht geben.
Funktioniert sogar auf den Konsolen.
 
  • Gefällt mir
Reaktionen: captain kirk und .Sentinel.
DrFreaK666 schrieb:
Sorry, das stimmt nicht. Wenn ich mich nicht irre, dann hat meine 980Ti 6TFLOPS, also wie die One X. Trotzdem laufen die Spiele auf meinem PC besser, da ich keine Krüppel-CPU habe. Meine CPU ist alt und nicht die schnellste, aber keine Bremse wie bei der Current-Gen

schau mal in meine Chronik ich habe auch eine EVGA 980TI.
Daher weiß ich selber wovon ich spreche.
Und was ich damit sagen möchte ist, das eine HD7870/GTX 760 niemals so eine Grafik bei zb Horizen Zero Dawn gezaubert hätte.
Klar erreiche auch ich in den meisten Games höhere Frames.
Aber eine Konsole wird eben was RT angeht die nächsten Jahre kaum hinterher hängen.
 
noxon schrieb:
Das war ganz und gar nicht berechtigt.
Auch vor ein paar Monaten hätte man schon die Weitsicht besitzen können, dass diese Technik die Gamingwelt verändern wird, auch wenn die Performance in den ersten Spielen und auf der ersten Hardware noch nicht perfekt war. Ganz im Gegensatz. Dafür, dass es die ersten Versuche waren, wurde die Technik eigentlich schon sehr gut in Spielen umgesetzt.

Ich habe das damals explizit in Beiträgen erwähnt, dass die Hardware besser wird, dass die Entwickler momentan noch nicht wissen, wie sie die Technik optimal anzuwenden haben und das mit kommendem hardwaresupport von AMD dieses Feature absolut unverzichtbar werden wird.
Und obwohl ich das gesagt habe sind mir die Leute ständig an die Gurgel gesprungen und haben behauptet, dass Nvidia da einen absoluten Blödsinn entwickelt hätte, den keiner bräuchte. Das habe ich nicht nur so empfunden.



Funktioniert sogar auf den Konsolen.

Also an die Gurgel wäre ich dir nicht gesprungen, aber über die Implementierung von nVidia wäre ich doch schon sehr unzufrieden gewesen, wenn sich das als Standard durchgesetzt hätte. Es wurde einfach bei den Reflektionen nicht hinbekommen verschiedene Oberflächen korrekt darzustellen. Alles hat einfach gespiegelt wie ein klarer Spiegel. Das sieht in der AMD Demo schon 1000 Mal besser aus. Da gibt es sogar "Smudges" auf den reflektierenden Oberflächen und entsprechend milchiger ist dann die Reflektion. Genauso bei raueren Oberflächen. Ich hoffe, dass das dann der Standard wird. Keinen Blutpfützenspiegel mehr, bitte!
 
  • Gefällt mir
Reaktionen: psychotoxic
Floppy5885 schrieb:
schau mal in meine Chronik ich habe auch eine EVGA 980TI.
Daher weiß ich selber wovon ich spreche.
Und was ich damit sagen möchte ist, das eine HD7870/GTX 760 niemals so eine Grafik bei zb Horizen Zero Dawn gezaubert hätte.
Klar erreiche auch ich in den meisten Games höhere Frames.
Aber eine Konsole wird eben was RT angeht die nächsten Jahre kaum hinterher hängen.

Wenn ein PC mit 980Ti schneller als eine One X ist, dann natürlich erst Recht im Vergleich mit der Standard PS4. Was anderes ist total unlogisch
 
thepusher90 schrieb:
Also an die Gurgel wäre ich dir nicht gesprungen, aber über die Implementierung von nVidia wäre ich doch schon sehr unzufrieden gewesen, wenn sich das als Standard durchgesetzt hätte.
Das gibts doch nicht, dass sich dieses Gerücht jetzt immernoch hält.
nvidia hat den neuen DX- Standard, der von allen großen Firmen mitentwickelt und abgesegnet wurde, lediglich als erstes unterstützt.
Die haben da garnix durchgesetzt.

Es wurde einfach bei den Reflektionen nicht hinbekommen verschiedene Oberflächen korrekt darzustellen. Alles hat einfach gespiegelt wie ein klarer Spiegel.
Stimmt nicht- Die konnten sehr wohl Oberflächen korrekt darstellen. Siehe youngblood oder control und auch deliver us the moon.

Nur ist das Darstellen rauher reflexionen NOCH rechenaufwändiger, weswegen man in den Erstimplemenationen, wo man sich sowieso erst ans Thema rantasten musste, weitestgehend darauf verzichtet hat.

Das sieht in der AMD Demo schon 1000 Mal besser aus. Da gibt es sogar "Smudges" auf den reflektierenden Oberflächen und entsprechend milchiger ist dann die Reflektion.
Dir ist schon klar, dass die AMD Demo auf DXR läuft, also genau auf dem Standard, den Du oben noch verfluchst, weil er so schlecht sei?

Genauso bei raueren Oberflächen. Ich hoffe, dass das dann der Standard wird. Keinen Blutpfützenspiegel mehr, bitte!
Siehe oben...

LG
Zero
 
  • Gefällt mir
Reaktionen: xexex und captain kirk
xexex schrieb:
... bleibt DX12 FL2, an der Sprache hat sich doch nichts geändert. DX12 Ultimate kennzeichnet doch nur den Featureumfang den eine Grafikkarte mit diesem Prädikat mitbringen muss.

Schon klar, es muesste dann streng genommen eine mehr als generalueberholte oder neue API sein, wenn man auf DX13 springen wuerde, aber da mit dem "Ultimate" Feature-Update (quasi per "Tier") DX12 erweitert wurde, haette man auch noch anderweitig ein wenig an etwas anderem drehen koennen bzw. unterstuetzte Features dranhaengen koennen (DX12 ist ja jetzt nun auch nicht mehr wirklich taufrisch) und gleich eine neue DX Version aufmachen koennen (Zeit hatten sie bei Microsoft ja eigentlich genug, koennte man meinen).


Was ich in diesem Zusammenhang mit den Konsolen interessant finde, ist auch, dass was man - im Next-Gen Konsolen(leistungs)vergleichsartikel von WccfTech gezeigten Vergleich mit den PC Grafikkartengenerationen -voraussichtlich bei wem preis-leistungstechnisch geboten bekommt.

xbox-series-x-vs-sony-ps5-graphics-performance-per-dollar-1.jpg


Eventuell koennte DX12U das Sahnehaeuchen oben drauf sein und fuer ein ausgereifteres Spielerlebnis mit der XBSX (im Vergleich zur PS5 etwa) sorgen.

Dass die Next-Gen Konsolen zu einem gewissen Grad starke Konkurrenten fuer die PC Gaming-GPU bestueckten PCs sein werden, wird wohl keiner verleugnen koennen und inwieweit bei dem hier vorgestellten "Performance per $" Diagramm nicht einige mehr die Konsequenzen ziehen werden und des Gaming wegen vom PC zur Konsole abwandern, wird man abwarten muessen.

Was die Radeon GPUs von AMD angeht, sind die Navi10-RDNA1 Karten (wie die hier abgebildete RX 5700XT) aktuell eher die ruehmliche, mittlerweile halbwegs erschwingliche Ausnahme und die Tendenz geht eher Richtung RX 5500XT und RX 5600 XT sich an nVidia GPU-Preisen auch sehr stark zu orientieren, so gesehen stellt der rechte, orange Radeon Balken eher einen Ausnahmefall dar und ich sehe die beiden Grafikkarten-Entwickler mit Ihren PC Produkten lange nicht auf Augenhoehe mit dem, was die Konsolen bzgl. Preis-Leistungsverhaeltnis bieten.
Ergänzung ()

Ach ja, den direkten Leistungsvergleich zwischen kommender Konsolengrafikhardware und aktuellen PC-GPUs bin ich schuldig geblieben, daher hier noch nachgereicht:

xbox-series-x-vs-sony-ps5-graphics-performance-2-2048x1182.jpg


Da macht sich die Leistung der XBSX, wenn diese Abschaetzung denn zutreffen sollte, doch sehr gut im direkten Vergleich mit der PC-Konkurrenz.

Wenn man das jetzt uebersetzt, dann liegt die Leistung der 36 Compute Units starken RX 5700 (7,95 TFLOPs) leicht ueber einem TFLOP hinter der RDNA2-Konsolenchipversion in der Sony PS5 mit ebenfalls 36 Compute Units (9.2 TFLOPs ohne massive Uebertaktung), was schon ein wenig ernuechternd waere als Ausblick auf die Mehrleistung von Big Navi mit RDNA2-Architektur Ende des Jahres.

Jedenfalls hatte ich gehofft, dass mehr als 1.25 TFLOPs dabei herausspringen wuerde generationsuebergreifend in dieser Leistungsklasse von Navi-RDNA1 zu Navi-RDNA2, aber gut, die PC Grafikkarten mit RDNA2 Archtitektur koennten ja evt. noch anders/leistungsfaehiger ausfallen als die Konsolen-SoCs.

Die Hoffnung (dahingehend) stirbt bekanntlich zuletzt.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Onkel Föhn, xexex und .Sentinel.
Herdware schrieb:
Ich vermisse schon etwas die Zeiten, als bei DirectX einfach die Versions-Nummern hochgezählt wurden.
Ab und zu mal eine Nachkommastelle oder ein angehängter Buchstabe, aber in aller Regel ging es doch recht zügig mit Vollversionsschritten voran.
DirectX 12 ist von 2015. (Ob "Ultimate" wirklich die endgültige Version von DX12 sein wird...? Oder kommt doch noch eine DX12-Omega-Ultimate-Pro-XT-Titan-Edition?)
Davor hingen wir ganze 4 Jahre auf DirectX 11. Tut sich denn wirklich nur noch so wenig?
Wie lange hingen wir bei DX9?
 
ZeroZerp schrieb:
Das gibts doch nicht, dass sich dieses Gerücht jetzt immernoch hält.
nvidia hat den neuen DX- Standard, der von allen großen Firmen mitentwickelt und abgesegnet wurde, lediglich als erstes unterstützt.
Die haben da garnix durchgesetzt.
LG
Zero
Merkst du nicht das das mit Vorsatz geschieht, diese absichtlichen Fehlinfos?
Ich frag mich nur wen sie damit für dumm verkaufen wollen.
Jeder der sich nur ein Bisschen mit der Materie auseinander gesetzt hat weis, das das Gerüst für alle DXR ist und nix anderes, und jeder damit seine eigene Hardware drumherum baut

thepusher90 schrieb:
Alles hat einfach gespiegelt wie ein klarer Spiegel. Das sieht in der AMD Demo schon 1000 Mal besser aus.

Und mit dem Absatz hast du dich vollends entweder in die Noob oder Fanboy Ecke geschossen

Darfts dir gerne aussuchen wo es dir besser gefällt
 
Zuletzt bearbeitet:
Chismon schrieb:
Schon klar, es muesste dann streng genommen eine mehr als generalueberholte oder neue API sein,

Microsoft wird hier in erster Linie einen ähnlichen Weg wie bei Windows 10 gehen, die Entwicklung wird hier gepflegt und man überschlägt sich nicht bei immer neuen Versionen.
1584742012885.png

https://en.wikipedia.org/wiki/DirectX#DirectX_12

Die Feature Level waren aber sowieso schon immer davon entkoppelt, man kann auch unter DX11 von FL9 bis 12.1 alles mögliche ansprechen.
1584742237049.png

https://docs.microsoft.com/en-us/wi...overviews-direct3d-11-devices-downlevel-intro

Solche Angaben sind vor allem für Kunden wichtig, aber auch für Entwickler. Sie können dann auf die Verpackung schreiben, "Für ein optimales Spielerlebnis benötigen sie DX12 Ultimate kompatible Hardware", das ist verständlicher als wenn man mit zig kryptischen Angaben um sich wirft.

In diesem Zusammenhang ist DX12U nichts anderes als zum Beispiel "Freesync 2", was ebenfalls ein paar Features und Spezifikationen zusammenfasst.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Tanzmusikus und noxon
Zurück
Oben