Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Bericht Raytracing und DLSS: RTX 2070, 2080 und 2080 Ti im Techdemo-Benchmark
- Ersteller Wolfgang
- Erstellt am
- Zum Bericht: Raytracing und DLSS: RTX 2070, 2080 und 2080 Ti im Techdemo-Benchmark
L
Lübke82
Gast
Bei DLSS geht es aber nicht nur um Kantenglättung, sondern auch um das Hochrechnen von Pixeln für ein besseres Bild/ höhere Auflösung als vom GPU-Anteil berechnet
Raucherdackel!
Banned
- Registriert
- Jan. 2014
- Beiträge
- 3.266
Ich als eingefleischter AMDler kann nur sagen: Kauft euch die RTX Karten! Und zwar aus einem Grund: das ist die erste Generation von NVIDIA, die anständig DX12 unterstützt. HDR? Mag die 1000er Serie nicht. Raytracing? auch nicht wirklich. Alternativ AMD? wurde bis jetzt noch nichts geliefert, außer Ankündigungen dass Radeon Pro / Instinct gut in real time Raytracing sind in den Profi Programmen wie Maya usw.
Ach ja, Danke übrigens an @Wolfgang für deine Stellungnahme hier im Thread. Ist schon bekannt wann AMD ihre Karten "raytracing-fit" bekommt?
Ach ja, Danke übrigens an @Wolfgang für deine Stellungnahme hier im Thread. Ist schon bekannt wann AMD ihre Karten "raytracing-fit" bekommt?
Zuletzt bearbeitet:
Myon
Lt. Junior Grade
- Registriert
- Sep. 2012
- Beiträge
- 315
Das alles erinnert mich an den massiven Fail namens PhysX:
Die Liste aller Physx-fähigen Games offenbart sage und schreibe 77 Titel. Lächerlichst wenig. Lächerlichst. Grenzen wir ein: Wie viele davon besitzt ein Spieler? Lass es z.B. 10 Stück sein. Wie viele davon sind auch wirklich für den Spieler interessant und nicht nur ein halbherziger Sale-Kauf, ein Geschenk oder ein Affekt-Kauf, der nicht ein einziges Mal installiert, geschweige denn angetestet wurde, wie es ja laut diversen Steam-Auswertungen zuhauf vorkommt: Sagen wir mal 5. Wie viele von diesen 5 Titeln haben PhysX-Effekte, die einem überhaupt signifikant auffallen und nicht im allg. Geschehen untergehen? Wie viele davon haben PhysX-Effekte, die im Vergleich zur nicht-PhysX Version kaum auffallen oder sich so schnell abnutzen, dass es nach kürzester Zeit einfach uninteressant ist? Wie viele von diesen Spielen sind nach ein paar wenigen Stunden durchgespielt und vergammeln bis zum Ende aller Tage im Regal oder in der Bibliothek? Bleibt da dann überhaupt noch ein Spiel übrig? Also ich habe z.B. damals Sacred 2 gespielt, mit und ohne PhysX. Unterschiede gab es kaum, es war definitiv kein Kaufgrund für nvidia-GraKas als tolles Alleinstellungsmerkmal.
Übertragen auf Raytracing: Wie hoch ist die Wahrscheinlichkeit, dass es im Laufe der nächsten Jahre nur eine Hand voll Titel geben wird, die das supporten? Wie viele davon würde man selber spielen? Wohl nur einen Bruchteil. Ich würde nämlich z.B. kein Battlefield V spielen, interessiert mich nicht. Die Technik ist nicht ausgereift, die Developer haben nichts auf Lager, um die Tensor-Kerne zu bedienen. Schlechte Performance, bereits getätigkte Ankündigungen über die Reduktion von Raytracing-Effekten (warum wohl...) usw. Manche Effekte werden bei schlampiger Programmierung (kommt oft vor, finde ich) wohl nicht großartig auffallen. Bis das alles spruchreif werden kann, gibt es doch schon die RTX 4000er oder 5000 Serie, die dann überhaupt wirklich am Markt angekommen und schnell genug für alle Anforderungen sein wird. Raytracing ist doch im Moment kein Kaufgrund. Und es ist schlicht zu teuer. Das Feature sitzt momentan so unnütz auf den RTX Karten, wie ein Blinddarm. Überzeugt mich nicht im Geringsten.
Die Liste aller Physx-fähigen Games offenbart sage und schreibe 77 Titel. Lächerlichst wenig. Lächerlichst. Grenzen wir ein: Wie viele davon besitzt ein Spieler? Lass es z.B. 10 Stück sein. Wie viele davon sind auch wirklich für den Spieler interessant und nicht nur ein halbherziger Sale-Kauf, ein Geschenk oder ein Affekt-Kauf, der nicht ein einziges Mal installiert, geschweige denn angetestet wurde, wie es ja laut diversen Steam-Auswertungen zuhauf vorkommt: Sagen wir mal 5. Wie viele von diesen 5 Titeln haben PhysX-Effekte, die einem überhaupt signifikant auffallen und nicht im allg. Geschehen untergehen? Wie viele davon haben PhysX-Effekte, die im Vergleich zur nicht-PhysX Version kaum auffallen oder sich so schnell abnutzen, dass es nach kürzester Zeit einfach uninteressant ist? Wie viele von diesen Spielen sind nach ein paar wenigen Stunden durchgespielt und vergammeln bis zum Ende aller Tage im Regal oder in der Bibliothek? Bleibt da dann überhaupt noch ein Spiel übrig? Also ich habe z.B. damals Sacred 2 gespielt, mit und ohne PhysX. Unterschiede gab es kaum, es war definitiv kein Kaufgrund für nvidia-GraKas als tolles Alleinstellungsmerkmal.
Übertragen auf Raytracing: Wie hoch ist die Wahrscheinlichkeit, dass es im Laufe der nächsten Jahre nur eine Hand voll Titel geben wird, die das supporten? Wie viele davon würde man selber spielen? Wohl nur einen Bruchteil. Ich würde nämlich z.B. kein Battlefield V spielen, interessiert mich nicht. Die Technik ist nicht ausgereift, die Developer haben nichts auf Lager, um die Tensor-Kerne zu bedienen. Schlechte Performance, bereits getätigkte Ankündigungen über die Reduktion von Raytracing-Effekten (warum wohl...) usw. Manche Effekte werden bei schlampiger Programmierung (kommt oft vor, finde ich) wohl nicht großartig auffallen. Bis das alles spruchreif werden kann, gibt es doch schon die RTX 4000er oder 5000 Serie, die dann überhaupt wirklich am Markt angekommen und schnell genug für alle Anforderungen sein wird. Raytracing ist doch im Moment kein Kaufgrund. Und es ist schlicht zu teuer. Das Feature sitzt momentan so unnütz auf den RTX Karten, wie ein Blinddarm. Überzeugt mich nicht im Geringsten.
KarlKarolinger
Lieutenant
- Registriert
- Nov. 2008
- Beiträge
- 729
Wenn man mit DLSS von 720p aufskaliert, dann klappt es über HDMI 2.1 dann auch mit dem 8K 120Hz Monitor!
Ich dachte ja fast, so schlecht sei es nicht, bis ich dann gesehen habe, dass 3200*1800 ungefähr ziemlich genau dasselbe Ergebnis liefert, womöglich sogar noch etwas mehr Details, da sie ja da auch tatsächlich gerendert und nicht aus der Nase gezogen (von einer KI erraten) werden. Das Schlimmste an DLSS ist wohl, dass man sich damit komplett von NVidia abhängig macht. Man muss sich registrieren und erhält auch dann nur die Profile, die NVidia eben ausliefert. Wenn der Hersteller oder NVidia nicht mitmacht, gibt es auch kein DLSS-Profil dafür.
Sollte NVidia das dann irgendwann einstellen, weil es nicht genug Gewinn abwirft, dann wird es plötzlich nutzlos. Wenn es wenigstens die Option gäbe, das Netz zu Hause auf der eigenen Karte zu trainieren, auch wenn es sehr lange dauert....vllt gäbe es dann Community-Profile von Leuten mit dicken Quad-SLIs oder ehemaligen Mining-Farmen. Auch für Indie-Games könnte es dann mehr Profile geben, sowie für mehr Auflösungen und Anwendungsfälle.
Da fällt mir ein, wer weiß, ob die das nicht auch für Cloud-Gaming verwenden. Wenn die Bandbreite reicht sparen sie heftig bei der Kapazität der Server und wenn die Bandbreite nicht reicht schicken sie nur einen 1080p Stream und die 50€-Box zu Hause macht dann mit ihren Tensor-Cores 4K daraus und die Server können weiterhin kleiner bleiben, als wenn sie 4K rendern müssten. Vllt auch einfach nur die erste Variante, dann bieten sie 4K an ohne groß in die vierfache Rechenleistung investieren zu müssen, nur ein paar Tensor-Cores dazu. Dass das jetzt an Kunden geliefert wird könnte da nur ein Sahnehäubchen sein, mit dem man auch die Preiserhöhung gut rechtfertigen kann.
Ich dachte ja fast, so schlecht sei es nicht, bis ich dann gesehen habe, dass 3200*1800 ungefähr ziemlich genau dasselbe Ergebnis liefert, womöglich sogar noch etwas mehr Details, da sie ja da auch tatsächlich gerendert und nicht aus der Nase gezogen (von einer KI erraten) werden. Das Schlimmste an DLSS ist wohl, dass man sich damit komplett von NVidia abhängig macht. Man muss sich registrieren und erhält auch dann nur die Profile, die NVidia eben ausliefert. Wenn der Hersteller oder NVidia nicht mitmacht, gibt es auch kein DLSS-Profil dafür.
Sollte NVidia das dann irgendwann einstellen, weil es nicht genug Gewinn abwirft, dann wird es plötzlich nutzlos. Wenn es wenigstens die Option gäbe, das Netz zu Hause auf der eigenen Karte zu trainieren, auch wenn es sehr lange dauert....vllt gäbe es dann Community-Profile von Leuten mit dicken Quad-SLIs oder ehemaligen Mining-Farmen. Auch für Indie-Games könnte es dann mehr Profile geben, sowie für mehr Auflösungen und Anwendungsfälle.
Da fällt mir ein, wer weiß, ob die das nicht auch für Cloud-Gaming verwenden. Wenn die Bandbreite reicht sparen sie heftig bei der Kapazität der Server und wenn die Bandbreite nicht reicht schicken sie nur einen 1080p Stream und die 50€-Box zu Hause macht dann mit ihren Tensor-Cores 4K daraus und die Server können weiterhin kleiner bleiben, als wenn sie 4K rendern müssten. Vllt auch einfach nur die erste Variante, dann bieten sie 4K an ohne groß in die vierfache Rechenleistung investieren zu müssen, nur ein paar Tensor-Cores dazu. Dass das jetzt an Kunden geliefert wird könnte da nur ein Sahnehäubchen sein, mit dem man auch die Preiserhöhung gut rechtfertigen kann.
Zuletzt bearbeitet:
M
Moriendor
Gast
Myon schrieb:Das alles erinnert mich an den massiven Fail namens PhysX:
[...]
Übertragen auf Raytracing: Wie hoch ist die Wahrscheinlichkeit, dass es im Laufe der nächsten Jahre nur eine Hand voll Titel geben wird, die das supporten?
Die Wahrscheinlichkeit ist exorbitant hoch und das kann man doch überhaupt nicht vergleichen.
PhysX ist rein proprietär. nVidia hat sich die Technologie durch den Aufkauf von AGEIA als potentielles "Killerfeature" einverleibt. Dies zu einer Zeit als Physik in Spielen ("destructible environments" usw.) als "the next big thing" gehyped wurde.
Wie viele Hypes (z.B. VR) kam es (leider) nie zur vollen Entfaltung und hat nur sehr selektiv Anklang bei den Entwicklern gefunden.
Raytracing ist damit nicht mal im Ansatz vergleichbar. Raytracing gilt schon seit Anbeginn der Computergrafik als der heilige Gral, wenn es um die Berechnung von Lichtquellen in Echtzeit geht. Bisher gab es nur keine Hardware, die dies auf Konsumentenseite annähernd vernünftig gepackt hätte. Mit den RTX Karten ist nun zumindest eine Annäherung gelungen.
nVidia hat eng mit Microsoft kooperiert, um Raytracing als DXR in DirectX 12 zu integrieren.
Damit steht Raytracing nun jedem Entwickler von AAAs wie EA oder UbiSoft bis hin zum Garagenentwickler oder sogar dem Scriptkiddie zur Verfügung.
Du, ich, jeder Hanswurst... man muss sich nur das DirectX SDK runterladen und schon steht dem (zumindest theoretisch) unbegrenzten Gigaray-Vergnügen nichts mehr im Weg .
Ich glaube nicht, dass MS das ohne Hintergedanken in DirectX 12 aufgenommen hat. Es ist recht wahrscheinlich, dass auch next gen Microsoft Konsolen ab ca. 2020 mit Raytracing-Support ausgestattet sein werden. Dass Microsoft so etwas aus Liebe zum PC oder zu nVidia macht, ist ziemlich ausgeschlossen. Es dürfte eher Eigennutz dahinter stecken.
Im Gegensatz zu PhysX glaube ich insofern schon, dass Raytracing sich durchsetzen wird. Es ist der feuchte Traum eines jeden Entwicklers, wenn man sich um Lichtberechnungen quasi (fast) nicht mehr kümmern muss. Vereinfacht gesagt: Lichtquelle platzieren, fertig. Den Rest macht die GPU.
Das spart also massiv Entwicklungszeit und damit Geld -> damit auch ein gutes Argument für die Publisher, wenn Ressourcen für andere Dinge frei werden... und wer weiß... vielleicht werden dann ja wieder mehr Ressourcen in vernünftige Physik und KI gesteckt.
Das ganze Thema ist schon sehr vielversprechend. Hoffen wir mal das Beste...
.Sentinel.
Admiral
- Registriert
- Okt. 2007
- Beiträge
- 8.631
Da sitzt Du einem Irrtum auf. Die größeren Engines haben PhysX inzwischen adaptiert (z.B.https://docs.unrealengine.com/en-us/Engine/Physics) und für diese hat nVidia den Code Open Source gestellt.Myon schrieb:Die Liste aller Physx-fähigen Games offenbart sage und schreibe 77 Titel. Lächerlichst wenig.
PhysX ist also eher im Gegenteil ein schönes Beispiel einer erfolgreichen Technik, die es vom proprietären Status quasi in die "Massenproduktion" geschafft hat.
Somit kriegst Du im Normalfall garnicht mit, dass Du gerade einen PhysX Titel zockst, esseidenn Du schaust Dir die letzten Sekunden des Abspanns an, in dem die verwendeten Technologien aufgelistet werden.
Ansonsten stimme ich dem Vorredner Moriendor zu. Die Entwickler haben ein großes Interesse daran, dass sich die Techniken der neuen Karten durchsetzen. Die im Grafikbereich teuersten Berechnungen, die sonst durch hohen Aufwand produziert werden, fallen in der Produktion dann quasi unter den Tisch.
Durch Mesh- Shading bewirft die Engine die Grafikkarte mit Leveldaten und die führt alle Verdeckungsprüfungen (kein Umbra mehr nötig) in zig- Facher Geschwindigkeit selbständig durch.
Grüße
Zero
Zuletzt bearbeitet:
Xes
Admiral
- Registriert
- Nov. 2013
- Beiträge
- 7.614
Hm da hast du Recht. Hatte noch DLSS2X im Kopf hängen.#basTi schrieb:Lies den Artikel den du kommentierst...
Scheinbar ist es nämlich auch genau das.
Krautmaster
Fleet Admiral
- Registriert
- Feb. 2007
- Beiträge
- 24.306
Mich zb garnich, schon garnich wenn man im Hinterkopf hat dass sobald die 60p 4k konstant fallen (also eine GPU das packt) die Publisher einfach ein kaum sichtbar besseres Preset drüber legen dass dann wieder das Doppelte an GPU Power frisst...Oceanhog schrieb:Mich machen diese Demos nicht wirklich an. Nennt mich einen Ignoranten aber stabile 60FPS in 4K hätten meine Augen eher zum glänzen gebracht. Ich finde diese Generation die enttäuschende seit Jahren und Raytracing ist ein hübsches Gimmick aber mehr auch nicht. Zumindest eben bei ignoranten Gamern wie mir!
Sehe ja schon oft jede keinen Unterschied zwischen den 2 höchsten Presets. Und dann gibt's noch grottige Titel die die dreifache Power für Grafikmüll brauchen...
Da hab ich von qualitativ anderen, besseren Effekten mehr. Auch wenn dann ggf kaum sichtbar der Rest etwas auf Performance optimiert werden muss. Was es nachher kostet zb nur RTX Schatten zuzuschauen wird man sehen.
Zuletzt bearbeitet:
N
nagus
Gast
YouTube
An dieser Stelle steht ein externer Inhalt von YouTube, der den Forumbeitrag ergänzt. Er kann mit einem Klick geladen und auch wieder ausgeblendet werden.
Ich bin damit einverstanden, dass YouTube-Embeds geladen werden. Dabei können personenbezogene Daten an YouTube übermittelt werden. Mehr dazu in der Datenschutzerklärung.
Toller Paper Launch von Nvidia - herzlichen Glückwunsch.
Ergänzung ()
Raucherdackel! schrieb:Ich als eingefleischter AMDler kann nur sagen: Kauft euch die RTX Karten! Und zwar aus einem Grund: das ist die erste Generation von NVIDIA, die anständig DX12 unterstützt. HDR? Mag die 1000er Serie nicht. Raytracing? auch nicht wirklich. Alternativ AMD?
Vega 64/56 / Polaris? Preis Leistung ist defninitiv besser!
YouTube
An dieser Stelle steht ein externer Inhalt von YouTube, der den Forumbeitrag ergänzt. Er kann mit einem Klick geladen und auch wieder ausgeblendet werden.
Ich bin damit einverstanden, dass YouTube-Embeds geladen werden. Dabei können personenbezogene Daten an YouTube übermittelt werden. Mehr dazu in der Datenschutzerklärung.
SavageSkull
Fleet Admiral
- Registriert
- Mai 2010
- Beiträge
- 14.632
Ich warte noch ab, wie sich DLSS entwickelt, ich hoffe darauf, das es bei VR einen Nutzen bringt. Da kann die Auflösung gar nicht hoch genug sein und dabei muss die Wiederholrate gleich bleibend hoch sein.
Krautmaster
Fleet Admiral
- Registriert
- Feb. 2007
- Beiträge
- 24.306
DaTheX schrieb:Öhm, egal wie sehr ich mich anstrenge, ich erkenne bei den beiden Videos keinen Unterschied zwischen den Hälften. Und da UHD+TAA die höheren Frames bietet wäre das wohl die Wahl im Fall der Fälle.
auf welches Video beziehst du dich und falls auf die Videos @ Topc.... wo bietet UHD + TAA hier die besseren Frames? Das Gegenteil ist doch der Fall.
Sun-Berg
Lt. Commander
- Registriert
- März 2008
- Beiträge
- 1.622
SavageSkull schrieb:Ich warte noch ab, wie sich DLSS entwickelt, ich hoffe darauf, das es bei VR einen Nutzen bringt. Da kann die Auflösung gar nicht hoch genug sein und dabei muss die Wiederholrate gleich bleibend hoch sein.
Das hatte ich auch gehofft. Aber gerade bei VR, welches eine relative Nische bedeutet, wird der support wohl ausbleiben. Mal sehen.
end0fseven
Lt. Commander
- Registriert
- Feb. 2017
- Beiträge
- 1.344
Ich glaube das HDR mehr bringen würde an der Bildqualität.
Die frage ist eher, ist dieses DLSS wieder nur ein Propertärer Standard?
Wenn ja, sowiso komplett uninteressant.
Raytracing dürfte aber auch von AMD berechnet werden können?
Kann mich da jemand aufklären?
Die frage ist eher, ist dieses DLSS wieder nur ein Propertärer Standard?
Wenn ja, sowiso komplett uninteressant.
Raytracing dürfte aber auch von AMD berechnet werden können?
Kann mich da jemand aufklären?
Krautmaster
Fleet Admiral
- Registriert
- Feb. 2007
- Beiträge
- 24.306
end0fseven schrieb:Raytracing dürfte aber auch von AMD berechnet werden können?
ja, zumindest wenn Effekte in DRX (DirectX RT von MS) implementiert werden und nicht im Gameworks Ableger RTX.
Nvidia wird typischerweise Entwicklern wie schon bei Hairworks, HBAO+, PCSS, HFTS die eigene Bibliothek anbieten und natürlich auch um eigene RTX Effekte erweitern. AMD steht offen dasselbe zu tun, wobei AMD den offenen Ansatz verfolgt und auch verfolgen muss in der derzeitigen Situation.
Heißt die Bibliothek ist erstmal frei einsehbar / Open Source und kann neben DXR auch Vulkan RT Effekte oder sonstwas beinhalten die ein Game Entwickler verwenden kann.
Nvidia hat sich mit Gameworks wie auch bei Cuda über die Jahre eine offensichtlich sehr interessante und bei Entwicklern beliebte Plattform aufgebaut - da verwundert es mich wenig dass diese auch so verbreitet ist.
Im einfachsten Fall aktualisiert der Entwickler dann nur noch sein lokales Framework (Gameworks) und bindet zb neben PCSS Schatten noch das Gameworks RTX Shadow ein, fertig.
Kaum ein Entwickler wird hingehen und jeden Effekt der Engine selber coden. Bei der normalen Programmierung von Anwendungen jeder Art setzt man ja genauso fertige Frameworks & APIs ein, die gern auch mal kostenpflichtig sind.
Problem an der Gameworks Sache ist halt dass sie eben "closed" ist, und je nach Effekt auch mal auf AMD Karten gar nicht laufen kann oder einen sehr langsamen Fallback bekommt. Wundert ja auch nicht wenn der RTX Effekt dann keine RT / Tensor Kerne findet (da anderes GPU Design) und dass dann auf die CPU auslagert...
Möglich dass RTX Effekte anders als die klassischen Effekte vorerst nicht sinnvoll auf "Non RTX" GPU eingesetzt werde können, weder auf Nvidia GTX Karten noch auf AMD Karten jeder Art. Und so etabliert wie Gameworks ist kann es auch sein dass DRX / Vulkan RT kaum Beachtung findet, quasi ausschließlich die Gameworks Sache verwendet wird. Da kann AMD vermutlich machen was sie wollen, das dürfte nie anständig auf AMD GPU laufen.
KarlKarolinger
Lieutenant
- Registriert
- Nov. 2008
- Beiträge
- 729
Ja, ist es, man muss sich ja sogar bei NVidia Dingens registrieren und angemeldet sein, damit man von Nvidia die vorberechneten Profile für das neuronale Netzwerk erhält. Wenn es kein Profil für ein Spiel oder eine gewünschte Auflösung gibt, scheint DLSS auch nicht zu funktionieren.end0fseven schrieb:Die frage ist eher, ist dieses DLSS wieder nur ein Propertärer Standard?
Krautmaster
Fleet Admiral
- Registriert
- Feb. 2007
- Beiträge
- 24.306
jap was das angeht ist DLSS speziell, aber auch technisch nachvollziehbar speziell, sofern man sich etwas damit auseinander gesetzt hat und nicht nur jammert da sein 3440x1440p Auflösung mit 0,02% Marktanteil noch nicht unterstützt wird.
Dass Nvidia hier mit 4k einsteigt ist absolut nachvollziehbar, da ist der Effekt am größten und genau da kann man noch die Mehrleistung auch brauchen.
Dass Nvidia hier mit 4k einsteigt ist absolut nachvollziehbar, da ist der Effekt am größten und genau da kann man noch die Mehrleistung auch brauchen.
end0fseven
Lt. Commander
- Registriert
- Feb. 2017
- Beiträge
- 1.344
Krautmaster schrieb:ja, zumindest wenn Effekte in DRX (DirectX RT von MS) implementiert werden und nicht im Gameworks Ableger RTX.
Nvidia wird typischerweise Entwicklern wie schon bei Hairworks, HBAO+, PCSS, HFTS die eigene Bibliothek anbieten und natürlich auch um eigene RTX Effekte erweitern. AMD steht offen dasselbe zu tun, wobei AMD den offenen Ansatz verfolgt und auch verfolgen muss in der derzeitigen Situation.
Heißt die Bibliothek ist erstmal frei einsehbar / Open Source und kann neben DXR auch Vulkan RT Effekte oder sonstwas beinhalten die ein Game Entwickler verwenden kann.
Nvidia hat sich mit Gameworks wie auch bei Cuda über die Jahre eine offensichtlich sehr interessante und bei Entwicklern beliebte Plattform aufgebaut - da verwundert es mich wenig dass diese auch so verbreitet ist.
Im einfachsten Fall aktualisiert der Entwickler dann nur noch sein lokales Framework (Gameworks) und bindet zb neben PCSS Schatten noch das Gameworks RTX Shadow ein, fertig.
Kaum ein Entwickler wird hingehen und jeden Effekt der Engine selber coden. Bei der normalen Programmierung von Anwendungen jeder Art setzt man ja genauso fertige Frameworks & APIs ein, die gern auch mal kostenpflichtig sind.
Problem an der Gameworks Sache ist halt dass sie eben "closed" ist, und je nach Effekt auch mal auf AMD Karten gar nicht laufen kann oder einen sehr langsamen Fallback bekommt. Wundert ja auch nicht wenn der RTX Effekt dann keine RT / Tensor Kerne findet (da anderes GPU Design) und dass dann auf die CPU auslagert...
Möglich dass RTX Effekte anders als die klassischen Effekte vorerst nicht sinnvoll auf "Non RTX" GPU eingesetzt werde können, weder auf Nvidia GTX Karten noch auf AMD Karten jeder Art. Und so etabliert wie Gameworks ist kann es auch sein dass DRX / Vulkan RT kaum Beachtung findet, quasi ausschließlich die Gameworks Sache verwendet wird. Da kann AMD vermutlich machen was sie wollen, das dürfte nie anständig auf AMD GPU laufen.
vielen dank für deinen ausführlichen beitrag.
von dieser seite habe ich das ganze noch nie betrachtet, das nvidia so viel drin hat.
zugegeben, viele dinge wären mir ausser das hairwork nie wirklich gross aufgefallen.
ob das spiel jetzt etwas bessere schatten hat oder nicht, fällt einem inmittem des spielgefechts sowiso nicht gross auf.
der grösste vorteil der letzten jahre, ist eigentlich gsync bzw. freesync.
für mich diskualifizieren sich halt propertäre standarts, da ich mich nicht gross auf eine marke festsetzen will. ich kaufe das, wo für mich das beste preisleistungsverhältnis hat.
schmerhaft aktuell fur mich, ich besitze einen gsync monitor aktuell mit einer rx 580, da ich sehr günstig an die kam.
Krautmaster
Fleet Admiral
- Registriert
- Feb. 2007
- Beiträge
- 24.306
ja zum Glück sind es meist eher Effekte die man optional "zuschalten" kann, gerade sowas wie das HBAO+, PCSS in GTA V zb. Denke so wird man in BF5 dann auch einfach RTX_Refelections oÄ zuschalten können. Dahinter passiert dann natürlich was grundlegend anders als bis dato, etwas was sich auch nicht so einfach über einen FallBack berechnen lässt. Wobei es diesen schon geben wird, auch wenn dass dann 3 FPS bedeutet.
Ähnliche Themen
- Antworten
- 1.048
- Aufrufe
- 164.773
- Antworten
- 1.881
- Aufrufe
- 258.085
- Antworten
- 473
- Aufrufe
- 112.629
- Antworten
- 3.782
- Aufrufe
- 338.381