Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
BerichtNvidia Turing: Adaptive Shading bringt in Wolfenstein 2 bis zu 13 Prozent
Ich habe ausschließlich genau gelesen, dass NVidia DXR umsetzt. Nirgendwo, dass RTX eine Erweiterung von DXR wäre. Es ist eher an Dir, diese Behauptung zu belegen, die Du ständig wiederholst.
MIt Marketingsätzen in Wiki die so lauten:
"Nvidia RTX is a development platform for rendering graphics that was created by Nvidia, primarily for real-time ray tracing. ... Nvidia created RTX to enable a significant advance in computer graphics by generating lifelike images in real time." ,
...wird mir schlecht. Die tun so als wenn NV Raytracing erfunden hätte!??
Meine eigene Aussage, "RTX ist eine Erweiterung" wird durch diesen Link eher unterstützt als wiederlegt.
Mal runter geschluckt, suchte ich weiter und fand das was meine Aussage ohne "Interpretationsspielraum" aber trotzdem in englisch wiederholt.
Link->https://developer.nvidia.com/rtx
Zitat:"Ray tracing acceleration is leveraged by developers through NVIDIA OptiX, Microsoft DXR enhanced with NVIDIA ray tracing libraries, and the upcoming Vulkan ray tracing API. "
Dir wird halt grundsätzlich schlecht, wenn Du "NVidia" liest. Das liegt aber primär an Dir, muss ich sagen.
Und dem einzigen, den das interessiert und den das in irgendeiner Weise schadet, bist Du selbst. Man sollte nicht mit Vorurteilen an den Markt gehen (das sage ich, obwohl ich mir absolut bewusst bin, dass ich selbst nicht frei von eben diesen Vorurteilen bin).
Deine Aussage (eher, "These") wird klar widerlegt:
"Nvidia worked with Microsoft to integrate RTX support with Microsoft's DirectX Raytracing API (DXR). RTX is currently available through Nvidia OptiX and for Microsoft DirectX, and is in development for Vulkan.[5] "
"Enhanced" heißt nicht, dass der DX Standard dabei verletzt wird. Wenn ein Treiber eine Funktion von DX realisiert, dann wird DX damit immer "enhanced".
[...]Die Entwickler haben ein extrem hohes Interesse daran, dass ihr Produkt schnell und reibungslos läuft. Und das mit möglichst niedrigen Systemanforderungen um eine maximale Reichweite erzielen zu können.
Dass diese, nur weil ein Hersteller mal mit Geldscheinen winkt, ihre eigene Existenzgrundlage und ihren gesamten Ruf dafür aufs Spiel setzen, mag ich nicht so recht glauben.
Denn das wäre für den Eigennutzen die denkbar schlechteste Option. Somit spricht einfach viel gegen die unbelegte Theorie, dass die Entwickler von nVidia dahingehend gekauft sind, dass gezielt die Performance des eigenen Produktes manipuliert wird.
Bei deiner Betrachtungsweise gehst du aber davon aus, dass der Kunde das sofort durchblicken (und im Idealfall nachweisen) kann und auch entsprechend handelt. Das ist aber nachweislich nicht der Fall und an anderer Stelle argumentierst du auch genau anders herum.
Eine GTX 970 ist/war (laut deinen wiederholten Ausführung) ja trotz 3,5 GB 'Bug/Feature' in Gänze eine gute Karte und wurde deshalb auch weiterhin gekauft. Da ist der offensichtliche Mangel kein Grund für den Kunden gewesen, die Karte in größerem Ausmaß zu boykottieren.
Wenn ein Spiel aber auf System A eingebremst werden würde, also auch einen offensichtlichen Mangel hätte, wäre das ein Dealbreaker und würde am Markt nicht mehr bestehen?
Vlt. ist das Spiel ja trotzdem ganz spaßig geworden und die Kunden würden es schon schlucken?
Vlt. ist sogar einkalkuliert, dass weniger Einheiten verkauft würden und die "Geldscheine mit denen der Hersteller" gewunken hat, sollen das nur kompensieren?
Der Markt ist inzwischen leider so undurchsichtig *HUST* GPP *HUST* und vertrackt *HUST* AMD vs. Intel Lawsuit *HUST* geworden, dass zunehmende Paranoia *HUST* Prism *HUST* gegenüber allen Tech-Riesen nicht mehr nach 'Aluhut-Fraktion' klingt, sondern immer realitätsnäher erscheinen.
Letztendlich lässt sich eben nicht widerlegen, dass ALLE in einem gewissen Maß dreckig spielen und wenn jemand eine so zweifelhaft Vergangenheit hat wie NVidia, ist Skepsis durchaus angebracht.
Ändert aber immer noch nichts dran, dass ich das Adaptive Shading hier gelungen finde.
Die 1080Ti-Käufer der letzten Wochen werden sich in der Zukunft arg ärgern, dass sie nicht doch eine 2080 gekauft haben. Ist zwar gerade vergleichbar mit der Performance, aber es werden, wie hier, immer mehr Features der neuen, deutlich besseren Architektur unterstützt werden. Und das bei dem geringen Aufpreis.
Die 1080Ti-Käufer der letzten Wochen werden sich in der Zukunft arg ärgern, dass sie nicht doch eine 2080 gekauft haben. Ist zwar gerade vergleichbar mit der Performance, aber es werden, wie hier, immer mehr Features der neuen, deutlich besseren Architektur unterstützt werden. Und das bei dem geringen Aufpreis.
Sag doch lieber, dass die Käufer der RTX 2XXX sich immer mehr freuen werden, dass sie nicht auf das Mainstream Gerede hier und anderswo gehört haben. Mir tut es leid wenn sich andere ärgern, habe da keine Schadenfreude. die bringt keinem was.
Naja, solange es optional ist ist es eine gute Sache. Für mich hat es dabei aber immer den faden Beigeschmack, dass man etwas von der Grafikpracht "verpasst", auch wenn man es nicht wahrnimmt.
Aber immer noch besser als Treibercheating, was ohne Zustimmung vom Nutzer hinterrücks ausgeführt wird.
Sagt wer? Ich war es schließlich nicht der behauptet hat das Culling die Tesselation der besagten Bereiche verhindern würde und bisher auch noch keinen Beleg dafür gesehen dass dies auch der Fall ist. Damit wären wir da wo wir auch schon am Anfang wären. Die Polygonen des pseudo Wassers werden durch die Tesselation aufgeblasen und weil der Bereich nicht sichtbar ist man spart lediglich den nachfolgenden Renderaufwand. Das alles ändert aber letztendlich nichts an übertesselierte Betonklöter zun Co.
Ergänzung ()
@ZeroZerp
Was war mit TressFX?
Das lief bei den Karten beider Hersteller ähnlich performant, der Treiber der Geforce hatte meines Wissens nach anfangs lediglich Probleme mit der Renderreihenfolge des Effekts, was mit einem Treiberupdate relativ schnell Geschichte war.
Hihi- ja genau. Ist ja auch hier eines meiner Hauptanliegen, mehrere Seiten eines "Problems" soweit zu beleuchten, dass in einer Welt voll Schei**e bis Cool allerlei Schattierungen vorhanden sind.
Deswegen sage ich auch immer wieder, dass natürlich auch meine Beiträge zum Teil tatsächlich widersprüchlich sind. Das hat eben den Hintergrund, dass ich bei Positionen, die Heutzutage nicht eindeutig zu bestimmen sind, auch teils selbst meinen eigenen Kontra- Part einnehme, da es oftmals eben bezüglich eines Themas, wo wir hier wild hin- und herspekulieren mehrere Standpunkte geben kann und es valide Alternativsichtweisen dazu gibt.
In meinem Fall ist die Ambivalenz nämlich kein Fail, sondern tatsächlich ein gewolltes "Feature"
Das wird hier oftmals als "Schwäche" und als Inkonsistenz bezüglich meiner Position ausgelegt, obwohl ich einfach selbst begreife, dass man Dinge eben nicht nur aus einer Einzelperspektive "totschlagen" kann.
Ergänzung ()
Wadenbeisser schrieb:
Was war mit TressFX?
Das lief bei den Karten beider Hersteller ähnlich performant, der Treiber der Geforce hatte meines Wissens nach anfangs lediglich Probleme mit der Renderreihenfolge des Effekts, was mit einem Treiberupdate relativ schnell Geschichte war.
TressFX geht, wie bereits oben angeführt, auf die Compute- Leistung der Grafikkarten. Dass diesbezüglich die AMD Grafikkarten eine deutlich bessere Figur machen, als die der Konkurrenz brauche ich, denke ich hier nicht weiter auszuführen.
Um mit den Worten, der Gameworks- Gegner zu sprechen:Ein Schelm, wer Böses dabei denkt....
Argumentationsketten sind keine Einbahnstraße....
Auch bin ich verwundert, dass genau die Personen, die hier offentsichtlich bestens über Gameworks und Co Bescheid wissen, dann plötzlich Wissenslücken aufweisen, wennn es um die eigens präferierte Technik geht.
Wenn man sich mit einem Thema unvoreingenommen beschäftigen würde, würde einem die offensichtlich argumentative Schieflagen bezüglich des eigenen Lagers nämlich auch ins Gesicht springen.
Und deshalb kann man hier eben, wie es bei nVidia gefolgert wird, ebenso die Sichtweise einnehmen, dass durch diesen Umstand AMD versucht hat, sich auf bösartige Art und Weise einen Vorteil durch ihre "proprietäre" und die Konkurrenz benachteiligende Technik zu verschaffen.
Das Argument für die Gegenseite, nämlich dass der Entwickler auch die Gameworks Sourcen optimieren darf, wird hier ja offensichtlich nicht akzeptiert, so dass ich aus "deren" Sicht schlussfolgern muss, dass im Gegenzug hier auch AMD böswillig und gegen das Kundeninteresse handelt, indem sie gezielt eine bekannte Schwäche des Konkurrenten ausnutzen um ihre Produkte unter Einsatz dieser Techniken in den Benchmarks in ein besseres Licht zu rücken.
Der Entwickler wird in der von mir beschriebenen und angemäkelten, hier aber vertretenen Gegenposition als beeinflussender Faktor, der die Bibliothek anpassen oder optimieren könnte (in meinen Augen komplett ungerechtfertigt), komplett aus der Gleichung genommen.
Solche Praktiken werden hier gebranntmarkt. Und meine Meinung ist eben, dass diese Unterstellungen in diese Richtung einfach erstens unbewiesen sind und zweitens keine zwingende Folge des aktuellen Zustands in diesem Punkt darstellen.
Somit erhebt man, wenn man konsequent wäre, den mahnenden Finger entweder gegen beide Firmen, oder sollte dazu schweigen.
@ZeroZerp
Ich sehe immernoch nicht wo der Zusammenhang liegen soll.
TressFX nutzt Compute Berechnungen, was angesichts der einher gehenden Physik Berechnungen jetzt nicht wirklich verwunderlich ist. Wenn man analogieen ziehen will dann müsste TressFX überflüssiger weise für die Berechnungen die doppelte Genauigkeit fordern, bei welcher die Geforce Karten traditionell schlechter performen. Ist dies der Fall?
Es geht schließlich nicht darum ob etwas genutzt wird sondern um sinnlos überzogene Anforderungen die zur künstlichen Performancebremse werden bei der die Konkurrenz schlechter abschneidet.
Wie nvidia das "Problem" gelöst hätte sah man ja beim beschleunigten PhysX.
In der Schule würde es jetzt heißen "Thema verfehlt....".
@ZeroZerp
Ich sehe immernoch nicht wo der Zusammenhang liegen soll.
TressFX nutzt Compute Berechnungen, was angesichts der einher gehenden Physik Berechnungen jetzt nicht wirklich verwunderlich ist. Wenn man analogieen ziehen will dann müsste TressFX überflüssiger weise für die Berechnungen die doppelte Genauigkeit fordern, bei welcher die Geforce Karten traditionell schlechter performen. Ist dies der Fall?
Es geht schließlich nicht darum ob etwas genutzt wird sondern um sinnlos überzogene Anforderungen die zur künstlichen Performancebremse werden bei der die Konkurrenz schlechter abschneidet.
Wie nvidia das "Problem" gelöst hätte sah man ja beim beschleunigten PhysX.
In der Schule würde es jetzt heißen "Thema verfehlt....".
Der Zusammenhang liegt darin, dass hier mit zweierlei Maßstab gemessen wird.
Ein und dieselbe Vorgehensweise (nämlich eine Bibliothek so zu gestalten, dass sie auf dem eigenen Produkt besser läuft) wird bei Hersteller A angeprangert und bei B nicht.
So etwas nennt man voreingenommen...
Ergänzung ()
Wadenbeisser schrieb:
Wenn man analogieen ziehen will dann müsste TressFX überflüssiger weise für die Berechnungen die doppelte Genauigkeit fordern, bei welcher die Geforce Karten traditionell schlechter performen. Ist dies der Fall?
Nein- Die Analogie ist, dass TressFX auf Compute setzt, wo nVidia traditionell schwächer abschneidet und Hairworks auf die Tesselation Einheiten geht, wo AMD traditionell eher schwächer ist.
@ZeroZerp
Sowohl Hairworks als auch TressFX nutzen beides.
Compute für die Physik Berechnungen (schon erstaunlich das dies bei PhysX nicht möglich sein soll...) und Tesselation zum Formen der Fasern/Haare denn sonst wäre das eine verdammt kantige Angelegenheit. Jetzt kann man übertrieben genau die physikalischen Vorgänge berechnen oder die Fasern/Haare in übertrieben viele Polygone auflösen, in beiden Fällen wäre es eine Verschwendung von Rechenleistung für einen Mehrwert der praktisch 0 ist. Wer von beiden hat was gemacht?
Ich messe nicht mit zweierlei Maß, ich übertrage lediglich die Wertigkeit.
Der Zusammenhang liegt darin, dass hier mit zweierlei Maßstab gemessen wird.
Ein und dieselbe Vorgehensweise (nämlich eine Bibliothek so zu gestalten, dass sie auf dem eigenen Produkt besser läuft) wird bei Hersteller A angeprangert und bei B nicht.
So etwas nennt man voreingenommen...
Ergänzung ()
Nein- Die Analogie ist, dass TressFX auf Compute setzt, wo nVidia traditionell schwächer abschneidet und Hairworks auf die Tesselation Einheiten geht, wo AMD traditionell eher schwächer ist.
Ich verstehe genau was du meinst.
In der Theorie, richtiger Ansatz leider solltest du dir ein anderes Beispiel raus suchen (irgendwas muss es da noch geben, frag mich nicht).
Der Grund ist weil TressFX wirklich einfach nur ober geil ist.
Könnte man so stehen lassen aber ich sage auch gerne warum. Weil es eben anderst als du es in einem Text kurz angehauen hast nicht "proprietäre" ist. Nämlich so "nicht" das man es heute nicht mal mehr als AMD Technik sehen kann sondern es sich zu einer echten "TombRaider" -Technik entwickelt worden und die Performance die es heute braucht ist absolut vernachlässigbar bei gleichzeitig besserem Resultat bei allen.
Bei deiner Betrachtungsweise gehst du aber davon aus, dass der Kunde das sofort durchblicken (und im Idealfall nachweisen) kann und auch entsprechend handelt. Das ist aber nachweislich nicht der Fall und an anderer Stelle argumentierst du auch genau anders herum.
Eine GTX 970 ist/war (laut deinen wiederholten Ausführung) ja trotz 3,5 GB 'Bug/Feature' in Gänze eine gute Karte und wurde deshalb auch weiterhin gekauft. Da ist der offensichtliche Mangel kein Grund für den Kunden gewesen, die Karte in größerem Ausmaß zu boykottieren.
Wenn ein Spiel aber auf System A eingebremst werden würde, also auch einen offensichtlichen Mangel hätte, wäre das ein Dealbreaker und würde am Markt nicht mehr bestehen?
Vlt. ist das Spiel ja trotzdem ganz spaßig geworden und die Kunden würden es schon schlucken?
Vlt. ist sogar einkalkuliert, dass weniger Einheiten verkauft würden und die "Geldscheine mit denen der Hersteller" gewunken hat, sollen das nur kompensieren?
Der Markt ist inzwischen leider so undurchsichtig *HUST* GPP *HUST* und vertrackt *HUST* AMD vs. Intel Lawsuit *HUST* geworden, dass zunehmende Paranoia *HUST* Prism *HUST* gegenüber allen Tech-Riesen nicht mehr nach 'Aluhut-Fraktion' klingt, sondern immer realitätsnäher erscheinen.
Letztendlich lässt sich eben nicht widerlegen, dass ALLE in einem gewissen Maß dreckig spielen und wenn jemand eine so zweifelhaft Vergangenheit hat wie NVidia, ist Skepsis durchaus angebracht.
Ändert aber immer noch nichts dran, dass ich das Adaptive Shading hier gelungen finde.
Die Zweifelhafte Vergangenheit haben alle großen Unternehmen. Da braucht man nicht nur einen an den Pranger stellen.
Letztendlich ist es so, oder so richtig, das man einfach als Kunde keine Mittel an der Hand hat um sich ein wahres Bild zu machen.
GPUs zum Beispiel, unterschiedliche Settings schmecken unterschiedlichen GPUs unterschiedlich gut. Das macht schon deutlich, das man nicht nach ein paar Benchmarks gehen kann, eigentlich.
Es ist durchaus möglich, das man mit einer Vega 64 mit entsprechenden Settings, die in der gleichen Bildqualität resultieren, aber sich von den Standard Test Settings von CB, oder PCGH, unterscheiden, es durchaus mit einer GTX1080TI aufnehmen könnte.
Ist möglich aber man weiß eben nicht und ich meine nicht sachen wie im Treiber Tesselation auf 8x zu begrenzen. (Meiner Meinung nach sieht man den Untrerschied bis 16x sowieso und wenn ICH das schon sehe, geibt es vielleicht auch welche die 32x noch sehen. )