Baal Netbeck schrieb:
Naja...das dritte Spiel mit RTX Feature und wieder kostet es massiv Leistung, obwohl ZeroZerp doch nicht müde geworden ist, uns zu erzählen wie die Leistung mit Raytracing steigen wird, weil es ja diese RT cores gibt, die den Shadern Arbeit abnehmen.
ZeroZerp schrieb:
....Ähm nein??
Also ich möchte vorab sagen, dass ich durchaus der Meinung bin, das ZeroZerp deutlich mehr Ahnung zu haben scheint, als die meisten anderen hier und sicherlich auch als ich!
Aber er ist auch einfach ein Beispiel für jemanden, mit Scheuklappen, der in seiner Begeisterung für die Technik und die tollen Leistungsdaten die Nvidia uns präsentiert hat, ignoriert, was er eigentlich selbst sehen müsste.
Die anfängliche Hoffnung ist ja noch zu verstehen:
ZeroZerp schrieb:
Nur dass bei entsprechenden Demos die RTX Karten 10x schneller rechnen.
Hier nutzt ja bereits jeder in seinen AAA Spielen Raytracing Techniken. Wieso sollte die denn anders aussehen?
Ich kann auch auf den normalen Shadern Raytracing berechnen und einen Denoiser überstülpen.
Nur können die das einfach nur in einem Bruchteil der Geschwindigkeit einer RTX Karte.
Die neuen Karten sind unter anderem dazu da, genau die Bereiche in denen Shader versagen oder brutal einbrechen in Zukunft zu BESCHLEUNIGEN!
Nicht langsamer machen, nein. Die RT und Tensor Cores sind Beschleuniger diverser Berechnungen.
Gottes Sohn schrieb:
Dann müsste es doch der Logik nach mit eingeschaltetem RT deutlich mehr FPS und nicht deutlich weniger geben?
ZeroZerp schrieb:
Genau so ist es!
Nur haben nach alldem, was bisher bekannt ist, die Programmierer die Demos, die bezüglich RTX gezeigt wurden eben nicht unter Einbeziehung der technischen Fähigkeiten programmiert, weil das in den zwei Wochen, in denen Sie die Karten in ihren Fingern hatten, einfach nicht möglich war.
Deshalb haben sie das Raytracing ON TOP zu den "normalen" Berechnungen einfach nachgeschalten.
So ist das aber nicht gedacht...
Er klammert sich an die Aussagen von Nvidia und diversen Entwicklern, die natürlich Besserung geloben, aber man muss halt sehen, dass es bis jetzt nicht viel gebracht hat...BF V hatte einen Patch, der etwas die Menge der Berechnungen angepasst hat um akzeptabel zu laufen aber Metro und Tomb Raider hatten so viel Zeit und Unterstützung von Nvidia....wenn es jetzt noch nicht läuft, wie Nvidia das geplant hat, dann wird es auch in naher Zukunft nicht besser laufen.
ZeroZerp schrieb:
Wenn man sich mal ein wenig tiefgreifender mit dem Thema auseinandersetzt, so ist das bemerkenswerte, dass zwar die neuen Einheiten also die RT und Tensorcores ausreichend groß ausgelegt sind um auch 4K in 90Hz mit Fullscreen- Intersection- Testing zu erreichen.
Die Probleme, die das ganze derzeit langsam machen, sind die ineffizienten Shaderroutinen, die im Hintergrund ablaufen. Da werden aufgrund dessen, dass es auf vorhandene Engines draufgepflastert wird Dinge teils doppelt und dreifach berechnet. Dann noch die Treiberschwäche von nVidia, die verhindert, dass diverse Berechnungen parallel stattfinden können etc.
Die Karte ist schon schnell genug- Auch für simultane Benutzung von RT berechneten Effekten. Es findet da gerade ein enormer Entwicklungsprozess statt. Für mich allerdings der größtmögliche Fail von nVidia, die Hardware ohne funktionierende Bibliotheken, Demos oder sonstiges in die freie Wildbahn zu entlassen.
ZeroZerp schrieb:
Das liegt daran, dass alle modernen Engines inzwischen onehin schon Raytracen. Einfachstes Beispiel ist AO.
Es ist nur nicht sauber, viele Details werden verschluckt und es bezieht nicht die gesamte Szene ein, ist aber dafür ziemlich rechenintensiv für die Shader/CPU. Genau das sollte die neue RTX besser, schneller und schöner können.
ZeroZerp schrieb:
Das interessante an der Konstellation ist ja, dass gerade die Entwickler begeistert sind von den neuen Features.
Klar- Die haben es in Zukunft einfacher anspruchsvolle Dinge wie Lighting, Physik, Culling (ganz wichtig) zu handhaben, weil sie alles einfach auf die GPU schieben und die dann "Wunder" wirken kann.
Ich glaube, dass das eigentlich auch der eigentliche Kern der Aussage "It just works" steckt, was unter entwicklungstechnischen Gesichtspunkten, wenn man die Entwicklerstimmen zum Erscheinen von Turing aufnimmt so wohl auch stimmen kann.
ZeroZerp schrieb:
Soviel dazu- Viele verstehen einfach nicht, wie Raytracing funktioniert und bewerten die Technik anhand von schlechten Alpha Demos, die in zwei Wochen zusammengeschustert wurden.
ZeroZerp schrieb:
Ist ja auch klar- Wenn man Demos zeigt, bei welchen die RT Cores garnicht aktiv waren (Battlefield 5) und auch nur zum Teil Tensor- Cores eingesetzt wurden, dann sollte das doch hier niemand ernsthaft wundern, wenn die FPS niedrig sind.
ZeroZerp schrieb:
Insofern - Da ist das letzte Wort in Sachen Performance noch lange lange nicht gesprochen, vor allem weil man ja nicht erahnen kann mit welchen Tricks und Hacks findige Programmierer die Cores für andere Arten von Beschleunigungen hernehmen können.
ZeroZerp schrieb:
Da die Programmierer jetzt erstmal Blut geleckt haben (da die Technik einiges einfacher und besser macht), wird man in Zukunft alle möglichen und unmöglichen Tricks/Techniken zu sehen bekommen, um die Effekte mit starker Performance auf den Bildschirm zu pflastern.
Die bösen Entwickler waren schuld mit ihrem Pfusch..
ZeroZerp schrieb:
Das traurige ist, dass diese RTX Implementation im wahrsten Sinne des Wortes genau so zu nehmen ist - On Top.
Das bedeutet dass erst nach der Rasterisierung der Szene die Strahlen verschossen werden und danach der Denoiser kommt, der immer noch nicht einmal von den dafür vorgesehenen Einheiten berechnet wird, sondern zusätzlich Shaderleistung auffrisst. Das ist die maximal schlechteste Pfuschlösung.
ZeroZerp schrieb:
Somit kann man derzeit diesbezüglich eigentlich noch keine Bewertung bezüglich der Performance in irgendeiner Art und Weise abgeben. Theoretisch sollte sauber implementiertes Raytracing die Rastertechnik in deren Gebieten, bei denen es Schwächen gibt unterstützen und DEUTLICH beschleunigen können. Bei besserer Grafikqualität
ZeroZerp schrieb:
Genau weil eben die Beleuchtung "ausgelagert" werden kann, sind bei diesem Spiel 4K in 90FPS möglich. Und das TROTZ global Illumination, die ja der Leistungsfresser schlechthin ist.
Ohne die RTX Beleuchtung hast Du gleich mal 30-40% weniger Leistung (wenn nicht mehr), wenn man die standard GI- Verfahren, die derzeit so rumschwirren in ähnlicher Qualität rastern will
ZeroZerp schrieb:
Die Tensor Core der 2080TI kommen da lt. nVidia auf 114 TFlops. Damit lässt sich einiges anfangen (deren Haupt- Cores kommen rechnerisch auf knapp 14 TFlops). Alles ungenutztes Potenzial...
ZeroZerp schrieb:
Der Sinn dieser Karte ist, neue Technologien einzuführen, die zukünftig dafür sorgen, dass der Geschwindigkeitszuwachs und die Qualität von Grafik wieder Fahrt aufnehmen kann.
Im Augenblick siehst Du auch nur die Performance einer allseits bekannt fehlerhaften Implementation im Alpha- Stadium, die mit einer Performance in einem fehlerbereinigten geschweige denn optimierten Zustand 0 gemein hat.
ZeroZerp schrieb:
Zur mangelnden Leistung der RTX- Karten. Die RT Cores reichen dicke aus.
Es sind die Shader, die die Folgeberechnungen nicht verpackt kriegen (Hit-/Miss- Shader+ Folgeroutinen), da diese im Normalfall vom Spiel mit Rasterengine ja schon bis an den Rand ausgelastet werden.
Auch DLSS, das eigentlich von allen unabhängigen Seiten aus, als unscharf und mit viel flimmernden Texturen entlarvt wurde, sieht für ihn super aus:
ZeroZerp schrieb:
DLSS liefert in diesem Benchmark eine absolut überzeugende Vorstellung (wo ich bei FF15 noch gemischte Gefühle hatte). Das ist kein Vergleich dazu.
In keiner Auflösungsstufe fällt es im Vergleich zu TAA auf, dass mit niedrigerer Basis gerendert wurde. Im Gegenteil.
Die DLSS Bilder sind als durchweg detailierter und schärfer zu bezeichnen und das bei perfekter Kantenglättung.
.....Und ich habe nur grob seinen Namen und RTX in die Suche gepackt und willkürlich Beiträge zur Leistung zitiert....
Klingt jetzt eventuell so, als wollte ich ihn fertig machen, was ich ausdrücklich nicht möchte...ich schätze seine Beiträge im Forum!
Er nutzt oft Quellenbelege und technisch haben seine Aussagen in der Regel Hand und Fuß.
Aber zu behaupten er hätte nie gemeint, mit den RT cores würde die Leistung steigen, konnte ich nicht so stehen lassen.
...ich will auch nicht ausschließen, dass wir irgendwann Leistungszuwächse sehen werden....ist in der Theorie ja durchaus möglich, wenn mehr Rohleistung da ist....aber RT wie es von Nvidia präsentiert und vermarktet wird, ist nunmal bis jetzt enttäuschend geblieben(sagt ZeroZerp selbst öfter).
Würden die RT cores klassische Berechnungen unterstützen und verfeinern, dann wäre das ziemlich cool....aber ich glaube nicht, dass Nvidia ihre Karten auf sowas hin ausgelegt hat, oder das das einfach zu implementieren wäre.
Nvidias DXR Umsetzung mit Spiegelungen, Schatten und GI, sind alle viel zu kompromissbehaftet!
Es ist eben noch nicht die Leistung da, um alle Bereiche perfekt umzusetzen.
Und so ist der Nutzen fraglich.
Hitman 2 macht die Reflexionen nicht mit RT....es berechnet "einfach" die Szene zusätzlich aus einer anderen Perspektive mit Rasterisierung.
Natürlich mit schlechteren Einstellungen und ohne Doppelreflexionen....sonst würde sich die Leistung halbieren.
Aber nicht mal in dem Vergleich schafft RTX RT es besser sein.
Auch die RTX Spiegelungen nutzen in der Reflexion Objekte mit weniger Details und erlauben keine Doppelreflexionen....und kosten massiv Leistung.
Und das RTX RT versagt bei großen Flächen wie dem Meer....zu viel Fläche, um mit der nötigen "Raydichte" abgetastet zu werden, so dass der Denoiser nicht genug Infos hat.
Es fehlt für diese uralte Technik in der Form wie Nvidia sie unsetzt
aus meiner Sicht eine brauchbare Perspektive.
Bis das ganze "mal eben nebenbei" berechnet wird, dauert es vermutlich noch einige GPU Generationen.
Für PC Spiele ist eine "besonders realistische Darstellung" auch nicht so wichtig....ich habe gestern nochmal The Witcher 3 gespielt und wenn man darauf achtet, fallen einem viele Fehler bei Beleuchtung/Spiegelung und Schatten auf.....aber es sieht doch trotzdem wunderschön aus, wie die Dämmerung die Szenen in andere Farben taucht und es einfach malerisch wirkt.....und ich denke so geht es vielen....hübscher Schein ist den Leuten wichtiger, als physikalisch korrekt.
Nur die wenigsten werden bei einem Spiel auf die genaue Form von Schatten, oder die Unzulänglichkeiten von Spiegelungen achten.
Sind die Schatten nicht da...oder pixelig....oder ist die Pfütze am Boden nur eine graue Fläche....dann fällt es auf...aber wenn in der Pfütze sich irgendwas beim vorbeilaufen bewegt, was farblich halbwegs zu dem erwarteten passt, dann reicht das 99% der Leute aus.
Es ist mit RTX so ähnlich wie mit der Radeon VII.
Da ist meine Begeisterung für 7nm und die Hoffnung auf Vorteile durch die 16GB VRam mit der heftigen Bandbreite....und die Karte ist auch nicht schlecht oder so.....aber objektiv betrachtet muss man den Preis und die vorhandenen Probleme betrachten.
Und da ist es eben kein Produkt, dass in der jetzigen Marktsituation für jederman Sinn ergibt.
Zurück zu Nvidias RTX...
Sehe ich mir die Verlgeiche in Tomb Raider an, dann finde ich die Unterschiede...weil ich weiß wo ich gucken muss.
Aber spiele ich einfach, dann ist es mir ziemlich sicher egal...ich senke auch oft einzelne Einstellungen in Spielen um flüssigere Bildraten zu erreichen....selbst wenn ich sehe, an welchen Stellen ich optische Nachteile in Kauf nehme.
Da muss es eben nicht die höchste Ambilight occlusion Einstellung sein, wenn die niedrigeren Stufen deutlich besser laufen, und auch gut aussehen. Warum 8xAA mit temporal krams, wenn das Bild dann unscharf wird und auch 4x ohne TAA bei 1440p die Kanten ausreichend glättet?
Und so würde ich mich eben auch gegen den RTX Kram entscheiden, wenn ich für ein paar realistischere Schatten auf viel Leistung verzichten muss.
Hätte ich unnötig viele FPS und RT on würde mir immer noch 80 lassen, dann gerne....aber bei so Leistungsbereichen sind wir halt noch nicht...und die 2080 Ti zählt nicht wirklich wenn man den Preis anguckt.