Sun_set_1 schrieb:
Niemand weiß genau, was sich hinter Nvidias RTX Core-Begriff verbirgt. Und es steht der Vorwurf im Raum, dass es sich hierbei bloß um erweiterte Compute-Einheiten aus dem Profi-Bereich handelt. Es ist durchaus möglich, dass NVIDIA schlicht einen Cluster aus diesen (Shader/Compute-)Einheiten als RTX Core sieht.
RTX Cores werden sehr wahrscheinlich nur eine Weiterentwicklung von Tensor Cores sein. So wie ich Raytracing verstehe besteht es aus einer riesen Menge Matrix-Multiplikationen.
@ZeroZerp korrigier mich wenn ich falsch liege. Tensor Cores sind genau auf das optimiert, da das so das wichtigste im Thema Machine Learning ist.
ZeroZerp schrieb:
Das hat sie indirekt sehr wohl. Es wurde sogar lang und breit ein Fokus darauf gelegt, wie unfassbar Rechenaufwendig der heilige Gral Raytracing sei und dass man es nun durch einen Technologieschub in spielbare FPS Zahlen gehievt hat.
Der Volksmund und die Gerüchte haben zu Anfangs davon gesprochen, dass wir in 1080P nur 30FPS bekommen würden (Failtracing).
Dann schau Dir mal an, wo wir heute stehen...
Die Leute haben den Hype selbst verursacht. Genau wie bei der VegaVII, die jetzt aufgrund der überhöhten Erwartungshaltung zu unrecht abgewatscht wird.
Ernüchternd war es deshalb, weil die Implementation fehlerhaft war und trotz der offiziellen Hinweise von DICE und NVIDIA dahingehend sich niemand daraum geschert hat, die Performance NICHT als durchoptimiertes Optimum zu sehen.
Schau Dir mal an, wie BV5 nach dem letzten RT Update auch ohne DLSS läuft. Da liegen Welten zur Erstveröffentlichung dazwischen.
Die Tensor Cores werden meines Wissens derzeit noch nicht für das RT Denoising genutzt geschweige denn dass sie Raytracen würden.
Im Dreierpack sollte ursprünglich ein Schuh draus werden. RT über fixed Function+Denoising/DLSS/DLSSx2 über die tensor Cores.
Derzeit wird gestückelt, weil die Techniken noch nicht fertig sind.
LG
Zero
Fuer mich, und wohl auch andere, hat es sich anders angehoert. DLSS wurde separat vorgestellt und der Performancegewinn gepriesen. Raytracing wurde als, wie du sagst, heiliger Grahl dargestellt. Man haette es klarer verkaufen koennen, damit es allen klar ist. Allerdings bezweifle ich dann, dass Investoren so gluecklich gewesen waeren.
Fraggball schrieb:
ich bin auch extrem positiv überrascht von rtx bisher.
es hat seine schwächen (mangelnde menge an titeln, preis) aber das es bspw. in bf5 in 1440p mit 80-100 fps ohne dlss auf meiner 2080 läuft ist mehr als positiv wenn man bedenkt das zu beginn eine 1080p 60fps performance in den raum gestellt wurde.
genauso bei metro, 1440p playable mit einer 2080 und ich finde es sieht deutlcih besser aus. freue mich aber auch über gut geleuchtete filme und ähnliches. drauf lege ich viel wert! (liegt wohl an meinem vorigen beruf)
mehr habe ich persönlich nicht erwartet und bin damit sehr zufrieden!
Im Endeffekt werden die FPS gerade durch Reduzierung von RT erreicht, gerade in Battlefield. Oder eben durch DLSS und dadurch moeglicherweise schlechterer Qualitaet. Ein wirklich komplettes RT Rendering ist derzeit einfach nicht machbar. Da muss noch einiges an Hardwarespezialisierung kommen, damit das klappt. Ich hoffe nur, dass wir einen gemeinsamen Standard bekommen werden und nicht Nvidia RT und AMD RT und vielleicht noch Intel RT, da die Technik an sich zukunftsweisend ist.
DocWindows schrieb:
Also ich habe das schon in der Veranstaltung mit J.Huang so verstanden dass DLSS dazu da ist den zu erwartenden Performanceverlust auszugleichen. War das nicht von anfang an klar?
Ich hatte nie eine andere Erwartung.
Es scheinen genug eine andere Erwartung gehabt zu haben, dass Nvidias geplante Verkaufszahlen nicht erreicht wurden.
@ZeroZerp Wenn es nur das warten auf die Shader-Berechnung waere, dann muessten die kleineren Karten doch weitaus schlechter abschneiden? Und genauso sollte, aehnlich wie dem Benchmark den
@Thane genannt hat, mehr RT und weniger Shader-Operationen mehr nuetzen. Ich denke aber eher, dass die Verteilung von verschiedenen Hardware-Komponenten nicht optimal ist, oder nicht optimal genutzt wird.
Hat jemand schonmal die T4 fuer RT genutzt? Die sollte doch einen aehnlichen Hardwarestand haben wie die RTX. Ok, sie hat keinen Videoausgang, das macht es problematisch. Das waere aber die beste Moeglichkeit zu schauen ob RT Cores nur Tensor Cores sind oder etwas anderes.