Test Battlefield V mit DXR: Update beschleunigt Raytracing massiv

pietcux schrieb:
... hab ich dich ja schön an der Nase herum geführt. Ich hab mich nur mal mit einem kurzen Satz auf dein Niveau begeben. Und den Sprung in den Brunnen überlaß ich dir auch noch.

Oh ja, ungemein hast Du mich an der Nase herum gefuehrt, zumal ich dann aber mit meinem Niveau ja erst einmal auf Deines herunter gehen haette muessen und das ist aber leider nicht geschehen; der sinnbildliche "Sprung in den Brunnen" scheint ja leider an Dir vorbei gegangen zu sein.
 
  • Gefällt mir
Reaktionen: pietcux
Chismon schrieb:
Die paar Early Adopter, Hobby-Enthusiasten und HardCore nVidianer braucht es ja schliesslich auch fuer die ersten RTX "Extrawurst"-Karten um die Technologie erst einmal ein wenig anzuschieben/massiv gegen zu finanzieren.

Denkst Du wirklich, dass die RTX reihe einen so hohen Verbreitungsgrad erreichen wird, dass NVIDIA ernsthaft damit rechnen würde, dass da groß etwas gegenfinanziert werden kann?
Ich denke nicht. Ich denke auch, dass diejenigen, die dort die Preise festgesetzt haben, nicht darauf aus waren, hier im ersten Schritt gleich die Multimiliarden einzunehmen.

Ich denke, dass die Karten ein Teaser für kommende Generationen sind und es wahrscheinlich taktischen überlegungen geschuldet war, aus einer vorhandenen Fertigungsgröße noch einmal das Maximum rauszupressen und die Softwareentwickler auf kommende Änderungen in der Renderinglandschaft vorzubereiten.

Jeder halbwegs oekonomisch denkende/nuechtern analysierende GPU-Kaeufer wird den Kopf schuetteln wenn es darum geht jetzt noch in 12nm GPUs zu investieren (das gilt uebrigens auch fuer die RX 590 von AMD, es sei denn die aktuelle GPU ist gerade abgeraucht und man braucht dringend Ersatz),
Bei einem neu erscheinenden Produkt zählt nur die Leistung. Wen interessiert es unter welchen Fertigungsbedingungen diese zustande kommt?

bevor nVidia dann hoffentlich in 7nm/durch den echten Shrink noch deutlich mehr Leistung fuer RTX und DLSS sowie vor allen Dingen mehr GPU-Speicher (Langlebigkeit) als bei der Vorgaengergeneration bietet, bei idealerweise humaneren Preisen und einem reichhaltigeren RTX-Spieleangebot ;).
Das ist halt genau die Hoffnung und die Spekulation auf die sich hier viele Leute stützen bzw. darauf hoffen.
Ich bin da eher einer der lieber den Spatz in der Hand, als die Taube auf dem Dach hat.
Dafür gibts wiederum andere Dinge, die mich nicht so interessieren und wo ich gut abwarten kann (Mobilfunk, Autos)... Da gibts auch welche, für die es das höchste ist sofort und umgehend das neue Modell haben zu müssen.
Die freuen sich dann drüber, können es sofort nutzen und alles ist gut.

Wobei, ob die angekuendigten RTX-Titel (von denen mich neben SOTTR eigentlich nur MechWarrior 5 richtig interessieren wuerde, zur Not noch Metro Exodus) alle im Handel sein werden, bevor ein nicht unwahrscheinlicher 7nm Turing Refresh (kurz nach RX 3080 (Navi 10) Marktstart mit einem RTX 3060 Konkurrenzmodell) aufschlaegt?
Siehe oben... Kann sein oder aber auch nicht.

Im Vergleich zur Pascal Generation sind die aktuellen Turing Modelle trotzdem jetzt schon Ladenhueter, wenn man (zugegeben hohe) nVidia (Absatz-)Massstaebe anlegt und die RX Vega GPUs sind mittlerweile gute Alternativen bis zur 500 Euro "RTX-Extrawurst" bzw. 12nm-Fertigungs-Grenze.
Im vergleich zur 8xxxer Serie sind auch alles andere verhältnismäßig Ladenhüter. Es gibt halt ab und zu Generationen mit einem unverhältnismäßig großen Push. Die sind im Schnitt gesehen aber eher selten.

Muss halt jeder selbst wissen, ob er jetzt schon mit den neuen Techniken Spielen will und etwas mehr Zaster auf die Ladentheke legt, oder ob er wartet. Das ist das ewige und alte Spiel in der IT.

Und eine ökonomische Vernunft beim Thema Luxus, Spiel und Hobby messen zu wollen, finde ich irgendwie befremdlich, weil sich da doch die eigenen Befindlichkeiten oftmals so weit von denen einer anderen Nutzergruppe unterscheiden können, so dass man einfach keinen gemeinsamen Konsens der "Vernunft" finden kann. Dazu ist unter anderem die wirtschaftliche Ausgangslage eines jeden einzelnen hier viel zu verschieden.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Hias_L
ZeroZerp schrieb:
In Sachen Qualität und Speed ist somit allein deshalb noch einiges zu erwarten, außer die vollmündigen Ankündigungen von dem, was die Tensor- Cores zu leisten im Stande sind, waren eine Lüge...

Siehe oben. Du hast eine komplett falsche Vorstellung davon, wie das hybrid- Raytracing derzeit funktioniert.
Wir sind nicht bei einem Full- Scene Raytracer. Die RT Cores sind derzeit nur Beschleunigereinheiten für die Strahlenverfolgung und können nicht mehr verarbeiten.

Grüße
Zero

Also erstmal vielen Dank für deine ausführliche Antwort, Du scheinst dich da tatsächlich besser informiert zu haben. Ich hatte hauptsächlich noch die Präsentation auf der GamesCom im Kopf, nach welcher die RT-Leistung der neue Standard sei und aufgrund der nacheinander auszuführenden Berechnungen deren Berechnungen einfach vor oder hinter den Shadern dazu kämen. Offenbar war das wohl vereinfacht oder falsch. :freak:

Wenn ich dich richtig verstehe (und ja, ich hab mir den Link tatsächlich kurz angesehen), berechnen die RT-Cores also nichts weiter als Vektoren bzw. deren Kollisionen mit Geometrie und welche Art von Kollision da entsteht, also wie die Berechnung weiter geht, wie viele Rays von da wieder ausgestoßen werden, etc., das muss dann ein Shader berechnen, da die RT-Cores das nicht können? Und dann gehen die weiteren Strahlen an die RT-Cores, die finden weitere Kollisionen und dann kommen wieder Shader und so weiter?
Das könnte auch erklären, warum man die Shader um FP-16-Shader erweitert hat und das kaum einen Geschwindigkeitsvorteil zu bringen scheint. Auf die neuen Shader ist er damals ja nur recht kurz eingegangen.

Die Aussage, dass jetzt alles an den GigaRays hinge, wäre dann auch Quark. Ich hab zwar mitbekommen, dass Lederjacke gerne übertreibt, aber dass ich nach seiner Präsentation alles falsch verstanden hätte, damit hab ich offenbar nicht gerechnet!?!
 
  • Gefällt mir
Reaktionen: .Sentinel.
@KarlKarolinger :
Ja ma erkennt auch schon an der Power Consumption bei aktiviertem DXR, dass hier noch nicht alles ausgeschöpft wird.
Spiele ich WQHD Ultra mit DXR Ultra hat meine Karte nur noch eine Power Consumption von 60-80%, was bei einer Referenz von 100% (260Watt) nicht mehr viel ist :-D

Da liegt noch richtig viel Potential vergraben.
 
  • Gefällt mir
Reaktionen: .Sentinel.
Fraggball schrieb:
Ich finde auch man sollte die diskussion über geschäftsmodelle und technik trennen.

Auf jeden Fall. Ich mag nun Nvidia überhaupt nicht und viel Geld gebe ich auch nicht für eine Grafikkarte aus, dass ich in Kürze auf den RT-Zug aufspringen werde. Aber die Thematik finde ich sehr interessant und verfolge sie gerne weiter, auch wenn ich dann freiwillig auf Nvidia-Themen klicken muss :D
 
  • Gefällt mir
Reaktionen: Sun-Berg, .Sentinel. und Fraggball
Chismon schrieb:
Oh ja, ungemein hast Du mich an der Nase herum gefuehrt, zumal ich dann aber mit meinem Niveau ja erst einmal auf Deines herunter gehen haette muessen und das ist aber leider nicht geschehen; der sinnbildliche "Sprung in den Brunnen" scheint ja leider an Dir vorbei gegangen zu sein.
Also Humor hast du jedenfalls nicht auf deinem hohen Niveau. Hier unten geht das scheinbar besser. Ich bin Grad auf 200m über Normal Null.
 
Ozmog schrieb:
Auf jeden Fall. Ich mag nun Nvidia überhaupt nicht und viel Geld gebe ich auch nicht für eine Grafikkarte aus, dass ich in Kürze auf den RT-Zug aufspringen werde. Aber die Thematik finde ich sehr interessant und verfolge sie gerne weiter, auch wenn ich dann freiwillig auf Nvidia-Themen klicken muss :D
schön zu sehen das es hier auch vernünftige leute gibt!
ich freue mich immer über solide, auch mal differenzierte technikgespräche.
dieses ewige abgleiten jedes einzelnen threads in AMD vs Nvidia ohne argumente und verstand ist einfach nur ätzend.
 
  • Gefällt mir
Reaktionen: Schatten123, FCK-THIS, pietcux und 3 andere
Esenel schrieb:
@KarlKarolinger :
Ja ma erkennt auch schon an der Power Consumption bei aktiviertem DXR, dass hier noch nicht alles ausgeschöpft wird.
Spiele ich WQHD Ultra mit DXR Ultra hat meine Karte nur noch eine Power Consumption von 60-80%, was bei einer Referenz von 100% (260Watt) nicht mehr viel ist :-D

Da liegt noch richtig viel Potential vergraben.

Soll das heißen, wenn die Shader überlastet sind (RTX an) ist die Power Consumption niedriger als wenn sie weniger Last haben (RTX aus)? Oder kommt deine Karte eben nie auf 100%? Wie viel hat sie denn ohne RTX?
Wenn ohne RTX die Shader voll ausgelastet sind, mit RTX die Shader voll ausgelastet sind und zusätzlich die RT-Cores arbeiten, weiß ich nicht, warum die Power Consumption mit RTX niedriger ("nur noch") sein sollte? Pausieren die Shader mit RTX immer, während die RT-Cores arbeiten oder so? Ist das ein strenger Wechsel (RT-Phase, Shader-Phase, RT-Phase, Shader-Phase, etc.) und nicht dynamisches Hin- und Hergereiche von Berechnungen? Das klingt alles furchtbar mysteriös und unfertig, mindestens so unfertig, wie die Vega. :D

Die Vega kann ja auch FP16, da hab ich mich schon gefragt, ob man zwischen AMD FP16 und NVidia FP16 einen Standard schaffen kann, damit demnächst alle Spiele durch FP16-Shader schneller werden und nicht nur Wolfenstein. Hab da aber noch nicht viel zu gelesen, weil alles nur auf RTX fokussiert war. Hier klingt es ja fast so, als gäbe es FP16 bei NVidia nur, weil man es unbedingt für Hybrid-RT braucht.
 
KarlKarolinger schrieb:
mit RTX die Shader voll ausgelastet sind und zusätzlich die RT-Cores arbeiten, weiß ich nicht, warum die Power Consumption mit RTX niedriger ("nur noch") sein sollte?

Klingt eher, als wenn sie mit RTX nicht voll auslastet, anders macht es natürlich kein sinn...
 
Ozmog schrieb:
Klingt eher, als wenn sie mit RTX nicht voll auslastet, anders macht es natürlich kein sinn...

Deshalb meinte ich ja, dass vielleicht phasenweise mal die RT-Cores und mal die Shader voll ausgelastet sind. Wenn die ständig abwechselnd rechnen kann das ja so sein, dann verbrauchen die Shader nichts, während die RT-Cores rechnen und umgekehrt. Wenn die RT-Cores dann weniger verbrauchen, als die Shader, ist der Gesamtverbrauch niedriger, als wenn durchgehend die Shader belastet werden. Dass beide nicht ausgelastet sind und man trotzdem weniger fps hat, das wäre ja noch merkwürdiger. ;)
 
KarlKarolinger schrieb:
Wenn ich dich richtig verstehe (und ja, ich hab mir den Link tatsächlich kurz angesehen), berechnen die RT-Cores also nichts weiter als Vektoren bzw. deren Kollisionen mit Geometrie und welche Art von Kollision da entsteht, also wie die Berechnung weiter geht, wie viele Rays von da wieder ausgestoßen werden, etc., das muss dann ein Shader berechnen, da die RT-Cores das nicht können?

Bingo! Genau so läuft das... Wir sind da wie gesagt noch weit entfernt von einem Full- Scene Raytracing im eigentlichen Sinne. Ein Teilaspekt davon wurde hardwarebeschleunigt.
Es wird also immernoch getrickst. Allerdings schon auf einem sehr hohen Niveau.
Aber irgendwie mussten sie es so implementieren, dass die neuen Features eben gut mit Raster- Engines zusammenarbeiten und das bedeutet, dass viel über die Shader laufen muss.

Deswegen gibts auch den Engpass bei den Shaderberechnungen, weil der Treiber erstens eine Parallelisierung von Standard- Shadern und den RT Shadern noch nicht implementiert hat (das ist noch eine sehr große Performancebremse), die man aber auch mit dem nächsten Patch ausbügeln wollte.

KarlKarolinger schrieb:
Die Aussage, dass jetzt alles an den GigaRays hinge, wäre dann auch Quark.
Genau das. Das ist einfach Marketinggeschwurbel. Derzeit haben sie einen Flaschenhals auf Shaderebene, den sie eben mit den neuen Treiberfunktionen beseitigen wollen.
Aber auch da ist das Potenzial natürlich irgendwo begrenzt. Denn wenn eine Engine die Shader bis zum letzten ausnutzt, dann bleibt wieder weniger Zeit um RT- Treffer auszuwerten und schon sind wir wieder beim aktuellen Dilemma.

Um diese Problematik zu entschärfen hat NVIDIA eben wiederum die Tensor- Cores und die Mesh- Shader integriert, die wiederum einen haufen Last von den übrigen Ausführungseinheiten nehmen können.

Nur im Zusammenspiel wird das dann alles zu dem werden, was man tatsächlich in letzter Instanz von der Hybrid- Raytracing- Methode erwarten darf. Ich glaube aber, dass wir uns da alle einig sind, dass da noch ein wenig Zeit ins Land gehen wird, bis das ganze ordentlich zusammenspielt.

Grüße
Zero
Ergänzung ()

KarlKarolinger schrieb:
Soll das heißen, wenn die Shader überlastet sind (RTX an) ist die Power Consumption niedriger als wenn sie weniger Last haben (RTX aus)? Oder kommt deine Karte eben nie auf 100%? Wie viel hat sie denn ohne RTX?
Wenn ohne RTX die Shader voll ausgelastet sind, mit RTX die Shader voll ausgelastet sind und zusätzlich die RT-Cores arbeiten, weiß ich nicht, warum die Power Consumption mit RTX niedriger ("nur noch") sein sollte? Pausieren die Shader mit RTX immer, während die RT-Cores arbeiten oder so? Ist das ein strenger Wechsel (RT-Phase, Shader-Phase, RT-Phase, Shader-Phase, etc.) und nicht dynamisches Hin- und Hergereiche von Berechnungen? Das klingt alles furchtbar mysteriös und unfertig, mindestens so unfertig, wie die Vega. :D
Auch wieder genau richtig! Die Shader legen Zwangspausen ein. Wie oben beschrieben haben wir derzeit noch einen durchgängigen Kontextwechsel, den die Karte zwischen RT und normalen Shaderoperationen durchführen muss.

Mit einem Treiberupdate soll das in nächster Zukunft parallel möglich sein:
Even Nvidia driver updates are expected to deliver further boosts to frame-rates, such as the ability to run ray tracing compute shaders in parallel.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: IgnazMK, KarlKarolinger und Ozmog
KarlKarolinger schrieb:
Dass beide nicht ausgelastet sind und man trotzdem weniger fps hat, das wäre ja noch merkwürdiger.

Da ist dann wohl noch einiges an Optimierung nötig, wodurch dann auch wieder mehr Power bei RT raus kommt. Zumindest, soweit es möglich ist.
 
@Ozmog
Ja- Da ist noch vieles möglich, Und wie auch weiter vorher schon angesprochen, finde ich es auch überhaupt nicht schlimm, wenn sie an Stellen, an welchen ein "teures Raytracing" keinen Vorteil bietet, einen Hybriden aus Screenspace- und Rt Reflections machen.

So könnte man z.B. eine Pfütze erst einmal mit einer geringen Menge an Strahlen beschiessen, diese dann durch einen Shader schicken, der die Unterschiede zum Screenspace- Buffer analsiert und dann nur diese Unterschiede über Raytracing mit höherem Strahlenbeschuss berechnen lassen.

Dann hätte man gänzlich ohne Qualitätsverlust einen Haufen unnötig aufgewandter Leistung für andere Dinge übrig.

Und weil wir grade so schön dabei sind - In den Köpfen hat sich auch irgendwie festgesetzt, dass das so abläuft, dass gewisse Objekte bzw. Meshes ein Attribut haben, was dann sagt Raytracing an, oder aus.

Das Raytracing läuft aber in wirklichkeit tatsächlich jetzt schon über die gesamte Bildschirmfläche. Ausschlaggebender Faktor, ob auf irgendetwas vermehrt Strahlen verschossen werden ist, wie rauh ein Material ist.
Da die Renderer heutzutage ja meist alle auf Physically Based Rendering umgemodelt wurden, erkennt die Engine den Unterschied von einer rauhen zu einer glatten Oberfläche.
Überschreitet eine Stelle auf dem Screen einen gewissen Wert, wo es von Rauh zu glatt übergeht, fängt die Engine dann an auf Raytracing umzustellen. Unabhängig ob es ein Objekt, das Terrain oder sonstwas ist. Ein schlauer Ansatz.

Mit dem Qualitätsregler beeinflusst man unter anderem dann diesen Schwellwert. Wenn ich noch relativ rauhe Materialien wie z.B. Holz in die RT Berechnungen mit einbeziehe, kostet das natürlich mehr Leistung, als wenn ich den Schwellwert ansetze, der einem Metall gleicht.
 
Zuletzt bearbeitet:
Genau das schrieb ich auch schon einiges weiter oben mal. Es steht eben noch längst nicht genug Leitung bereit, um jeden Kram mit RT zu berechnen. Die Tricksereien finde ich persönlich sogar eher beeindruckend, weil einiges gar nicht so sehr auffällt, dass es eigentlich nicht akkurat ist. Wozu für die unwichtigen Blätter RT-Leistung verbraten, wenn eh keiner nachzählt und die Position der Blätter überprüft, wenn man die Reflektion in einer Pfütze betrachtet.
Man steht ja noch am Anfang mit RT in RT (Raytracing in Real Time :D) und auch mit den aktuellen Karten ist sicher noch etwas potential übrig, genug werden sie aber natürlich noch nicht haben, dazu müssen wir wohl noch ein paar Generationen warten.
 
Pisaro schrieb:
Fakt ist, RT wurde verbessert. Fakt ist auch, dass dafür teilweise Details weggelassen wurden. Punkt.

Das ist korrekt. Korrekt ist aber auch das beim optimieren immer eine Balance zwischen Kosten = Leistungseinbußen und optischen Vorteil gefunden werden muss.

Vorher war extrem viel Laub vorhanden soviel das es simpel zuviel war als das es als normal angesehen werden kann. Das ist wie bei The Witcher 3, das extreme wehen der Haare
obwohl die Bäume fast still stehen.
 
Zuletzt bearbeitet:
Ozmog schrieb:
Man steht ja noch am Anfang mit RT in RT (Raytracing in Real Time :D) und auch mit den aktuellen Karten ist sicher noch etwas potential übrig, genug werden sie aber natürlich noch nicht haben, dazu müssen wir wohl noch ein paar Generationen warten.
Das ist eben die große Frage... Allein von der technischen Konzeption her, wäre die Leistung für ein 4K 60FPS Spiel mit einer von Grund auf für Hybrid- Raytracing entwickelten Engine mit allen zur verfühung stehenden Effekten sicher da.

Aber mal ehrlich- Welche große Spieleschmiede würde zum jetzigen Zeitpunkt die eigene Engine dermaßen tiefgreifend ändern, bei der derzeitig geringen Marktdurchdringung der RTX Karten.
Deswegen werden wir sicherlich noch viele halbgare Teilimplementierungen zu sehen bekommen, bis mal die ersten Engines kommen, die "Raytracing first" sind....

Dann werden die Karten neu gemischt.
 
ZeroZerp schrieb:
Dann wirst Du sehr schnell sehen, dass die RT Cores absolut ausreichen und man nur Sparsam ist, weil die Shader einer modernen auf Tricks basierenden Engine aufgrund hoher Shaderlast das im Hintergrund garnicht auswerten könnte, was man da so alles verschiesst.
Erstmal Danke für die ganzen Hintergründe.
Dann stellt sich mir bei o.g. Feststellung die Frage warum nVidia dann nicht dahingehend optimiert und die Shader größer Dimensioniert hat?
Denn jetzt - sofern ich das richtig verstanden habe - langweilen sich die TCs während die Shader nicht hinterherkommen. Also ein hausgemachter Flaschenhals.
Das ist ja eher suboptimal.
 
Bei bf5 gibt's noch viele dxr Baustellen, zum einen das die shader nach wie vor auch das denoising übernehmen, im gegensatz zu den dafür vorgesehenen tensor cores.
Zum anderen das die raytracing berechnung nach wie vor erst sehr spät in der renderpipeline zum tragen kommt anstatt parallel zu laufen.
Mal ganz abgesehen von den ganzen anderen Baustellen von denen wir hier alle garnix wissen.
Bin gespannt wie die Optimierungen da weiter von statten gehen.
 
@Unnu
Das ist auch etwas, wo ich auch nur den Kopf schütteln kann. Die haben einfach das Konstrukt nicht ordentlich kommuniziert und zudem ihre Software nicht so weit gebracht, dass man diese Funktionen alle überhaupt sauber nutzen kann.

Die Werkzeuge um die Shader zu entlasten, dass da deutlich mehr ginge, haben sie ja bereits entwickelt.

Fail, fail und nochmal fail. Dass die JETZT noch an irgendwelchen Treibern rumbauen, dass da überhaupt mehrere RT und standard Shaderoperationen parallel laufen können.... Da muss man sich echt am Kopf kratzen.

Und dass offenbar immer noch keine Bibliothek für das Denoising durch die Tensorcores existiert (ich hab bei denen schon mehrfach angefragt, wann die denn endlich fertig wird) eines der Hauptfeatures, die essenziell notwendig sind, um eben die Shader zu entlasten und mit wenig Strahlen ein gutes Ergebnis zu erhalten.... So bescheuert kann man doch eigentlich garnicht sein.

Als ob die NVIDIA Softwareentwickler selbst davon überrascht worden wären, dass die Karten, an denen NVIDIA ja schon seit zehn Jahren forscht, nun fertig sind.

Da hält man sich aber seitens NVIDIA sehr bedeckt, wenn man da entsprechende Fragen stellt.

Wenn Du mich fragst - Irgendwas ist da nicht ganz sauber gelaufen und läuft auch noch nicht sauber.
Vielleicht stellt sich jetzt im Nachhinein (aus was für gründen auch immer), dass das mit dem RT und den Tensor Cores bei bestehenden Engines dann doch nicht so richtig funktioniert.
Dann das wär doch der erste Gedanke, wenn ich "billig" einen großen Performancesprung machen will, dass ich die Shader vom Denoising befreie, was ja auch nicht zu knapp kostet und dafür eine extra dafür vorhandene, spezialisierte Einheit benutze, die das erstens tausendmal schneller kann und dazu noch in deutlich besserer Qualität...

Man weiss es nicht. Vielleicht gibts jetzt auch schon eine funktionierende Lösung, die dann im nächsten Patch nachgereicht wird. Einen Reim darauf machen, kann ich mir derzeit nicht und meine Anfragen verhallen im Nirvana :)
 
  • Gefällt mir
Reaktionen: Unnu
der grund dafür ist schlicht und ergreifend das Dice das DXR modell für bf5 noch auf den titan V karten entwickelt hat da keine rtx karten zur verfügung standen.
dafür ist das bisherige ergebnis dann doch recht beachtlich, ist ja problemlos spielbar!
 
  • Gefällt mir
Reaktionen: pietcux
Zurück
Oben