ZeroStrat schrieb:
Die RT Cores alleine werden das beschleunigte Hardware-RT nicht ausmachen. Das Konzept müsste eigentlich auch optimierte Speicherzugriffe beeinhalten, also auch Cache-Strukturen.
Das ist der Punkt. Mit den par Einheiten, die Rays verschiessen ist es eben bei Weitem nicht getan.
Es geht hier um Speicher- und Cache- Management. Diese Einheiten werden von RTRT geradezu zerstört in ihrer Effizienz, was wiederum allen daran angeschlossenen Einheiten an die Performance geht.
Auch ist klar, dass bei der Organisation der RT Einheiten in RDNA2 eine hohe BB- Probing/Intersection- Leistung zu erwarten ist.
Jedoch war die reine Raygen- Verschuss und Auswertungsleistung ja schon bei Turing eher nebensächlich da überdimensioniert. Problematik ist die Belagerung der Shader (in dem Falle physisch gemeint) mit entsprechenden Auswertungs- und den anschließenden Effekt- Aufgaben.
Und wie bereits weiter oben erwähnt haben wir noch den Unterhalt bzw. die Generierung der Beschleunigungsstruktur.
Da beisst sich in gewisser Weise gerade die Katze in den Schwanz. Je mehr Aufwand man in die Beschleunigungsstruktur laufen lässt, umso leichter tut sich der gesamte Raytracingrattenschwanz.
Nur bringt das derzeit wenig, weil eben die Erzeugung und die Pflege dieser Struktur schon ziemlich viel Rechenzeit in Anspruch nimmt.
Den Ansatz für Co- Prozessoren, der hier oftmals per Gerücht rumgeistert finde ich relativ charmant.
Denn wenn man RTRT auf die Hauptaufgaben herunterbricht, handelt es sich hier immer um Spiegelungen/Refractions, Illumination/Shadows/AO.
Diese Techniken greifen ja weitläufig ineinander, sprich man kann viele Effekte an einem Intersection- Ergebnis festmachen.
Wenn man deren Berechnung grundsätzlich in einen Hilfschip gießen würde, könnte das nochmal einen großen Geschwindigkeitsschub liefern und vor allem die Rendereffktnutzung für alle Entwickler vereinfachen und deutlich attraktiver gestalten.
Da man aber derzeit noch so starke Fortschritte macht, was die effiziente Nutzung der neuen Techniken anbelangt, wird man sich das "Zementieren" dieser Effekte noch nicht trauen. Zu groß ist die Wahrscheinlichkeit, dass in ein par Monaten jemand mit einem anderen revolutionären Ansatz zur Berechnung kommt, der aus den Chips von heut auf morgen Hardwareschrott generiert. (z.B. ReSTIR)
Zurück zu RDNA2 in den Konsolen. Ich bin der Überzeugung, dass man auf den neuen Konsolen RTRT Effekte in beschränktem Umfang sehr gut und in erweitertem Umfang (Multieffekt, je nach Effekt) gut nutzen können wird.
Zwar sollte man da keine 4K und 60FPS erwarten, aber in niedrigeren Auflösungen sollte mit Upscaling da was machbar sein, was konstant bei oder über den sonst angestrebten 30FPS liegt.
Und diesbezüglich wird man in einigen Bereichen (z.B. Raytraced Ambient Occlusion und einhergehend Ambient Illumination/Light Bleeding) gerne auf diese Lösungen zurückgreifen, da sie vieles vereinfachen und dabei eine bessere Qualität liefern und schon einen wichtigen Teil der Qualität einer vollständigen GI Lösung ins Bild transferieren.
Zudem kosten z.B. die oben genannte Grafikkniffe im Gegensatz zu seinen kleinen Brüdern durch die Hardwarebeschleunigung eben keine Mehrleistung, sondern könnte mit deutlich höherer Qualität sogar schneller laufen.
Allein das würde den optischen Eindruck von Spielen schon erheblich aufwerten und ist durch die Konsolenhardware sicher leistbar.
Die Frage, die sich mir bei all dem stellt ist, wie langlebig diese Konsolengeneration ob des bevorstehenden Umbruchs der Renderingtechnik sein wird.
Denn gerade Konsolen waren ja immer bekannt dafür, mit vielen Spezialchips und Spezialrecheneinheiten neue Techniken aus Geschwindigkeits- und Kostengründen in Silizium zu gießen (Mode 7 im SNES oder jetzt Kraken in der PS5) und sich damit einen Vorteil gegenüber der PC Hardware zu verschaffen.
Das Hardwarekarussell dreht sich in den nächsten Jahren meines Erachtens wieder deutlich schneller. Endlich...