Recharging schrieb:
Danke. Dh, das Rauschen ist die Konsequenz von fehlender Mittlung von möglichst vielen Samples pro Pixel? Dh, bei nur einem, ist der (Monte Carlo-)Algorithmus so, dass jedes Pixel zwar korrekt errechnet aber insgesamt das Bild sehr rauschig aussehen kann?
Wäre das Pixel correct berechnet - gäbe es kein Rauschen
Das Thema ist eher, dass eben durch zu geringen Sample Count bei bspw. einer Schattenlage das Resultat schlicht ein schwarzes Pixel wäre - das Nachbarpixel ist aber ggf. nicht im Resultat im Schatten -> unterscheidet sich damit dann insofern stark, dass der Farbwechsel hart ist. Viele dieser harten Wechsel geben ein Rauschen über das Bild. Vor allem dort wo Übergänge stattfinden (was in der Szene recht viele sind)
Das Aussenden von mehreren Strahlen bedeutet beim Resultat, dass die Ergebnisse der Berechnungen kumuliert werden - es wird also viel weniger harte Wechsel geben. Die Verläufe werden weicher, die Schatten werden stimmig usw.
Mit nur einem Strahl pro Pixel wäre ein Pixel im Schatten schlicht schwarz - real wäre es das aber eigentlich gar nicht. Der Schattenwurf ist eher gräulich, weil du ja trotzdem etwas siehst. Schwarz würde bedeuten, du siehst exakt nichts. (es wird gar kein Licht zurückgeworfen) Das kommt so aber in den aller seltensten Fällen vor... Man sendet also mehr Strahlen aus - davon werden dann auch mehr kein Schwarz bringen. Im Schnitt am Ende kommt also wie gesagt eher ein Grau bei raus. Um so mehr Schatten, um so dunkler. Um so weniger, um so heller. (extrem vereinfacht gesagt)
Insofern passt das Wort "korrekt" in der Aussage mMn nicht ganz. Denn das Pixel wird mit um so mehr Strahlen annäherungsweise korrekt. Um so weniger, desto weniger nah ist man am korrekten Ergebnis. Da kann es dann mal passen - aber auch mal deutlich daneben sein. Was auch nicht nur Schatten (also die Helligkeit) betrifft, sondern eben auch die Farbe, welche durch sowas beeinflusst wird -> bspw. wenn durch indirektes Licht/Reflextion die falsche Farbe ins Spiel kommt.
Alphanerd schrieb:
Toll finde ich es, dass Intel diese (für mich Raketen)Technik unter Apache 2.0 Lizenz gestellt hat. So oft ich gegen den Laden schimpfe, sowas ist zu loben und bringt die Welt weiter.
Naja, ist jetzt nicht unbedingt so, dass es im Bereich Rendering keine OpenSource Software geben würde. Im Endeffekt hält sich der Spaß dort doch schon gut die Waage. Es gibt die bezahlmich Software mit recht großen Entwickler Teams, die auch gut pushen in dem Bereich - und es gibt die OpenSource Seite (bspw. zu nennen wäre hier die Blender Foundation oder auch die Leute hinter POV Ray), die das in "frei" machen.
Problem an "frei" ist halt wie sehr oft in der Industrie - auf dem Papier cool, in den Praxis aber fehlt dir nicht selten einfach der direkte Ansprechpartner. Selten gibt es Verträge zwischen dem Endnutzer und jemanden, den man da auf den Vertrag festnageln kann usw.
estros schrieb:
Hmm, oben wird von Bildern gesprochen, das wohl aber kaum das Anwendungsgebiet sein wird, sollte die Zeit kein erheblicher Vorteil zum Rendering sein. Sprich im Alltag wird der Entrauscher eher Videosequenzen aufbereiten.
Die Videosequenz besteht auch "nur" aus einer Abfolge von einzelnen Bildern.
Im Endeffekt wird in der Rendersoftware die Animation "beschrieben" - und diese Beschreibung läuft dann durch den Renderer, welcher anhand der Settings entsprechend x Bilder berechnet. Nach erfolgtem Rendervorgang werden die Bilder zu einem Video zusammen gelegt. Anders als bei einer Echtzeit-Methode ist die Geschwindigkeit des Outputs hier fix. Der Renderer wird nicht bei weniger komplexen Szenen mehr Bilder die Sekunde im Video haben - sondern immer exakt die gleiche Anzahl, er schafft dafür halt mehr Filmzeit.
SIR_Thomas_TMC schrieb:
Wenn ich die beiden Bilder vergleicht, ist beim ersten alles "verrauscht", nicht nur das Wasser (wie ich gedacht hätte). Die Bäume, die Berge, ...? Wieso sind die auch verrauscht?
Das Bild wird, wie schon angesprochen wurde, ganzheitlich über diese Methode "gerendert". Deswegen gibt es auch mal mehr mal weniger, aber auf dem ganzen Bild sichtbares rauschen. Dunklere Bereiche (Schatten) ist dabei idR anfälliger als hellere Bereiche. Was (siehe oben) in der Natur der Sache liegt, wenn zu wenig Strahlen ausgesendet werden um ein möglichst genaues Ergebnis des Pixels zu errechnen. Da wo aber wenig bis kein Schatten existiert und eh "alles" Licht quasi zurück geworfen wird - rauscht es auch nicht (so stark)...
MMn ist der Vergleich in Form der Winzig Bilder aber auch nur bedingt sinnig.
Man müsste das mal auf einem großen Output Sample machen. Also keine Ahnung 8k oder 16k oder so - und DANN mal vergleichen. Weil wenn der Ast im Hintergrund eh nur 1-2 Pixel breit ist - was soll da ein Denoiser groß machen können? Das kann nur Matsche werden...