Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsOpen Image Denoise: Intels freier Raytracing-Entrauscher für SSE-4.2-CPUs
Mit Open Image Denoise Version 0.8 hat Intel eine freie Softwarebibliothek zum Entrauschen von per Raytracing gerenderten Filmen und Bildern als Beta vorgestellt. Sie richtet sich in erster Linie an professionelle Anwender und nutzt Deep-Learning-Algorithmen. Vorausgesetzt wird eine x86-CPU mit mindestens SSE4.2.
Guter Artikel, spannendes Thema, aber ein bisschen kurz. Könnte man das Ganze, Film und Gaming, komplexer angehen und einen mehrseitigen Artikel wieder bringen? Allgemein solche Themen sind sehr spannend.
Du meinst "wieder" bringen? Es gab ja in der Vergangenheit eine Kolumne über Raytracing bei Intel, welche in etwas größeren Abständen mehrteilig und federführend von Daniel Pohl geführt wurde.
Hmm, oben wird von Bildern gesprochen, das wohl aber kaum das Anwendungsgebiet sein wird, sollte die Zeit kein erheblicher Vorteil zum Rendering sein. Sprich im Alltag wird der Entrauscher eher Videosequenzen aufbereiten.
Häschen schrieb:
Wäre es theoretisch möglich das eine SSE 4.2 CPU das Raytracing einer Turing GPU beschleunigt?
Hat zwar nicht wirklich hiermit was zu tun aber, Filme.... ein Interessantes Thema.
Mich nervt es schon sehr dieses andauernde Künstlich hinzugefügte rauschen in Spielfilmen, es sieht einfach viel besser aus wenn das Bild ganz Klar ist und nicht wie 20 Jahre alt.
Noch gibt es Serien und Animationsfilme ohne Rauschen aber es werden langsam weniger vorallemdem was die Serien angeht.
Hat zwar nicht wirklich hiermit was zu tun aber, Filme.... ein Interessantes Thema.
Mich nervt es schon sehr dieses andauernde Künstlich hinzugefügte rauschen in Spielfilmen, es sieht einfach viel besser aus wenn das Bild ganz Klar ist und nicht wie 20 Jahre alt.
Noch gibt es Serien und Animationsfilme ohne Rauschen aber es werden langsam weniger vorallemdem was die Serien angeht.
Wobei ich sagen muss, dass mit unserem 55" 4k oled plötzlich die ein oder andere CGI in Filmen sehr mau wirken. Ich gehe davon aus, dass das nachträgliche Rauschen eher zum Kaschieren solcher Schwächen als als Kunstmittel genutzt wird.
Hier muss ich aber auch sagen, dass der Ansatz von Nvidia grobe Raytracingbilder mittels deepKI Algorithmen live anzupassen ziemlich genial fand. Aber mangels Unterstützung in Games ist raytracing bislang ja noch kein wirkliches Thema, und in der Videoproduktion ist es mir egal ob die 2 oder 5 Stunden für nen Bild rendern.
Wenn ich die beiden Bilder vergleicht, ist beim ersten alles "verrauscht", nicht nur das Wasser (wie ich gedacht hätte). Die Bäume, die Berge, ...? Wieso sind die auch verrauscht?
Oder hat man über ein gutes Bild nen Filter (Rauschen erzeugen) gelegt? Ich mein, wäre Blödsinn, aber die Bildqualität des ersten Bildes ist ziemlich mäßig.
@SIR_Thomas_TMC das liegt hier daran, dass das komplette Bild mit Path Tracing gerendert wurde und nicht nur die Spiegelungen auf der Wasseroberfläche wie bei Battlefield V
mich würde ja der zeitliche Faktor interessieren. Wie lange es in Sekunden dauert das Bild mit Path Tracing zu rendern und wie schnell das Denoising mit Intels Lib dann in Sekunden geht.
Warum tritt hier Rauschen eigentlich auf, meint man damit das selbe wie beim Fotografieren?
Die Bilder entstehen doch rein digital, wo kommt dieses Dunkelrauschen/Ausleserauschen denn her?
@Recharging Das Rauschen entsteht durch die begrenzte Verwendung von erdachten Strahlen, die für die Strahlenverfolgung (=Raytracing) bei der Generierung gerendeter Bilder verwendet werden. Je mehr Strahlen man entsendet desto rauschärmer wird das Bild. Aber die Dauer für das errechnete Frame wird auch immens erhöht, was Zeit (und Strom) kostet. Deshalb versucht man, mit weniger Strahlen auszukommen. Das bedeutet aber wiederum Bildrauschen, und das versucht man nun mit Tricks (siehe Artikel) zu kompensieren.
Sorry, aber für mich sieht das so aus, als ob die einfach für die schwarzen Punkte einen Nearest-Neighbour Algorithmus benutzt haben - das entrauschte Bild sieht nämlich an den entrauschten Stellen total verwaschen aus.
Aber gut, ist jetzt nicht mein Fachgebiet, müsste man mal Brecht fragen (Blender 3d).
Das Rauschen entsteht durch die begrenzte Verwendung von erdachten Strahlen, die für die Strahlenverfolgung (=Raytracing) bei der Generierung gerendeter Bilder verwendet werden. Je mehr Strahlen man entsendet desto rauschärmer wird das Bild.
Danke. Dh, das Rauschen ist die Konsequenz von fehlender Mittlung von möglichst vielen Samples pro Pixel? Dh, bei nur einem, ist der (Monte Carlo-)Algorithmus so, dass jedes Pixel zwar korrekt errechnet aber insgesamt das Bild sehr rauschig aussehen kann?
Das Rendern mit ausreichend Samples für ein rauschfreies Bild dauert auf einem threadripper Stunden, der Algorithmus eher Minuten, wenn nicht noch weniger. Das sind exponentielle Größenordnungen.
Das ist für den Alphanerd Raketentechnik und er hat trotz Bemühung des Autors kaum etwas verstanden.
Toll finde ich es, dass Intel diese (für mich Raketen)Technik unter Apache 2.0 Lizenz gestellt hat. So oft ich gegen den Laden schimpfe, sowas ist zu loben und bringt die Welt weiter.
Edit: aber Jan hat ja genug Links zur Verfügung gestellt. Muss ich hoffentlich nicht dumm sterben