计图发布Jrender 2.0,可微渲染再升级,NeRF应用两倍提速!
Part1
可微渲染作为连接神经网络和渲染的工具,近年来在很多方向都推动了计算机图形学及计算机视觉的发展。其中,基于可微体渲染的工作尤为亮眼,如发表于ECCV2020的NeRF[1]获得最佳论文奖提名,仅一年已被引用近300次,发表于CVPR 2021的GIRAFFE[2]更是荣获CVPR的最佳论文奖(见图1)。据不完全统计,近一年来基于可微体渲染的工作超过50篇,发表于顶级会议、期刊的不下20篇,可微体渲染已引发学界新热潮!
图1基于可微体渲染的NeRF[1]及GIRAFFE[2]
Part2
同时,可微体渲染所需的三维场景内部表达连续性很强,非常适合神经网络训练,易与神经网络相关的工作进行结合。
但可微体渲染的求解复杂度是很高的,从渲染方程的角度来说,求解可微体渲染等同于求解无穷维积分。为了能够高效地求解可微体渲染问题,Jrender渲染库实现了Raymarching[3]算法(见图2)。该算法对发射自相机的每条光线会在物体内部进行采样,采样点的渲染特性加权求和即为相机所视颜色。
图3 渲染特性的神经辐射场表示
为了能够使我们的渲染框架更加通用,我们支持将Raymarching中采样点的渲染特性用两种方式表达:离散三维形式表达和神经辐射场形式表达(见图3)。其中离散三维形式主要用于传统渲染中,神经辐射场表达主要用于神经网络相关研究应用中,如NeRF[1]以及GIRAFFE[2]都采用了神经辐射场表达。
Part3
如前所述,计算机视觉、图形学领域的许多研究都在可微渲染的基础上完成。我们的可微渲染库Jrender正是基于这一需求开发出来的,能够帮助快速实现更多的上层应用(见图4)。
图5 在合成数据集上的渲染结果
图7 渲染速度比较
欢迎大家使用Jittor的可微渲染库JRender开展研究工作。
如果大家在使用过程中发现有什么问题,请大家在github提交issue或者pr。也可以加入Jittor开发者的QQ交流群,期待您提出宝贵的意见。
参考文献
Ben Mildenhall, Pratul P. Srinivasan, MatthewTancik,Jonathan T. Barron, Ravi Ramamoorthi, and Ren Ng. NeRF: RepresentingScenes as Neural Radiance Fields for View Synthesis, ECCV, 2020.
Niemeyer, M. and Geiger, A. Giraffe:Representing scenes as compositional generative neural feature fields, CVPR, 2021.
Novak, Jan and Georgiev, Iliyan and Hanika,Johannes and Kvrivnek, Jaroslav and Jarosz, Wojciech, Monte Carlo Methods forVolumetric Light Transport Simulation, Eurographics, 2018.
Shi-Min Hu, Dun Liang, Guo-Ye Yang, Guo-Wei Yang, Wen-Yang Zhou, Jittor: a novel deep learning framework with meta-operators and unified graph execution, Science China Information Science,2020, Vol. 63, No. 12, article no. 222103, pages: 1-21.
您可通过下方二维码,关注清华大学图形学实验室,了解图形学、深度学习及Jittor框架、CVMJ期刊和CVM会议的相关资讯。