8月25日,UC Berkley、Google等人提出了一种新的方法来实现SOTA结果的合成任务,即利用稀疏输入视图集优化基本的连续体场景函数,该算法采用完全连通的深度网络来表示场景,其输入是一个单一的连续5D坐标(空间位置(x,y,z)和视角方向(theta,φ),输出到这个空间位置的体积密度和视点相位发射)。
在这项研究中,通过查询摄像机光的5D坐标来合成视图,并使用经典的体绘制技术将输出的颜色和密度投射到图像中。由于体绘制本身是可微的,优化表示所需的唯一输入是一组已知摄像机姿态的图像。研究人员介绍了如何有效地优化神经辐射场(神经辐射场),使场景具有复杂的几何形状和外观的真实的新视图,其在神经绘制和视图合成方面的效果比以前的工作更好。本文在ECCV 2020获得了最佳论文奖。