

靠网上晒的景点照就能还原3D建模,浙大团队这是要带我们云旅游?
source link: https://www.36kr.com/p/1759173460340998
Go to the source link to view the article. You can view the picture content, updated content and better typesetting reading experience. If the link is broken, please click the button below to view the snapshot at that time.

以NeRF为代表的神经渲染技术高速发展,学界已经不满足合成几个新视角让照片动起来了。
接下来要挑战的是根据照片直接输出3D模型,可以直接导入到电影、游戏和VR等图形生产线里的那种。
所用照片不是出自高质量数据库,就是直接从网上搜集游客拍摄的各大景点,设备、天气、距离角度等都会不一致。
生成的结果远看结构完整,近看细节丰富,如果你有VR设备也可以在Demo中直接预览3D版。
这项最新突破由浙江大学和康奈尔大学团队合作完成,登上图形学顶会SIGGRAPH 2022。
而在这之前,同类技术生成的3D模型连形状完整都做不到。
看到这里,网友纷纷表示这个领域的进展比人们想象的要快。
“慢点学,等等我”。
那么,这项研究靠什么取得了突破?
融合两种采样方式
具体来说,这项研究的基本框架借鉴了NeurIPS 2021上的NeuS,一种把隐式神经标准和体积渲染结合起来的方法。
但是NeuS使用基于球体的采样(Sphere-based sampling)方法,对于近景、小物体来说还算适合。
用于结构复杂的大型建筑物的话会有大量采样点采在空白区域,增加大量不必要的计算压力。
为解决这个问题,研究人员提出体素引导(Voxel-guided)和表面引导(Surface-guided)混合的新采样方法。
体素引导可以避免不必要的浪费,训练时所需射线(Traning ray)可以减少30%。
再结合表面引导增加真实曲面周围的采样密度,帮助神经网络更好拟合,避免丢失细节。
在消融实验中可以看到,仅使用体素引导方法收敛的比基于球体的方法快,但不如混合方法细节丰富。
与之前同类研究对比,新方法生成模型的完整性和细节方面更出色。
训练速度上也有明显优势,特别是在大型场景墨西哥城美术宫(PBA)。
△Ours为完全收敛结果,带小人图标的是训练过程中一个检查点
当然,新方法也不是完全没有缺点。
一个继承自NeRF的局限性是,如果相机位置校准有偏差会影响最终结果。
还有一个难以解决的问题,就是照片拍不到的建筑物背面和内部就无法精确重建了。
One More Thing
最后再补充一点,浙大团队中一些成员,之前还研究了神经3D人体重建。
可应用于为体育比赛提供自由视角的视频重放。
也是666了。
https://arxiv.org/abs/2205.12955
GitHub仓库
https://zju3dv.github.io/neuralrecon-w/
[1]https://zju3dv.github.io/neuralbody/
本文来自微信公众号“量子位”(ID:QbitAI),作者:梦晨,36氪经授权发布。
该文观点仅代表作者本人,36氪平台仅提供信息存储空间服务。
</div
Recommend
About Joyk
Aggregate valuable and interesting links.
Joyk means Joy of geeK