

李飞飞团队实现"隔空建模",透过遮挡物还原完整3D人体模型 | 量子位
source link: https://www.qbitai.com/2024/01/111708.html
Go to the source link to view the article. You can view the picture content, updated content and better typesetting reading experience. If the link is broken, please click the button below to view the snapshot at that time.

李飞飞团队实现“隔空建模”,透过遮挡物还原完整3D人体模型
遮挡部分建模质量接近翻倍
克雷西 发自 凹非寺
量子位 | 公众号 QbitAI
注意看,这个男人搬着一个长长的柜子,画面中半个人都被遮挡住了。
但即使有这样的遮挡,男人的整个身体在AI面前依然是无所遁形。

哪怕是蹲在椅子背后只露出头,依然可以被模型完整还原。

从遮挡物背后把人“揪”出来的,是李飞飞团队推出的人体建模新工具Wild2Avatar(本文简称W2A)。
只要一段4秒左右的的单角度视频,就能构建出完整的3D模型,有遮挡也不怕。

相比此前的SOTA方法,Wild2Avatar在人体建模上可谓是实现了质的飞跃。
建模效果完胜Vid2Avatar
从下面的对比图中(从左到右依次为带遮挡原图、Vid2Avatar提取结果和W2A提取结果)可以看到,作为baseline的Vid2Avatar方法只能大概描绘出人的轮廓,遮挡物直接被“拍扁”到了人物身上,而且轮廓看上去也不够准确。
而W2A提取出的人物不仅轮廓更加精确,看上去也更具立体感,关键是遮挡物被完美地去除,显现出了完整的人物结构。

对遮挡物的去除,W2A操作得也更为彻底,没有留下多余的痕迹。

而baseline中部分结构缺失的现象,在W2A中也没有发生,人物的结构十分完整。

而且,W2A的人物建模是动态的,视频画面中,就算整个人都藏在椅子后面,依然可以输出人物模型。

和另一baseline OccNeRF相比,W2A只需100帧的训练视频就能复原出完整干净的结构,但后者用了500帧的系列视频后不仅结构缺陷极大,还存在许多“鬼影”。

测试数据也表明,对于陌生场景,W2A的提取质量和完整性(comp.)都比V2A有所提升,特别是对遮挡(llm)部分,合成质量得分接近翻番。

和OccNeRF相比,W2A与500帧训练数据的OccNeRF整体成绩接近,但遮挡部分仍然是有明显增强。

那么,Wild2Avatar是如何实现的呢?
人物与遮挡分层处理
工作过程中,W2A将整个场景分成了遮挡物、人物本体和背景三部分。
这三个部分由独立的NeRF网络分别预测特征,渲染图像时再将三个部分的输出拼合。

这种做法的主要目的是为了避免遮挡被误当成人体的一部分,出现Video2Avatar那样把遮挡物合成进人物的情况。
具体来说,李飞飞团队将图像映射到一个球空间,背景位于球外,人物和遮挡物则分别位于球空间内部的不同位置。
遮挡空间是通过内部采样点的坐标和距离来构造的。用于遮挡部分的生成网络与背景共享,可以预测遮挡空间样本点的颜色和密度值。
而人体部分的处理则是使用SMPL的参数化方式,通过正向和反向皮肤拟合,先将人体变形到一个姿态不变的坐标空间,再输入神经网络进行学习。

为了增强任务模型的完整性,李飞飞团队还设计了新的损失计算方式。
首先利用现成的分割模型输出人体的二值分割掩码,并掩码取反得到“非人体”区域的掩码,即为可能的遮挡区域。
同时,从W2A渲染的三个部分中遮挡部分的密度图,然后根据提取结果再分离出人体部分。
其中人体部分与前面得到的“非人体”掩码进行与非运算,得到的结果再和遮挡部分的密度图做二值交叉熵运算,就得到了遮挡解耦损失Locc。

Locc会与像素重构损失、场景分解损失等其他损失参数一并纳入到整个网络的端到端训练过程,用于优化更新网络参数。
论文地址:
https://arxiv.org/abs/2401.00431
Recommend
-
50
编译 | 马卓奇 编辑 | Natalie、Debra AI 前线导读:提取缺失属性值是指从自由文本输入中找到描述兴趣属性的值。过去大多数关于提取缺失属性值的工作都是在封闭的假设下进行,即...
-
34
按:本文译自CornellUniversityLibrary,作者为AlbertHaque, MichelleGuo, AdamSMiner和LiFei-Fei。文章主要介绍了李飞飞团队的最新研究成果:一种基于机器学习的抑郁症症状严重程度测量方法,该方法使用了视频、音频和文本数
-
27
在自然语言理解中,Word2Vec、EMLo 和 BERT 对各项语言理解任务的提升效果非常明显。而在语音识别和情感识别中,基于字符、音素等的编码识别则面临着很多的挑战。近日,李飞飞团队与斯坦福大学音乐与声学计算机研究中心联合提出了基于时间...
-
48
视觉信息库,例如 Visual Genome 数据库,在计算机视觉方面驱动了着大量的应用发展,包括视觉问答和图像标注等。但同时,视觉知识库也具有稀疏、欠完备等缺点。使用人工标注是非常昂贵的,而基于纹理知识的补全方法则无法与视觉数据兼容...
-
36
加入极市 专业CV交流群,与 6000+来自腾讯,华为,百度,北大,清华,中科院 等名企名校视觉开发者互动交流!更有机会与 李开复老师 等大牛群内...
-
18
加入极市 专业CV交流群,与1 0000+来自腾讯,华为,百度,北大,清华,中科院 等名企名校视觉开发者互动交流! 同时提供每月大咖直播分享、真实项目需求对接、干货资讯汇总,行业技术交流。...
-
10
今年双11,明星直播可谓乱象频出:“90万人观看成交不到10单”、“直播间311万观看量,真实观众仅11万”、“退货率高达76%”…… 于是,...
-
12
李飞飞团队最新论文:基于anchor关键点的类别级物体6D位姿跟踪 Original...
-
5
斯坦福李飞飞团队新研究登 Nature 子刊:实现可信 AI,数据的设计、完善、评估是关键 作者:我在思考中 2022-08-29 14:43:24 人工智能 最近,...
-
3
2024-01-04 06:06 李飞飞团队新作:AI透视眼,穿越障碍看清你,渲染遮挡人体有新突破了 原文来源:机器之心
About Joyk
Aggregate valuable and interesting links.
Joyk means Joy of geeK