当前位置:AIGC资讯 > AIGC > 正文

几何纹理重建新SOTA!浙大提出SIFU:单图即可重建高质量3D人体模型

在AR、VR、3D打印、场景搭建以及电影制作等多个领域中,高质量的穿着衣服的人体3D模型非常重要。

传统的方法创建这些模型不仅需要大量时间,还需要能够捕捉多视角照片的专业设备,此外还依赖于技术熟练的专业人员。


与此相反,在日常生活中,我们最常见的是通过手机相机拍摄的或在各种网页上找到的人像照片。

因此,一种能从单张图像准确重建3D人体模型的方法可以显著降低成本,并简化独立创作的过程。

以往方法(左)与本文方法技术路线比较(右)

以往的深度学习模型用于3D人体重建,往往需要经过三个步骤:从图像中提取2D特征,将2D特征转到3D空间,以及3D特征用于人体重建。

然而这些方法在2D特征转换到3D空间的阶段,往往忽略了人体先验的引入,导致特征的提取不够充分,最终重建结果上会出现各种缺陷。

SIFU与其他SOTA模型重建效果比较

此外,在对纹理预测的阶段,以往模型仅仅依靠训练集中学得的知识,缺少真实世界的先验知识,也往往导致不可见区域的纹理预测较差。

SIFU在纹理预测阶段引入先验知识,增强不可见区域(背部等)的纹理效果。

对此,来自浙江大学ReLER实验室的研究人员提出SIFU模型,依靠侧视图条件隐函数从单张图片重建3D人体模型。

图片

论文地址:https://arxiv.org/abs/2312.06704

项目地址:https://github.com/River-Zhang/SIFU

该模型通过在2D特征转换到3D空间引入人体侧视图作为先验条件,增强几何重建效果。并在纹理优化阶段引入预训练的扩散模型,来解决不可见区域纹理较差的问题。

模型结构

模型pipeline如下:

图片

该模型运行可分为两个阶段,第一阶段借助侧隐式函数重建人体的几何(mesh)与粗糙的纹理(coarse texture),第二阶段则借助预训练的扩散模型对纹理进行精细化。

在第一阶段中,作者设计了一种独特的Side-view Decoupling Transformer,通过global encoder提取2D特征后,在decoder中引入了人体先验模型SMPL-X的侧视图作为query,从而在图像2D特征中解耦出人体不同方向的3D特征(前后左右),最后用于重建。

该方法成功的在2D特征转换到3D空间时结合人体先验知识,从而使得模型有更好的重建效果。

在第二阶段,作者提出一种3D一致性纹理优化流程(3D Consistent Texture Refinement),首先将人体不可见的区域(侧面、背面)可微渲染成视角连续的图片集,再借助在海量数据中学习到先验知识的扩散模型,对粗糙纹理图片进行一致性编辑,得到更精细的结果。最后通过精细化前后的图片计算损失来优化3D模型的纹理贴图。

实验部分

更高的重建精度

在实验部分,作者使用全面多样化的测试集对他们的模型进行测试,包括CAPE-NFP、CAPE-FP和THuman2.0,并与以往发表在各大顶会的单张图片人体重建SOTA模型进行比较。经定量测试,SIFU模型在几何重建与纹理重建中均表现出了最好的效果。

定量评估几何重建精度

定量评估纹理重建效果

 

使用互联网中公开图片作为输入进行定性效果展示

更强的鲁棒性

以往的模型应用训练集以外的数据时,由于估计的人体先验模型SMPL/SMPL-X不够准确,往往导致重建结果与输入图片相差甚远,难以投入实际应用。

对此,作者专门对模型的鲁棒性进行了测试,通过在ground truth先验模型参数中加入扰动使其位姿发生偏移,模拟真实场景中SMPL-X估计不准确的情况,来评估模型重建的精度。结果表明SIFU模型在该情况下,依然具有最好的重建精度。

评估模型面对有误差的人体先验模型时的鲁棒性

使用真实世界中的图片,在先验人体模型估计不准确的情况下,SIFU依然有较好的重建效果

更广阔的应用场景

SIFU模型的高精度高质量重建效果,使得其具有丰富的应用场景,包括3D打印、场景搭建、纹理编辑等。

3D打印SIFU重建的人体模型

SIFU用于3D场景搭建

借助公开动作序列数据,可对SIFU重建的模型进行驱动

总结

本文提出侧视图条件隐式函数和3D一致性纹理编辑方法,弥补了以往工作在2D特征转换到3D空间、纹理预测时对先验知识引入的不足,极大的提高了单张图片人体重建的精度和效果,使模型在真实世界应用中具有显著的优势,也为该领域未来的研究提供了新的思路。

参考资料:

https://arxiv.org/abs/2312.06704

更新时间 2024-01-18