文章目录
- 摘要
- 文献阅读
- DeepHuman: 3D Human Reconstruction from a Single Image(ICCV 2019)
- 贡献
- 摘要
- 网络结构
- 总结
- PIFu: Pixel-Aligned Implicit Function for High-Resolution Clothed Human Digitization
- 贡献
- 摘要
- 网络结构
- 总结
- Animated 3D human avatars from a single image with GAN-based texture inference
- 贡献
- 摘要
- 网络结构
- 总结
- 部分笔记
- 总结
摘要
本周阅读了提出DeepHuman、PIFU、InterGAN的三篇文章,知道在3维人体重建中的比较主流的步骤;首先通过一些方法比如:SMPL等,先构建表面,然后另一个管道生成表面的纹理。
最后两者综合生成出来最后的模型。
Translated into English: This week, I read three articles introducing DeepHuman, PIFU, and InterGAN. I gained insights into the mainstream steps in 3D human body reconstruction. The typical process involves initially constructing the surface using methods such as SMPL. Subsequently, another pipeline is employed to generate the texture of the surface. Finally, the combination of these two processes results in the generation of the final model.
文献阅读
DeepHuman: 3D Human Reconstruction from a Single Image(ICCV 2019)
贡献
建立了一个基于真实世界的3D真人模型数据库-THUman,其中包含7000个模型。
设计了一个通过输入单张真人图片输出3D预测模型的SOTA方法。
摘要
作者提出了一种image-guided volume-to-volume translation进行单图真人三维重建的CNN算法。 为了减少表面重建的模糊噪声(包含不可见区域重建,指相机视角看不见的地方),作者提出通过SMPL模型生成的密集语义作为输入。(即神经网络的输入为图片、无背景的二维人体语义图和语义volume)。 这个网络的一个关键特征就是,通过空间特征变换,将不同尺寸的图像特征融合到3D空间中,有助于恢复平面几何的精确度。(图像搭配语义图,由于语义图具有一定的梯度性,能够将3D模型表面恢复得更光滑平整,指网络结构图中橙+蓝+绿部分)。 可视的平面(相机视角)细节通过一般细化网络(Normal Refinement Network,黄色部分)进一步细化, 使用我们提出的容积法向投影层(Volumetric Normal Projection Layer, 结尾最后交汇的箭头),与容积生成网络(Volume Generation Network, 指图中的蓝色和绿色的volume-to-volume translation network)使用连接(concat)操作,用于支持end-to-end的训练。 还有贡献了一个三维基于真实世界的3D真人模型数据集-THUman。由于作者网络架构的设计与数据集的多样性,只需要给出单张图片,就能优于现在大多数的单图人体三维重建方法。
网络结构
紫色箭头就是文章中描述的volume-to-normal部分,三维投影到二维,然后与input的原图和语义map一起进入normal refinement network进行处理。
总结
将三维人体重建任务分解为三个子任务:
a)从输入图像进行参数化人体估计
b)从图像和估计的身体进行表面重建
c)根据图像进行可见表面细节细化
PIFu: Pixel-Aligned Implicit Function for High-Resolution Clothed Human Digitization
贡献
目前唯一支持表面材料预测的深度学习方法
摘要
作者们介绍了Pixel-aligned Implicit Function (PIFu), 一种2D图片与其对应3D物体的全局信息进行局部像素对其的隐式表达方法。 PIFu是一种能够从单图或多图预测目标3D表面和材质的针对数字化高细节化穿着人体的end-to-end的深度学习方法。 高度复杂的形状,例如:头发、衣服,以及他们的变化和形变都可以统一数字化。对比现在已有的深度学习方法,PIFu可以产生大量的高分辨率的表面(包含如人的背部等看不到区域)。 尤其是不同于那种体积元素(内存密集型)表示的,它是内存高效的,能够掌控任意的拓扑,和结果表面是空间对齐输入的图片。 此外, 以前的算法是用来处理单个或者多个视觉的,PIFu可以自然地拓扑到多个视觉。PIFu在公共基准上达到了SOTA的性能,已经优于先前单一穿着人体图像数字化的工作。
网络结构
总结
1.给定一个单视图或多视图图像,在保留图像细节的同时,重建一个穿着衣服的人的底层 3D几何结构和纹理。
2.引入了像素对齐隐函数(PIFu),它是一种存储效率高、空间对齐的三维曲面表示方法。
3.在曲面上进行纹理推理
Animated 3D human avatars from a single image with GAN-based texture inference
贡献
引入了 Infer- GAN,它可以使用一个正面纹理来推断不同视角下的纹理不仅可以通过单个图像重建人体的完整几何形状和详细纹理,还可以通过传递参数化人体模型的权值和关节位置得到一个动画模型。
摘要
在本文中,作者们提出了一种从单个图像重建三维人体形状化身的管道。该方法以单一的 RGB图像作为输入,同时重建三维人体几何和全身纹理图。我们首先从图像中分割出人体部位,然后通过拟合一个参数化模型得到初始的人体几何形状。接下来,作者利用基于剪影的密集对应,将初始的几何形状变形为最终的形状。最后,为了从正面图像中推断不可见的背面纹理,作者提出了一个名为 InferGAN的网络。基于人体语义信息,提出了一种通过单独重建被遮挡的人体部位来处理局部遮挡的方法。综合实验表明,作者的解决方案在公共数据集和我们自己的数据集上都是稳健和有效的。人类化身可以很容易地使用动作
捕捉数据进行操纵和动画。作者已经开发了一个移动应用程序,展示了这种能力的AR应用程序。
网络结构
总结
1.对单一的RGB图像使用人体服装分割方法,对人体形状进行分割
2.将SMPL可变性参数模型拟合到对应分割身体部分
3.使用轮廓定义的对应关系来改变SMPL参数化模型的深度图
4.使用反裁剪渲染技术生成背面几何图形
5.提出了一种被称为 InferGAN的GAN网络结构来恢复被遮挡的背部纹理
部分笔记
非刚性变形的思想是:皮肤变形,不是由单一骨骼的运动来控制,而是由许多骨头的共同运作的结果来支配。
非刚性变形包括依赖关节的局部变形,骨架驱动变形,交叉轮廓变形。
《模式识别》绪论书中提到,“当你握一个物体或者打个响指等时候,你的手所经历的变形就是非刚性变形。
Voxel:体素,就是立体像素
Kinect Fusion:是一种利用Kinect相机的深度数据进行实时三维重建的技术, 开创了Fusion 系列方法的先河,并提出利用GPU+TSDF方法实时场景重建。
1.深度数据处理:利用相机内参将深度图转换成3D点云,并计算每个点的法向量;
2.相机追踪:将当前帧3D点云和由现有模型生成的预测的3D点云进行ICP匹配,计算得到当前相机的位姿;
3.深度数据融合:根据所计算出的当前相机位姿,使用TSDF点云融合算法将当前帧的3D点云融合到现有模型中;
4.场景渲染:是使用光线跟踪的方法,根据现有模型和当前相机位姿预测出当前相机观察到的环境点云,一方面用于显示,另一方面提供给步骤2)进行ICP匹配。
Dynamic Fusion:Dynamic Fusion8 是在Kinect Fusion 的基础上,增加了非刚体的变形估计。 解决了非刚体的实时动态重建。
BodyFusion提出了一种骨架嵌入式表面表面融合,Dynamic Fusion 的基础上增加了人体骨骼的约束,基于骨架和图形节点之间的附带信息来共同解决骨骼和图形节点的形变问题。但是在快速运动以及初始人体姿态(骨骼)估计错误的情况下,该重构方法会失效。
DoubleFusion基于SMPL提出了“双层表面表示”模型对人体进行实时的3D重建,内层(inner body layer)是依据观测到的关节点和人体形状推测的SMPL模型,而外层(outer surface)则是利用深度信息融合出的人体表面,他们相互制约,相互融合和优化,最终生成完整的人体模型。当然Double Fusion还是存在局限,例如,当用户穿着较厚的衣服时,这个方案在捕捉过程中会将衣服的厚度都当成人的身体来计算,导致身体建模的误差出现;另外,目前的方案还无法处理人物对象之间的交互。
总结
在阅读PIFU的时候,该篇文章也有用多视角图像作为输入,输出最后的人体模型,比较具有参考性,同时注意到,人体的背面,以及不可见遮挡的区域,对于三维人体重建是一个挑战。