近日,由斯坦福大学教授李飞飞领导的团队推出了一项革命性的AI 3D重建技术,该技术能够从多张未知姿态的照片中自动生成高质量的3D互动场景。这项技术不仅标志着计算机视觉领域的一大进步,也为元宇宙虚拟空间、沉浸式看房、XR(扩展现实)+文旅等应用带来了新的可能性。
技术简介
这项名为SelfSplat的技术框架,旨在解决从多视角图像重建三维场景的问题,尤其适用于真实世界的大规模场景重建。它最大的亮点在于无需任何预先准备的信息——无论是相机的姿态还是场景的3D模型。只需提供一组未经标定的照片,SelfSplat就能自动完成后续的所有处理步骤,包括深度估计、相机姿态估计以及多视角几何一致性优化,最终输出一个完整的、可交互的3D场景。
核心特点
-
高自由度与灵活性
- 不依赖于预设的相机姿态信息或预训练的3D模型。
- 能够直接处理未标定的多视角图像,极大地简化了数据收集过程。
-
先进的自监督学习机制
- 自动估计每张照片对应的深度图和相机姿态,确保重建结果的真实性和准确性。