SANPO:第一个具有大规模密集全景分割和深度注释的人类以自我中心的视频数据集,有助于推动视频分割、深度估计、多任务视觉建模和合成到真实域适应任务发展,同时支持人类导航系统,
SANPO:一个大规模的以自我为中心的视频数据集,专注于户外环境中的密集预测。 它包含在不同的户外环境中收集的立体视频会话,以及渲染的合成视频会话。 (合成数据由 Parallel Domain 提供。)所有会话都有(密集)深度和里程计标签。 所有合成会话和真实会话的子集都具有时间一致的密集全景分割标签。 据我们所知,这是第一个具有大规模密集全景分割和深度注释的人类自我中心视频数据集。 除了数据集之外,我们还为未来的研究提供零样本基线和 SANPO 基准。 我们希望 SANPO 的挑战性将有助于推动视频分割、深度估计、多任务视觉建模和合成到真实领域适应的最先进水平,同时支持人类导航系统。
论文地址:https://arxiv.org/abs/2309.12172
代码地址:https://github.com/google-research-datasets/sanpo_dataset
需要进论文创新点群的,关注我私信我,进论文创新点群