藏经阁-复杂环境下的视觉同时定位与地图构建.pdf
SLAM(Simultaneous Localization and Mapping)是机器人和计算机视觉领域的基本问题,即在未知环境中定位自身方位并同时构建环境三维地图。SLAM technique 是一种基本的技术,广泛应用于增强现实、虚拟现实、机器人和无人驾驶等领域。
传感器是SLAM系统中的重要组件,常用的传感器包括:
1. 红外传感器:较近距离感应,常用于扫地机器人。
2. 激光雷达:单线、多线等,用于测量距离和角度。
3. 摄像头:单目、双目、多目等,用于获取视觉信息。
4. 惯性传感器(IMU):智能手机标配,包括陀螺仪、加速度计等,用于测量设备的位姿和加速度。
SLAM系统的框架包括:
1. 输入:传感器数据。
2. 前台线程:根据传感器数据进行跟踪求解,实时恢复每个时刻的位姿。
3. 后台线程:进行局部或全局优化,减少误差累积。
4. 输出:设备实时位姿、 三维点云、RGB图、深度图、IMU测量值。
SLAM技术有广泛的应用,包括:
1. 扫地机器人:小米扫地机器人以激光雷达为核心,戴森360°Eye扫地机器人以视觉为核心。
2. 无人机:大疆Phantom4结合双目立体视觉和超声波,实现空中精准悬停和安全航线自动生成。
3. 无人车:MobileEye、特斯拉等自动驾驶方案,以廉价的摄像头为主,Google无人车项目Waymo使用高精度激光雷达构建地图。
4. 虚拟/增强现实:Inside-Out方案,基于SLAM技术的VR/AR可以实现Inside-Out方案,优点是不需要提前布置环境中的传感器,且没有活动范围的限制。
5. 混合现实:微软HoloLens,融合了场景位置感知和头盔显示技术,并提供了完整的软硬件解决方案。
视觉SLAM的主要传感器包括:
1. 单目摄像头
2. 双目摄像头
3. 多目摄像头
4. 其他辅助传感器:廉价IMU、GPS、深度传感器
视觉SLAM的优势包括:
1. 硬件成本低廉
2. 小范围内定位精度较高
3. 无需预先布置场景
视觉SLAM的基本原理是多视图几何投影函数,主要模块包括:
1. 特征跟踪:获得一堆特征点轨迹
2. 相机姿态恢复与场景三维结构恢复:求解相机参数和三维点云
在复杂环境下,SLAM技术面临的挑战包括:
1. 如何处理循环回路序列和多视频序列?
2. 如何高效高精度地处理大尺度场景?
3. 如何处理动态场景?
4. 如何处理快速运动和强旋转?
我们的课题组的工作包括:
1. 面向大尺度场景的运动恢复结构
2. ENFT-SFM:能够高效地处理大尺度场景下拍摄的循环回路和多视频序列。
3. 单目视觉的同时定位与地图构建:ENFT-SLAM:能在大尺度场景下实时稳定工作、在线回路闭合。
4. RDSLAM:能在动态场景下稳定工作。
5. RKSLAM:可以实时运行在移动设备上,并能处理快速运动和强旋转。
SLAM技术是机器人和计算机视觉领域的基本问题,广泛应用于增强现实、虚拟现实、机器人和无人驾驶等领域。SLAM技术的发展将会推动相关领域的发展,解决复杂环境下的挑战,并提高机器人的智能化和自动化水平。