摘要中提到的是一种针对穿戴式视觉导盲仪的定位与建图方法,它结合了惯性测量单元(IMU)和全球定位系统(GPS)的组合导航技术来增强视觉即时定位与建图(VSLAM)算法的性能。VSLAM能够为视觉导盲仪提供必要的位置和环境信息,但其精度受到环境因素的影响。为了提高定位和建图的精度,研究者在双目ORB-SLAM的跟踪线程中,用基于IMU/GPS组合导航的运动模型替代了原有的匀速运动模型,并通过构建非线性优化模型来整合视觉和组合导航数据,从而增强跟踪的稳定性和定位精度。
同时,在局部建图线程的地图优化过程中,也融入了组合导航的数据,这有助于提高局部地图的精度,使导盲仪能更准确地识别环境信息。这种融合算法在大范围场景下能实现稳定运行,有效地抑制了VSLAM的累积误差,以及GPS因环境干扰产生的定位偏移误差。实验证明,该方法的定位精度达到了0.47米,显著提升了VSLAM的建图效果,基本满足了视觉导盲仪对定位精度和环境信息的需求。
关键词涵盖了计算机视觉、定位、建图、非线性优化、多传感器融合、组合导航、可穿戴设备和导盲仪等多个方面,显示了这个研究是多学科交叉的成果,尤其强调了不同传感器数据融合在提高导航系统性能上的重要性。
这篇论文提出的是一种创新的导航方案,通过集成IMU和GPS的数据来辅助VSLAM,旨在为视觉导盲仪提供高精度的定位和环境映射。这对于视力障碍者的导航辅助设备来说具有重要意义,可以提高其自主出行的安全性和便利性。同时,该研究也为其他依赖VSLAM的移动机器人或自动化系统的精度提升提供了参考。