论文研究-基于单目视觉的同时定位与建图算法研究综述.pdf

所需积分/C币:28 2019-07-22 23:54:41 1.08MB .PDF
收藏 收藏
举报

与传统基于激光传感器的同时定位与建图(SLAM)方法相比,基于图像视觉传感器SLAM方法能廉价地获得更多环境信息,帮助移动机器人提高智能性。不同于用带深度信息的3D传感器研究SLAM问题,单目视觉SLAM算法用二维图像序列在线构建三维环境地图并实现实时定位。针对多种单目视觉SLAM算法进行对比研究,分析了近10年来流行的单目视觉定位算法的主要思路及其分类,指出基于优化方法正取代滤波器方法成为主流方法。从初始化、位姿估计、地图创建、闭环检测等功能组件的角度分别总结了目前流行的各种单目视觉 SLAM 或Odometry系统的工作原理和关键技术,阐述它们的工作过程和性能特点;总结了近年最新单目视觉定
第1期 朱凯,等:基于单目视觉的同时定位与建图算法研究綜述 3 接法进行特征的关联,同时使用特征来改善定位精度,这一思开始从滤波器方法主导逐渐向优化方法发展,直接法和非直接 路使得SVO可以在计算能力受限的场景下获得良好的实时定法在优化方法框架内都受到研究者的重视。一些最近极受关 位效果,实验证明可以在小型无人机上实时1作。 注的算法中,采用优化方法逐渐成为主流方法。 1.2单目视觉SLAM的发展近况和特点 2单目视觉SLAM算法设计思路 自2002年起,视觉SLAM算法的研究开始引起关注,但重 大的进展是从207年 Klein等人16提出的并行龈踪与建图 当前,单目视觉SLAM算法一般分为初始化、位姿佔计、地 ( parallel track ing and mapping,PTAM)算法开始的。他们提出图生成、闭环检测等基本功能组件。其中,初始定位组件负责 个可以将地图创建和位姿估计过程放在两个并发线程中运创建并初始化初始位姿和:维初始地图:位姿估计是单目祝觉 行的非滤波器算法框架,并取得了实时运行效果。其后,木领SLAM系统的核心步骤,其工作内容是已知前一帧位姿并利用 域的大部分研究成果都延续了PTAM框架中的思想。表1、2相邻帧之间的关系信计当前帧的位姿;地图生成模块负责生成 按照滤波器法和优化方法分类,分别整理了自2007年起一些和维护全局地图;闭环检测负责通过检测“闭环”而减少全局 重要的视觉同步定位与地图创建算法和视觉里程计算法,算法地图“漂移”现象。本章通过分解单目视觉SLAM算法的基本 采用的是直接法或是非直接法也反映在表中 结构,从初始定位、位姿估计、地图生成和闭环检测四个环节对 表1重要ⅶ isual SLAM/ Odometry方法文献(波器方法) 比分析近年来重要单目视觉SLAM算法的设计思路。 年份 文献名称 别2.1初始化 MonoslaM 早期算法的初始化过程需要人工辅助完成1,随着新方 Square root UKF for visnal Mono LAM 法的提出,该步骤开始逐渐降低对手工输入的依赖。从策略角 2008 Efficienl view-basexl SLAM using visual loop closures 度分类,初始化方法分为本征矩阵分解、单应矩阵分解和随机 2009 challenge of lifc-long opcration 深度初始化等策咯。 2010 On combining visual SI AM and visual Odometr PTAM使用了 Faugeras等人提出的单应矩阵分解方 2010 Monocular SLAM with locally planar landmarks via gcomct 法。其初始化无须输入深度值,但要求人工指定第一和第二帧 rie Rao-Blackwellized particle filtering on Lic group 2013 Monocular si a M for indoor aerial vehicles 关键帧。该算法在初始化阶段从第一个关键帧中提取FAST Real-timc camera tracking using a particlc filter ed 特征点,并持续跟踪匹配到第二个关键帧。其间,相机要求 with unscented Kalman filter 平行于假设平面运动。采用单应矩阵分解初始化时,被观测场 2015 StructSLAM: visual SLAM with building structure lines 景假设是一个平闻,当第二个关键帧确定后,初始化算法采用 表1中的算法均采用滤波器方法(如 EKF UKF, PF等),1随机采样极大似然估计( MLESAC)迭代并求出两个关键帧之 表小非直接法。 间的位姿变化0。PTAM的初始化过程需要满是若干基本假 表2重要 visual SlAM/ Odometry方法文献(优化方法) 设,这导致初始化过程容易受到手动步骤的影响而失败。SVO 文献名称 采用了与PAM同烊的单应矩阵分解方法作为初始化策略 2007 Parallel tracking and mapping SVO改进了PTAM的初始化过程,不再要求于工输入。其第 008 An efficient direct approach to visual SLAM 个关键帧是算法读入的第个有效帧,而第二个关键帧由算法 010 Live dense reconstruction with single moving camera 自动识别。与PAM样,SVO在第个与第二个关键帧之间 2010 Scale drift-aware large scale monocular SLAM 跟踪匹配FA$T特征,但跟踪匹配算法采用 Lucas-Kπ adle trac- 2011 Online environment mapping kng完成 2011 Omnidirectional dense large scale mapping and navigation based on meaningful triangulation DT-SLAM没有在算法中设计一个专门的模块用于初始 2011 Dense tracking and mapping 化.而是将此过程集成在位姿佔计组件使其佔计单应性矩阵。 2013 Robust monocular slam DT-SLAM不要求PTAM与SvO一样的假设。 2014 Semi-direct visual odometry ORB-SLAM则混合使用了述两种方法来完成初始化,该 2014 DT-SLAM. deferred triangulation for robust SLaM 方法无须手工选择关键帧,也不需要预先假设场景是否为平 Real-time 6-DOF monocular visual SLAM in a large scale 闻。OHB-SLAM的初始化过程是:a)找到两帧图像OHB特征 2014 LSD-SLAM direct monocular SLAM 点的初始对应关系;)同时计算单应矩阵H。和基础矩阵F并 Robust largc scalc monocular visual SLAM 1为其分别评分,通过比较评分确定选择单应矩阵还是基础矩阵 DPPTAM: dense piecewise planar tracking and mapping 作为模型;e)采用sFM方法获得最终结果。出于ORB-SLAM ORB SLAM: a versatile and accurate monocular SlaM sys- 采用了混合方法,其环境适应性得到很好的平衡,无论在平面 2015 场景、低视差场景还是在非平面场景、高视差场景,它都能自动 2016 Dire sparse 选择较优的模型来亢成初始化作。 表2中的算法均采用最优化方法(光束平差),表示非直 LS-SLAM中使用随札深度初始化策略以类似于滤波器 接法,D表示直接法,表示混合方法。 方法的思路来完成初始化。上nge等人在 LSD-SLAM中将图像 综合表1和2可以发现,过去10年间 visual slam的研究中的像素以随机的深度初始化,并随后利用新产生数据不断迭 4 计算机应用研究 第35卷 代优化直至收敛。这种方法在一定程度上克服了上述两种方述子。 ORB-SLAM采用恒速运动模型生成先验位姿估计,并利 法对环境和相忛运动敏感的缺点,但其计算量偏大且耗时可能用该先验佔计跟踪匹配上一帧的地图点ε若上述先验位姿与 会较长。 Concha等人在 DP- PTAM也采用了与Enge等人在实际运动不符而导致匹配效果不仹,算法会扩大搜索范围以达 ISD-SLAM中使用的同初始化策略。 到匹配目的。最后,算法利用上面得到的数据关联信息通过光 2.2位姿估计 束平差确定本帧对应的相机位姿估计。 ORB-SLAM的特别之 位姿佔计是视觉定位系统的核心环节。位姿佔计的任务处在于其采用了局部地图的方法使得它能在大范围坏境工作。 是利用先验位姿估计和帧间关系计算出相机的位姿或位姿变在全局地图中的路标需要投影到当前帧而构建局部地图可以 化量。位姿估计过程的计算量比初始的数据关联小,但对系统精选出有效的路标,最终实现减少计算复杂度的同时保持位姿 实时性影响大,这一过程也称为跟踪( tracking) 估计的性能。 恒速运动模犁是牛成先验位姿估计的常规方法,该模型假 SD-SLAM采用SE(3)表示位姿变换,并在位姿估计阶段 设相机的运动轨迹平滑且运动速度均匀。PTAM、 DT-SLAMI、 使用上一帧相机位姿作为先验位姿估计,最终求得木次输入与 ORB-SLAM和 DP-PTAⅥ均假设恒速运动模型,通过上两的活动关键帧之间的位姿关系。由于 LSD-SLAM采用纯直接法, 运动量欢估计先验位姿;而SVO和 LSD-SLAM则使用上一帧算法当前输入帧的相机位姿采用 Gauss-Newton法达代优化当 的位置直接作为先验位姿以适应相机运动轨迹不光滑的情况,前帧与活动关键帧之间的光度残差得到3。 DP-PTAM采用 代价是图像釆集帧率和系统运行速度需足够高以满足连续两与 LSD-SLAM相似的策略,但用于佔计先验位姿的运动模型改 帧之间运动量足够小的假设。因此在不同的机器人本体上,采为恒速运动模型,并在该模型失效时应用sVO屮使用的策略, 用合适的运动模型假设可以优化先验位姿估计。获得先验位即直接使用上一帧位姿作为先验位姿估计。同时,DPTM 姿后,位姿估计组件通过自身策略优化重投影误差函数以确定在优化最终位姿时使用了与PTAM基本相同的对应算法。 相机位姿。 2.3地图生成 PTAM用E(3)表小位姿变换,应用李代数仗SE(3)可以 地图生成是与位姿估计同时完成的工作,即所谓的同时定 映射成一个6参数的s(3)以提高随后最优化过程的工作效位与地图创建机制。算法创建出的地图可分为使用非直接法 率。PTAM采用恒速运动模型预生成一个先验的位姿估计,并创建的稀疏地图和使用直接法创建的碉密地图。一些工作在 采用一种以 Tukey-biweight为目标函数的鲁棒的重投影残差最大场景的算法中也使用拓扑地图( topological maps)。拓扑图 小化算法获得位姿结果2具体过程是:首先系统利用运动不记录尺度、距离等度量信息,但可以通过给定对应的度量信 模型为新获得的图像确定一个先验相机位姿,然后利用先验相息来完成拓扑地图到度量地图的转换。拓扑图常与其他类型 机位姿将地图上的点投影到新获得的图像中,随后在最粗尺度的地图同时使用。 Konolige2提出的混合地图即结合了拓扑地 下选取少量特征点优化相机位姿,最后将较多数量的特征点重图与度量地图的优势。本节内容主要讨论度量地图的牛成。 投影到当前图像计算最终相机位姿。在整个特征点跟踪的过 单目视觉定位系统创建地图的基本原理是将图像中的2D 程中,算法可能岀现跟踪无效的情况。ⅣAM算法在每一帧中信息通过一定方法(三角测量法、粒子滤波器等)转换成为3D 都会计算并监视跟踪性能指标,若跟踪性能指标较低,算法照的地标( land mark),然后通过一定方法维护地图内容,最终生 常运行并停止创建关键帧;若指祘过低,则启动故障恢复。 成一致性较好的全局地图。使用滤波器方法吋,算法假设3D SVO与PTAM表示位姿变换的方式相同。SVO没有假设地标点位姿满足一个分布假设,随着新的视图不断加入到3D 恒速运动模型,其氕验位姿估计直接设置为上一帧的位姿估计地标的更新过程,地标位姿分布的方差将会收敛到一定阈值, 结果。SVO位姿估计的鍪体流程是:利用直接法计算位姿变这时就可以确定地标的位姿信息。使用优化方法时,在地图创 化值的初始估计,再通过最优化特征点非线性重投影误差函数建阶段相机位姿变化量已知,对同一个地标在不同位置的观测 来改善该初始估计精确度。 也是已知的,将地标重投影到至少两帧视图并将重投影残差最 a)受到相机微小运动的影响,特征点投影到图像上会有小化即可获得该地标的3D信息。上述两种方法都依赖于相 定位置变化,算法采用稀疏的图像对齐过程来最小化特征块机的运动存在有效的平移量以构成视差基线,否则就难以佔计 的光度差,以获得一个位姿变化的初步佔计。由于SVO系统出地标的3D信息。为处理视差基线不足的情况,一些如DT 处理速度较高,相邻帧采集到的图像特征块形变很小,所以该SLAM的方法会在运行上述方法前先检测并单独处理。 步骤中忽略了形变。 随着地图中的路标信息不新增加,地图需要运行维护算法 b)在步骤a)得到的位姿基榀上将更多地图中的点投影到不断地自我维护以剔除异常值并抑制漂移。局部和全局的光 图像,对每个当前帧可见的地图点,算法找到观测到该点角度束平差是常用方法,它们利用非线性最优化过程提高定位与地 最小的关键帧,分別优化得到新的位姿。优化过程需要考虑到图质量。许多算法仅仅在关键帧上运行使用光束平差计算以 仿射变换,但不考虑极线约束 节省计算資源。另外一种常用方法是图优化技术( pose graph c)利用步骤b)得到的地图点与投影点的关系,算法运行 optimiz.aini)。图优化抆术优化对象是位姿图,在位姿图较稀 光束平差优化出位姿信息。 疏的情况下其速度明显优丁在每帧数据上作光束平差。 SVO允许在算法中设置忽咯步骤c)的光束平差最优化步 PT^AM算法中,地图生成过程是由关键帧的选择驱动的。 骤以换取更高的运行效率 关键帧的选取要满足特征跟踪效果良好,具备一定间隔、离最 与PTAⅥ不同,ORB-SLAM拍取FAST特征并生成ORB描近关键点距窝大于一定值(满足基线条件)等要求。每个关键 第1期 朱凯,等:基于单目视觉的同时定位与建图算法研究綜述 5 帧釆用位姿估计阶段的特征点及其位姿为始值。当前关键Co- visibiliⅳy图上计算词袋向量并计算相似性提取候选闭环场 帧可见的已知点被重投影到当前关键帧上以建立数据关联。景。由于单目视觉SLAM有三个平移、三个旋转和一个尺度共 幀后,通过三角测量法从最近关键帧与当前关键帧得到新加人七个自由度,所以算法必须计算出从当前关键帧到闭环关键帧 地图地标点的深度信息εPTM的地图生成模块也负责维护之间的相似变换( similarity transform)以得出两帧之间出现的 地图,它使用局部光束平差( local bundle adjustment)来优化局累计误差,最后运行闭环修正算法优化地图。 部地图,同时使用全局光束平差( global bundle adjustment)来促 进全局地图收敛。 3总结与发展展望 SVO采用基于视率的方法估计三维地标点的深度信息。 上文将视觉定位与地图创建算法主要分为四大模块进行 已知一段序列的图像及其对应观測位姿,sVO使用V啁gari阐述,但是具休的算法中还可能包括故嚀恢复、参数调整、传感 等人的方法引入一个基于贝叶斯理论的框架更新深度的概器标定等小功能组件。总结此类算法的设计思路可以发现,算 率分布。当深度的高斯分布方差足够小时,算法认为深度值计法设计的重点在于如何在保证精度和鲁棒性的基础上尽可能 算已经收敛,随即利用逆投影函数恢复出三维地标坐标。为了地缩小计算开销尽可能地利用场景中的各种信息防止定位和 控制计算量同时提高算法效率,SvO的关键帧数量是固定的,地图劣化 当达到关键帧数量上限时,系统会选择移除距离现在位置远的 当前,视觉SLAM发展趋势主要涵盖以下三方面:a)大规 关键帧。VO选择关键帧的依据为:当某一帧场景相对于所模复杂环境的适应性和鲁棒性的提高;b)提高计算效率并同 有关鍵帧的场景平均深度超出12‰时,则被选为关键帧。 时优化精度;c)研究多机器人和多传感器协同SLAⅥ。大规模 ORB-SLAM的地图生成模块运行关键帧抽取、地图点三角复杂环境的适应性和含棒性是视觉SLAM系统实用化的必然 测量、关键帧与地图点的维护。 ORB-SLAM使用局部光农平差要求,其趋势在于从当前的室内或简单室外环境转向大范围 优化局部地图,并使用 Co-visibility和 ssential图维护数据关的、动态的、复杂的室外环境研究。如文献[30]开展了适应动 联信息。其中 Co-visibility图是个无向带权图,主要用来态环境的相关工作,文献[31]利用双目视觉实现了原来运行 存储所有关键帧之间的位姿关糸。图中各节点表示关键帧而在单目相机上的算法,文献[32,33]详细论述了抗光照变化和 图中的边则表示两个关键帧之间有效的共同地标点(数量大适应室外环境的算法,一些低纹理环境下的视觉SLAM技术 于15),其权重表示有效共同点数量。 Co-visibility图是稠密无须初始化的视觉sAM技术也正在发展。此外,模式识别和 的,这在优化地图时引入巨大计算量。算法使用 Essenti图加机器学习理论的发展也正在使得闭环检测更加大实用。在 速计算。 ORB-SLAM利用生成树算法从 Co-visibilily图中构建提高计算效率方面,一此基于嵌入式低功耗设备上SLAM技 了一个包含了所有的关键帧的子图,子图中保留了权重强的术的研究乜逐渐受到技术企业的关注,例如VR和AR头盔乃 边。这样, ORB-SLAl就可以使用上述两种图精确并高效地创至手机没备都能提供较好的使用体验,同时摆脱对笨重计算设 建与维护地图。为了防止地图在生成过程中受到异常值和冗备的依赖。在多机器人和多传感器系统SLAM方面,多机器人 余关键帧的影响, ORB-SLAM在生成地图的同时不断圯进行地协同建图、基于多传感器融合的SLAM系统 visual-inertial SLAM 标点和关键帧优选,这样可以剔除不稳定地标点和减少冗余关等研究也逐渐兴起。KT和CMU等大学将自有地面无人车辆采 键唢。 集的数据打包发布供斫究者测试和对比各自算法在真实环境中的 LSD-SLAM生成稠密地图,算法监视当前相机位姿角度和效果,这些数据不仅包括单目相机的数据,还有如惯性导航 距离是否满足抽取关键帧的条件。由于 LSD-SLAM属于纯粹GPS、双目视觉、激光雷达数据等数据。因此,未来基于多传感器 的接法,该算法的关键帧扣取强度较一般非直接法大。如果融合的ⅵ sual slam算法将是一个热门的研究方向。 当前输入帧不是关键帧,这帧数据就用来优化最新选取的关键 上述发展趋势将把视觉SLAM系统从实验室引入牛活和 帧3;如果当前场景被确定为关键帧,则从前关键帧中投影点工业应用场景中,使得机器人越来越智能化。 以初始化本关键帧深度图,并执行空间归一化。LSD-SLAM通 过在位姿估计阶段记录所有成功匹配的像素以调整该像索是4结束语 否是异常值的概率,最终剔除异常值,算法也在后台持续通过 本文分析了典型的视觉定位与地图创建算法的各个基本 位姿图优化技术进行优化 组件,并以近年来重要的算法为例对比了不同算法在不同模块 2.4闭环检测 上的设计思路。综合近年来的重要成果不难发现,视觉定位与 视觉定位与地图创建算法总体上是个滤波或优化过程。地图创建算法的发展正在朝着越来越注重准确性、实时运行和 虽然算法中有很多机制用于提高位姿信计和地图创建环节中的具备较强的故障恢复能力等方向发展,这一趋势也为此类算法 精确性,但是系统在长期「作后依然无法避免出现漂移。为此,在各种机器人系统灾用上奠定了基础。 SM算法中引入闭坼检測功能來帮助减少累计漂栘和误差。 参考文献 ISD-SIAM使用∫ Glover等人2在2012年提出的基 [1 Nister D, Naroditsky 0, Bergen L. Visual odometry C]//Proc of FABMAP的闭环检测算法。ISD-SAM在处理关键帧吋,在最 IEEE Computer Society Conference on Computer Vision and Pattern 近10个关键軾中搜索得到一个闭环过程并得到两个端,随后 Recognition. 2004. 652-659 利用位姿图优化来最小化相似度差异。ORB-SLAM是通过“词「21 Engel j, Schops t. Cremers D,eal. LSD SLAM: large-scale direct 袋模型”完成全局位置识别和闭环检测的。算法首先在 monocular SLAM[ C]//Proc of European Conference on Computer 计算机应用研究 第35卷 Vision.2014:834-849 9,2000,78(1):138-156 13 Engel J, Stickler J, Cremers D. Large-scale direct SLAM with stereo [21 Tomasi C, Kanade T. Detection and tracking of point features[ D] cameras[ C //Proc of IEEE/RSJ International Conference on Intelli- Pittsburgh School of Computer Science, Carnegie Mellon University gent Robots and Syetems 2015 [4] Caruso D, Engel J, Cremers D. Large-scale direct SLAM for omnidi- [22] Maronna R A, Martin D R, Yohai VJ. Robust statistics: theory and rectional cameras C //Proc of IEEE/RSJ International Conference methods[ M. Hoboken: Wiley, 2006 on Intelligent Robots and Systems. 2015: 141-148 [23] Engel J, Sturm J, Cremers D. SeImi-dlense visual odometry for a mo [5 Strasdat H, Montiel J MM, Davison A J. Visual SLAM: why filter nocular camera[C//Proc of IEEE International Conference on Com [J. Image and vision Computing, 2012, 30(2): 65-7 puter Vision. Washington DC: IEEE Computer Society, 2013: 1449 [6 Yousif K, Bab-Hadiashar A, Hoscinnezhad R. An overview to visual 1456 Odometry and visual SLAM: applications to mobile robotice[J]. In- [241 Konolige K. Sparse sparse bundle adjustment C1//Proc of British telligent Industrial Systems, 2015, 1(4): 289-311 Machine Vision Conference 2010: 1-11 [7 Dellaert F. Square root SAM[ C]//Robotics: Science and Systems [25 Vogiatzis G, Hernandez C. Video-based, real-time multi-view stereo Cambridge: Massachusetts Institute of Technology, 2005: 177-184 [J. Image and Vision Computing, 2011, 29(7): 434-441 [8 Julier S J, Uhlmann JK. A counter example to the theory of simult [2G SIrasdal H, Davison A J, Montiel J MM, et al. Double window op- building[ C]//Proe of TEEF. Internal ional timisation for constant time visual SLAM[ C]//Proc of International lion and map Conference on robotics Automation 2001: 4238-4243 Conference on Computer Vision. Washington DC: IEEE Computer So [9 Clemente L A, Davison A J, Reid I D, et aL. Mapping large loops iey,201l:2352-2359 with a single hand-held camera[ C//Robotics Science and Systems 27 Kummerle R, Grisetti C, Strasdat H, et al. g2o: a general framework IlL. Georgia: Georgia Institute of Technology, 2007: 297-304 for graph optimization[C]// Proc of IEEE International Conference on Robotics and automation 2010 T 10 Pinies P, Tardos J D. Large-scale SLAM building conditionally inde- pendent local maps: application to monocular vision[ J]. IEEE Trans [28 Glover A, Maddern W, Warren M, et al. Open FABMAP: an open on robotics,2008,24(5):1094-1106 souree toolbox for appearance- based loop closure detection[ C]//pro [11] Lim J, Frahm J M, Pollefeys M. Online environment mapping[ C]// of Ieee International Conference on Robotics and Automation. 2012 4730-4735 Proc of IEEE Conference on Computer Vision Pattern Recognition L 29 Galvez-Lopez D, Tardos J D. Bags of binary words for fast place re 2011:3489-3496 cognition in image sequences[ J. IEEE Trans on Robotics, 2012 L 12 Lucas B D, Kanade T. An iterative image legistration technique with 28(5):1188-1197 an application to stereo vision[ C]// Proc of Intermational Joint Con [30 Tan Wei, Liu Ilaomin, Dong Zilong, et al. Robust monocular SLAM ference on Artificial Intelligence. San Francisco Morgan Kaufman in dynamic environments[ C //Proc of IEEE International Symposium Publishers Inc. 1981. 285-289 on ixer and Augmented Realily 2013: 209-218 [13] Baker $, Matthews I. Lucas-kanade 20 years on: a unifying frame [31 Mei C, Sibley G, Cummins M, et al. RSLAM: a system for large work J. International Journal of Computer Vision, 2004, 56(3) scale mapping in constant-time using stereo J. International Jour 221-255 nal of Camputer Vision, 2011, 94(2): 198-214. [14 Ilartmann J, Klussendorff J Il, Maehle E. A comparison of feature [32] McManus C, Churchill W, Maddern W, et al. Shady dealings: ro descriptors for visual SLAM I C|//Proc of European Conferenee on bust, long-term visual localisation using illumination invariance Mobile robots. 2013, 56-61 [C//Proc of IEEE International Conference on Robotics and Auto- [15 Forster C, Pizzoli M, Scaramuz a n. SVO: fast sermi-direcl mono mation.2014:901-906 visual odometry C]//Proc of IEEE International Conference on 33 Pascoe G, Maddern W, Newman P. Direct visual localisation and Robotics and Automation. 2014: 15-22 calibration for road vehicles in changing city environments[ C]//Proc 16 Klein G, Murray D. Parallel tracking and mapping for small AR of IEEE International Conference on Computer Vision. Washington orkspaces[ C]//Proc of IEEE and ACM International Symposium on DC: IEEE Computer Society, 2015: 98-105 Mixed and Augmented Reality. Washington DC: IEEE Computer Socie- [341 I 34 Urtasun R, Lenz P, Geiger A. Are we ready for autonomous driving? ty,2007:1-10 The KITTI vision benchmark suite[C]//Proc of IEEE Conference on 17 Davison A J, Reid I D, Molton N D, et aL. MonoSLAM: real-time Computer Vision and Pattern Recognition. Washington DC IEEE single camera SLAM[ IEEE Trans on Pattern Analysis and Computer Society, 2012: 3354-3361 Machine Intelligence, 2007, 29(6): 1052-1067 [35 Konolige K, Agrawal M. FrameSI AM: from bundle adjustment to 18] Faugeras O D, Lustman F. Motion and structure from motion in a eal-time visual mapping[ J]. IEEE Trans on Robotics, 2008, 24 piecewise planar environment LJ. International Journal of Pattern (5):1066-1077 Recognition and Artificial Intelligence, 1988, 2(3): 485-508 [3G Nist D. An efficient sulution lo the five-point relative pose problem [19 Rosten E, Drummond T. Machine learning for high-speed corner de- [J]. IEEE Trans on Pattern Analysis Machine Intelligence tection[ C]//Proc of European Conference on Computer Vision. [S 203,26(6):756-777 1.]: Springer-Verlag, 2006: 430-443 [37 Benhimane S, Malis E. Homography-based 2D visual tracking and 20 Torr P H S, Zisserman A. MLESAC: a new robust estimator with ap servoing[ J|. International Journal of Robotics Research, 2007 plication to estimating image geometry[ J]. Computer Vision and 26(7):661-676

...展开详情
试读 6P 论文研究-基于单目视觉的同时定位与建图算法研究综述.pdf
立即下载 低至0.43元/次 身份认证VIP会员低至7折
    抢沙发
    一个资源只可评论一次,评论内容不能少于5个字
    img

    关注 私信 TA的资源

    上传资源赚积分,得勋章
    最新推荐
    论文研究-基于单目视觉的同时定位与建图算法研究综述.pdf 28积分/C币 立即下载
    1/6
    论文研究-基于单目视觉的同时定位与建图算法研究综述.pdf第1页
    论文研究-基于单目视觉的同时定位与建图算法研究综述.pdf第2页

    试读已结束,剩余4页未读...

    28积分/C币 立即下载 >