论文研究-仿生机器人视觉导航研究分析.pdf

所需积分/C币:22 2019-09-07 19:45:53 721KB .PDF
71
收藏 收藏
举报

视觉导航技术是保证机器人自主移动的关键技术之一。为了从整体上把握当前国际上最新的视觉导航研究动态,全面评述了仿生机器人视觉导航技术的研究进展,重点分析了视觉SLAM(Simultaneous Localization and Mapping)、闭环探测、视觉返家三个关键问题的研究现状及存在的问题。提出了一个新的视觉SLAM算法框架,给出了待解决的关键理论问题,并对视觉导航技术发展的难点及未来趋势进行了总结。
吴俊君,胡国生,朱克武:仿生机器人视觉导航研究分析 2012,48(22) 大尺度空间的计算时,会受到较强的“维数灾难”影觉的SLAM系统(帧率达到30Hz)。它的核心思想 响,计算效率大打折扣。基于粒子滤波器的求解方是在概率框架下利用自然路标在线构建一个连续的 法,是采用粒子云的分布状态来模拟某一时刻机器稀疏地图。该系统被应用在一个全仿人的机器人 人的位置概率分布,并通过观测值对分布结果进行上,进行了3Dam实验并取得了不错的导航效果 逐步收敛。它最大的优势:可以对任何随机状态的Δπgeli等人基于贝叶斯滤波器提岀一种视觉闭环探 非线性系统进行很好的模拟,收敛的效率儿乎不受测算法,然后设计了一个实时构建增量式拓扑地图 系统非线性特征的影响。缺点在于由于需要较多的的SLAM方法。 粒子和不断的重采样过程而影响计算的实时性。 随后在此基础上凹,根据机器人里程计信息,给 1.12环境地图构建 拓扑地图增加了 metrical信息(度量信息:主要是拓 目前利用SLAM技术构建的环境地图大致可扑图中相邻点的距离,该距离对两点之问导航十分 以分为两类: Metric- based map和 Appearance- based有用),以便建立更加完整的环境模型(如图1) map明。前一类地图属于几何特征地图,它对环境尺A. Angeli等人也进行了类似的工作:他们提出了一个 度信息的描述比较详细,比较适合小范围内的区域视觉SLAM算法框架悶。框架利用贝叶斯滤波器来 构图,后一类地图属于拓扑地图,忽略了具体的细节解决闭环探测问题,BoW( Visual bag of words)被 信息,注重环境拓扑结构的表达,所以比较适用于大用来刻画场景图像。在室内环境下,实时地构建增 范围区域的地图构建。日前有许多研究将这两种方量式拓扑地图(如图2)。P. Newman等人提出一个适 法结合起来,也称为环境模型的分层表达,即第一用于室外环境的3 D SLAM系统。该系统利用激 层用拓扑点及其联接关系来描述整个环境的拓扑结光构建环境点云地图,并利用摄像杋获取环境信息 构,对人范围的导航比较有效,在第二层用每个拓和激光获取的环境几何特征联合起来进行闭环探 扑点周边区域的Meti信息对该点进行初始化,以确测。 M. Cummins等人提出了一种在线的基于外观的 保局部区域的环境信息被详细表达,有利于满足局场景识别概率框架,该框架具有较强的环境适应能 4部小范围的导航需要。目前SAM已经被广泛应用力和处理感知混淆间题的能力。与之前的算法复杂度 在许多环境下:室内,室外,空中,水下92。O(3)相比,本文算法复杂度只有O(1),在较大的环 根据环境的差异和需求的不同,所采取的传感模型境中测试取得了良好的效果。 Ananth Ranganathan和 也不尽相同2 Frank dellaert2011年提出一种在线的利用概率方 113实际导航系统的研发 法构建拓扑地图的方法:OPTM。采用粒子滤波器, Δ vache和 Faugeras在1988年最早开始了视觉导根据多种传感器的测量结果,完成闭环探测,构建合 航的研究工作,随后越来越多的学者开展了视觉导理的环境拓扑地图。 航方面的研究,并取得了可喜的进展。伦敦帝国学1.1.4动态环境下的SLAM 院的 Andrew J. Davison早年毕业于牛津大学,现在他 日前大部分SLAM研究工作是以静态环境为前 领导的机器人视觉研究小组正致力于单目SLAM系提。静态环境下的SLAM只是比较理想的状态03 统的性能提升和实时性的定位与构图的开发。AJ机器人导航在实际应用中,经常面临的环境是动态 Davison等人开发了一种实时的单目SLAM系统 的33。在动态环境中会有更多的变化因素影响地 这是第一款真正意义上具有一定实时性基于单目视图构建与定位的准确性。因为动态环境中的同一幅 Topological map ABsolute position of node i [x,y,] Relative dispacement between nodes i and 1 Eidi, Bi, l Dictionary [x,y,闭] Absolite position of node 图1环境拓扑模型 4 2012,48(22) Computer Engineering and Applications计算机工程与应用 器人的闭环位置。A. Angeli等人提出了一种实时 的闭环探测方法。利用贝叶斯滤波器对闭环进行 了在线的概率估计:在贝叶斯框架和马尔科夫假设 10 6 下,持续推断“闭环标志变量S:的状态。闭环探测 题被转化为贝叶斯框架下对已有图像的搜索问题 Node’s 刁环处的图像描述利用了BoW方法。传统的闭环探 characterization 4 characterization 测方法,是利用内部传感器获取 metric信息进行位姿 估计来确定闭环是否存在,由于基于内部传感器的 Visual 推算自身会累计较大的误差,利用这种方法探测闭 vocabulary 环误差较大。牛津大学机器人研究组的 Kin Leong Visual words Ho和 Newman p等人2006年提出用“相似矩阵”来 图2视觉导航原理图 对配对的相似场景进行编码,矩阵的生成是通过计 场景在不同的时刻,不同灰度的像素数量和分布都算图像特征向量的余弦相似度来完成的。该方法将 会有所不同。场景的相似度计算面临更大的挑战,闭环问题转化为从相似矩阵中提取相似场景序列的 这使得闭环探测的难度会更大,增加了地图构建失问题。方法适用于视觉图像和激光图像。李博等人 败的机率。比如川流不息的大街、人拥挤的火车提出视觉字典树金字塔 TF-IDF得分匹方法进行 站、繁忙的停车场、有人活动的室内环境等。机器人移动机器人闭环检测。该方法对传统的视觉词汇 在这些环境中获取场景图像时会受到尺度变化、光树进行了改进。 Brian williams等人认为环探测主 照变化、旋转变化、平移变化、观测角度变化及位置要分为三类:(1)以子地图为探测对象将子地图中 变化的影响。如何能更好地处理以上制约因素,显的若干特征进行匹配计算(2)以图像序列为探测 著关键点选取对以上干扰因素具有较好的稳定性是对象将最后捕获的图像与已经观测到的图像进行 中计算场景相似度的关键。东京工业大学 AKawe-相似计算(3)将摄像机当前捕获的关链帧与地图 wong等人对高动态环境下的SIAⅥ进行了研究,他中的特征进行匹配。研究者分别在室内外环境对 们提出了PIRF( Position- variant Robust Features),单环和多环轨迹进行了闭环的探测,结果表明:第一 该特征被应用在高动态环境的场景识别中具有较强种方法不适合单目SLAM,因为它缺乏足够的信息使 的鲁棒性。 得探测效率降低。后两种方法效果良好,在大环境 1.2SLAM技术中的闭环探测问题 屮第二种比第三种方法要更优。 AKumar等人在超 在移动机器人视觉导航系统中,一个普遍存在远距离范围(6.5km)进行了视觉环探测实验,利用 的问题是误差累计。它会导致机器人定位不准确,GPS缩小搜索范围,基丁词汇字典树进行了探测实 地图构建失败。闭环的发生就是产生误差累计的主验,并利用对极几何约束剔除误匹配点。实验中对比 要因素之一。进行闭环探测的月的是为了判断机器了基于五种词汇字典树的探测效果,发现 cxtrcmcly 人是否到过之前已经到过的某些位置,以降低误差 randomized tree果最好 积累概率。机器人在视觉导航中会遇到很多混淆感1.2.l局部特征点的提取 知的高相似度场景,计算这些地方的闭环存在与否 对场景模型刻画方法的鲁棒性决定了闭环探测 具有较大的挑战性。基于视觉传感器的SLAM,环的效果。日前对场景模型的刻画,大部分是利用了 检测主要分为概率计算方法和图像匹配方法。图像局部不变特征。提取稳定高效的局部特征是后 概率计算方法将闭环检测归结为递归贝叶斯佔计问续工作的基础。比较著名是由 David.G.Lowe于199 首先釆BOw等图像建模方法描述机器人每→年提出的SIFT算法,2004年完善总结,SIFT算法可 位置的场景图像,估计己获取图像与对应位置的先以处理两幅图像之问发生平移、旋转、尺度变化、光 验概率,对当前时刻,计算该新场景图像与已访问位照变化情况下的特征匹配问题,并能在一定程度上 置匹配的后验概率,概率大于阈值则提取为闭环。对视角变化、彷射变化也具备较为稳定的特征匹配 图像匹配方法将视觉闭环检测归结于序列图像匹配能力。后来YKe将其描述子部分用PCA代替直方图 问题,将当前时刻的图像与已获取的图像序列进行的方式,对其进行改进。PCA-SIFT与标准SIFT有 相似性匹配,相似度高于阈值的匹配图像对应了机相同的亚像素位置,尺度和主方向,但在第4步计算 吴俊君,胡国生,朱克武:仿生机器人视觉导航研究分析 2012,48(22) 描述子的时候,它用特征点周围的41×41的像斑计算和实时性的闭环探测算法,适用于室内外、静态、动 它的主元,并用PCA-SIFT将原来的2×39×39维的向态的工作环境。 量降成20维,以达到更精确的表示方式。HBay等1.3 Visual homing技术 人提出SURF算法,通过对积分图像har求导对 isual homing研究目的是:“如何让机器人利用 SIFT算法进行了加速。 Michael.c和 Stefan在2010视觉返回它之前曾经到过的某个地方”m。这个研 年和201分别提出 BRIEF和 BIRSK,算法对关究问题最早是受大自然中许多昆虫(比如:蜜蜂、蚂 键点描述符做了改进转换为一进制向量的比对,所蚁等)利用感知器官返回自己巢穴行为的启发而逐 以计算速度十分快。 渐开展起来的。昆虫返穴的现象激发了研究者们对 12.2场景模型的刻画 仿生机器人视觉导航中这一重要而又有趣的问题的 完成局部特征的提取后,接下来是如何利用这研究。机器人会首先记住一些重要的环境场景,随 些特征来描述一幅场景。这个过程,其本质是利用后利用视觉信息,通过比铰当前观测到的场景图像 各种方法对图像进行合理的编码。如图3所示:分别和已经记忆的目标场景之间的差别计算出机器人下 对人像、自行车、吉他三种图像以直方图的形式进 步移动的方向,从而逼近所要达到的目的地。 行了编码(htp:/ blog. csdn, net/v july v/article/ details Dr. Rall moller教授领导的计算机工程小组对 655899日前比较经典的场景描述方式是采用 sual homing问题进行了比较系统的研究(ltp:∥ Bow(Bag- of-words)模型3。BoW模型将一幅图像 www.autonomousrobotsblog.com/local-visual-homing/) 表示成为数值向量。过程如下:在利用诸如SIFT 并对研究成果进行了树形分类。他们的 local visual PCA-SIFT,SURF,或 BIREF, BIRSK等局部特征提取 算法提取图像的局部特征后,将这些特征向量利用 homing方法主要分为两类:一类是对图像进行深度 聚类方法(如: K-Means算法6)进行聚类然后离线 标注,通过对比标注代替直接对图像进行计算。但 或在线构建一个K个单词的单词本,统计单词表中是目前这种方法他们已经放弃研究了。另一类是基 4每个单词在图像中出现的次数,从而将图像表示成 于图像强度信息的 homing方法。该方法可以划分为 为一个K维数值向量最后计算k维向量的相似距离餐体方法和局部方法两种。整体法将图像看做一个仆 比如马氏距离,余弦相似度等判断场景的相似整体来进行处理和编码计算,具体方法有: Warping, 性。加拿人 Hong Zhang教授提出直接利用原始特 Parameter DID。 Warping方法尝试让机器人按多种 征的方法BoRF( Bags-of-raw-features),避免了利用参 参数运动后,计算可能得到的相对于当前图像的扭 BoW时需要离线构建单词本的繁琐过程和由于向量曲图像,将扭曲的图像与目标图像进行匹配完成机 化过程而导致的感知混淆问题,该方法在室内应用器人移动方向的计算m。 Parameter方法将场景图 取得了不错的效果。 像简化为描述符,通过比较当前图像的参数向量 ( parameter vectors)和已有的图像来简化 homing计 30 算,这种方法执行比较简单而且计算消耗低。局 20 oO 部类型的方法:利用光流法计算图像局部区域的运 动。将图像分成很多小块,搜索不同图像里的对应 块完成 homing计算。先对图像局部特征SIT等进 行提取,直接建立特征描述符之间的对应关系完成 图3图像编码:BoW方法 oming计算。 目前闭环探测的研究成果显示:基于场景的闭 在 Visual homing任务之前需要构造关键帧,具 环探测效果在准确性上已经取得了令人满意的效体方法有:按时间构造,按距离构造,按图像内容变 果,但是在实时性上还有待进一步研究。如何降低化的增量构建。不管哪一种方法,都使得 homing过 图像相似度计算的复杂度是当前众多研究者们正在程中面临一个挑战:为了保证搜索的连续性,关键帧 努力的方向。研究内容包括了闭环探测的各个主要之间需要有重叠的部分,这就导致关键帧的量比较 环节:各种合理的图像编码方法,从局部特征点的选大。这就涉及到如何组织关键帧才能提高搜索效 取方法,到描述符的优化设计,特征向量维数的降率。这个挑战在闭环探测问题中也同样需要面临。 低,场景刻画模型的研究,特征向量相似性计算方法目前一般采取树形结构或哈希表作为关键帧数 等各个环节进行改进,致力于研究具有较高鲁棒性据库的组织形式。此外, A Hornung等人对高速运行 6 2012,48(22) Computer Engineering and Applications计算机工程与应用 获取场景图像团环探测 地图构建 图像编码--- 图像预处理计十待征提取“场像面(样似 升级拓扑地图 当前帧加入 关键帧 拓扑地图 粒子滤波器 定位- 初始位置估计 生成均分分布的粒子 (以均等机会处于任何场景位置 位置 收敛 权重计算 粒子重采样 运动 图4视觉SLAM算法框架 的机器人存在图像抖动和运动模糊问题也进行了研度、动态物体的存在等,这些制约因素都给相似性计 究。如果机器人当前位置离目标位置很近,目标图算的准确性和实时性带来较大的影响。如图5所示。 像和当前图像之间的方向改变很小,机器人可能会 发生振动现象。 Lopez- Nicolas等人针对这个问题提 出一种有效的解决方法。 (a)动态坯境 (b)不同视角 中2存在的问题及关键理论问题 21存在的问题 日前视觉导航系统主要存在以下问题:(1)导航 (c)不同光照 (d)不同尺度 系统鲁棒性不够。在面对大量感知混淆的场景的环 图5感知混淆场景 境,导航系统适应能力不够。(2)实时性欠缺。视觉 导航系统实质是一个实时的控制系统。在运行过程 (2)根据当前图像与关键帧计算机器人转角。 中要处理大量连续的场景图像。面临的挑战是:场机器人从当前位置到目标位置,需要在拓扑地图的 景图像的管理、图像编码复杂度、图像相似度计算复关键帧序列里搜索一条路径。然后不断根据当前观 杂度。(3) AVSLAM( Appearance-based Visual Slam)测到的图像和每幅关键帧计算机器人下一步的移动 框架的构建。高效的算法框架是系统稳定运行的保方向,调整自身位姿。转角计算的准确性和实时性 障。目前还没有公认的统一、标准的算法框架。 同样受到各种环境因素的干扰。 2,2视觉SLAM算法框架 本文提出一个视觉SLAM算法框架,框架包含 总结 视觉导航的各个主要环节,定位求解采用粒子滤波 经过几十年的发展,机器人视觉导航在理论研 器方法,图像编码环节是关键,地图构建过程中闭环究方面取得了丰富的成果,也在实际应用中取得了 探测诃题的实时性是要解决的重点问题。如图4所示。可喜的进展。但是视觉导航系统的性能还有待于进 23待解决的关键理论问题 一步提升,比如:从室内到室外环境,从静态环境到 视觉导航系统是一个实时控制系统,它的很多高动态环境,从陆地到水面或空中环境,从小范围区 重要环节受计算效率的制约影响了实际应用效果。域到大尺度区域等方面都还需要深入开展研究,日 目前在理论方面,研究主要致力于解决以下两个关前的大多数视觉导航算法所基于的环境都相对比较 键的理论问题 理想,离自然环境状况有一定的差距,真正的实际应 (1)计算场景图像的相似性。在实际环境中,感用效果还有待进一步提升。可以预计今后视觉导航 知混淆的场景图像无处不在。比如:光照、视觉、尺的研究将主要集中在以下几个方面:(1)图像编码方 吴俊君,胡国生,朱克武:仿生机器人视觉导航研究分析 2012,48(22) 法。图像的编码方式和计算效率,是制约导航系统 global localization[C]/IEEE International Conference 实时性、鲁棒性最主要的因素。现有的整体场景图 on robotics and autonation 2009: 4300-4305 像建模方法:不论是基于整体图像编码的方法还是[1FitD. Interactive learning of visual topological navi 基于局部特征的图像建模方法都需要进一步深入研 gation[C/EEE International Conference on Intelligent 究。(2)基于场景分析的SLAM算法框架构建。算法 Robots and systems, 2008: 248-254 框架犹如导航系统的骨架,深入研究算法框架,追求21 Bosse m, Newman p, Leonard J, et al.Simultancous local 算法快速准确的收敛性是保证定位和构图效果的前 ization and map building in large-scale cyclic environ- ments using the atlas framework[].The International 提条件,目前还没有公认的统一的视觉SLAM算法 Journal of Robotics Research, 2004, 23(12): 1113-1140 框架。(3)高动态环境下的闭环探测和 visual hom [13 Castellanos J A, Martnez J M, Neira J,et al. Simultane ing。目前对这些问题的研究对环境动态性考虑不 ous map building and localization for mobile robots 足。高动态环境下的SLAM是一个研究趋势,比如: a multisensor fusion approach[C]/IEEE International 川流不息的大街,人∏密集的旅游景点,人活动的办 Conference on Robotics and Automation, 1998 公室等开放的自然环境。所以今后对视觉导航系统 1244-1249 的研究将主要集屮在提升系统稳定性、鲁棒性、实时「141 Chong K S, Kleeman L. Fealure- based mapping in real 性三个方面。 large scale environments using an ultrasonic array[ The International Journal of Robotics Research, 1999 参考文献: 18(1):3-19 [15 Davison A J, Cid Y G, Kita N Real-time 3D SLAM [1 Durrant-Whyte H, Bailey T Simultaneous localization and with wide-angle vision[C]/IFAC/EURoN Symposium mapping: part I[J].IEEE Robotics Automation Maga on Intelligent Autonomous Vehicles, 2004 zine,20)6,13(2):99-110 [2] Thrun S, Burgard W, Fux D Probabilistic Robotics[M][.1: [16 Folkesson J, Christensen H IGraphical SLAM a self-cor Mit Press 2005 recting map[C]/IEEE International Conference on Ro- [3 Dissanayake G, Newman PA solution to the simultane botics and Automation 2004.1: 383-390 ous localization and mapping(SLAM)problem[J].IEEE [17 Guivant J E, Nebot E M.Optimization of the simultane- Transactions on Robotics and Automation, 2001,17(3) ous localization and map-building algorithm for re 229-241 al-time implementation[ J].IEFF Transactions on Robot [4]Maybeck P SStochastic models [M]!/Estimation and Con ics and Automation, 2001, 17(3): 242-257 trol. New York: Academic, 1979 [18 Kim J, Sukkarich S Airborne simultaneous localization [5 Montemerlo M, Thrun S, Koller D, et al. FastSLAM: a and map building[cieee International Conference factored solution to the simultaneous localization and on robotics and automation 2003: 406-411 mapping problem[C]/AAAl, 2002 [19 Eustice R, Singh H, Leonard J, et al. Visually navigat [6 Montemerlo M, Thrun S, Koller D, et al. Fast-SLAM20: ing the rMs titanic with SLAM information filters[M]// an improved particle filtering algorithm for simultaneous Robotics Science and Systems. Cambridge, Ma: MIt localization and mapping that provably converges[c]// Press. 2005 Proceedings of the Sixteenth International Joint Confer- [20] Newman P M, Leonard JJ.Pure range-only subsea ence on Artificial Intelligence, 2003: 1151-1156 SLAMIC]/IEEE International Conference on Robotics [7 Bailey T, Nieto J, Nebot E Consistency of the FastsLAM and Automation, 2003 1921-1926 algorithm[C]/IEEE International Conference on Robotics [21] Williams S B, Newman P, Dissanayake G, et al.Autono- and automation 2006: 424-429 mous underwater simultaneous localization and map [8 Ranganathan A, Dellaert F Online probabilistic topological building[c]/Ieee International Conference on robot- mapping[J]. International Journal of Robotics Research ics and Automation, 2000: 1793-1798 2011,30(6):755-771 [22] Deans M, Hebert M. Experimental comparison of tech [9 Cummins M, Newman P. Fab-map probabilistic localization niques for localization and mapping using a bearing- and mapping in the space of appcarance[J]. The Interna only sensor[C]//Int Symp Experimental Robotics, 2000 tional Journal of Robotics Research. 2008. 27: 647-665 [23 Leonard JJ, Rikoski R J, Newman P M, et al. Map [10] Angeli A, Doncieux Svisual topological SLAM and ping partially observable features from multiple uncer 8 2012,48(22) Computer Engineering and Applications计算机工程与应用 tain vantage points [J]. International Journal of robotic in Photopolymer Materials, 2005: 255-264 Research,2002,21(10/11):943-975 [37 Kawewong A, Tongprasit N Online and incremental ap 24 Ayache N, Faugeras O Building registrating and fusing pearance-based slam in highly dynamic environments[J] noisy visual maps[J]. The International Journal of R International Journal of Robotics Research (IJRR), 2010 bolics Research, 1988, 7(6): 45-65 [38 Kawewong A PIRF-Nav: an online incremental appear [25]Da avison a. Reid I D MonoSlaM: real-time single ance-based localization and mapping in dynamic envi- camera SLAM[IEEE Transactions on Pattern Analy- ronments[D]. Tokyo Institute of Technology, 2010 sis and machine Intelligence, 2007: 1052-1067 [39 Kawewong A, Tangruamsub S, Hasegawa O Position-in- [26 Angeli A, Filliat D, Doncicux S, et al. A fast and incre variant robust features for long-term recognition of d mental method for loop-closure detection using bags namic outdoor scenes[J]. IEICE Transactions on Infor- of visual words[].IEEE Transactions on Robotics, Sp mation and Systems, 2010,E93-D(9): 2587-2601 cial Issue on Visual SLAM. 2008. 24: 1027-1037 [40 Kawewong A, Noppharit T, Hasegawa O. PIRF-Nav 2.0: [27 Angeli A Visual topological SLAM and global localiza fast and online incremental appearance-based loop-clo tion[C]/IEEE International Conference on Robotics sure detection in an indoor environment[J]. Elsevier Ro- and Automation, 2009: 4300-4305 botics and autonomous Systems, 2011 [28 Angeli A, Doncieux S Incremental vision-based topologi- [41 Kawewong A, Tangruamsub S, Hasegawa O Wide-base cal SLAM[C]/International Conference on Intelligent line visible features for highly dynamic scene recogni- Robots and Systems, 2008: 1031-1036 tion[c]pRoceeding Conference on Computer Analysis [29 Newman P, Cole D, Ho K Outdoor SLaM using visual of Images and Patterns, 2009 appearance and laser ranging[c]/EEe International [42] Cummins M, Newman P Probabilistic appearance based Conference on Robotics and Automation, 2006: 1180-1187 navigation and loop closing[C]/Eee International [30 Grisetti G, Tipaldi G D Fast and accurate SLAM with Conference on Robotics and Automation, Rome. 2007 rao-blackwellized particle filters[J]. Robotics and Auton 2042-2048. omous Systems, 2007, 55(1): 30-38 [31 Jones E S, Soatto S. Visual-incrtial navigation, mapping [43 Bazeille S, Filliat D Combining odometry and visual and localization: a scalable real-time causal approach[JI loop-closure detection for consistent topo-metrical map The International Journal of robotics research 201l ping[J]. RAIRO Operations Research, 2010, 44(4): 365-37 30(4):407-430 [44 Angeli A, Filliat D, Doncieux S,et al. Fast and incre [32 Bacca B, Salvi J Appearance-based mapping and local mental method for loop-closure detection using bags ization for mobile robots using a feature stability his- of visual words [J]IEEE Transactions on Robotics togram J. Robotics and Autonomous Systems, 2011 2008,24(5):1027-1037 [33 Lu Zheyuan, Hu Zhencheng SLAM estimation in dy [45 Ho K L, Newman P Loop closure delection in SLAM namic outdoor environments: a review[J].Intelligent Ro by combining visual and spatial appearance[J]. Robot botics and Applications, 2009: 255-267 ics and Autonomous Systems, 2006, 54(9): 740-749 [34] Boucher P, Kelouwani S, Cohen P Mobile platform [46] Callmer J, Granstrm K Tree of words for visual loop self-localization in partially unknown dynamic environ- closure detection in urban SLAM[C]/Proceedings of ments[C]/Proceedings of the 6th International Confer the Australasian Conference on robotics and Automa- ence on Informatics in Control, Automation and Ro- tion,2008:1-8 botics. 2009 147 Williams B, Cummins M An image-to- map loop clos [35 Holz D, Lorken C. Surmann H Continuous 3D sensing iny method for monocular SLAMC]/Proceedings of for navigation and SLAM in cluttered and dynamic the Ieee/rs International Conference on intelligent environments[C]/1lth International Conference on In Robots and Systems, 2008: 2053-2059 formation fusion 2008 148 Ho K L, Newman P Detecting loop closure with scene [36 Dragone M. Robot soccer anywhere: achieving persis- sequences[j]. International Journal of Computer Vision tent autonomous navigation, mapping and object vi 2007,74(3):261-286 sion tracking in dynamic environments[C]/The Im- [49] Kim J, Kweon I S Robust feature matching for loop pact of Inhibition Processes during Grating Formation closing and localization[C :/Proceedings of the IEEE/ 吴俊君,胡国生,朱克武:仿生机器人视觉导航研究分析 2012,48(22) RSJ International Conference on Intelligent Robots qualitative localization and mapping [c]/IEEe Interna and Systems,2007:3905-3910 tional Conference on robotics and automation 2007 [50 Zhao Feng-Da, Kong Ling-Fu. An approach to loop-clos 3921-3926 ing based on images matching[J] Journal of Yanshan [66] Sivic J, Zisserman A Video google: a text retrieval ap- University,208,32(2):115-119 proach to object matching in videos[C]/IEEE Interna [51]李博,杨丹,邓林移动机器人闭环检测的视觉字典树金字 tional Conference on Computer Vision(ICCV), 2003, 2: 塔TF-IDF得分匹配方法[J自动化学报,2011:665-673 1470-1477 [52] Angeli A, Filliat D, Doncieux S Real-time visual loop 67 Kanungo T, Mount D MAn efficient K-means cluster- closure detection[ c]/EEE International Conference on ing algorithm: analysis and implementation[JJ.IEEE Robotics and Automation, 2008: 1842-1847 Transactions on Pattern Analysis and Machine Intelli- [53] Williams B, Cummins MA comparison of le lo gence,2002,24(7):881-892 ing techniques in monocular slAMLI Robotics and [68 Zhang H BoRF: loop-closure detection with scale invari- Autonomous Systems, 2009, 57(12): 1188-1197 ant visual features[C]//IEEE International Conference [54 Clemente L, Davison A, Reid I, et al. Mapping large on robotics and Automation. 2011: 3125-3130 loops with a single hand-held camera[C]/Proceedings 169 Mller R, Vardy A Visual homing in environments with Robotics Science and Systems, 2007 anisotropic landmark distribution J]. Autonomous RO- [55 Cummins M, Newman P Accelerated appearance-only bots,2007,23(3):231-245 SLAM[C]/Proceedings IEEE International Conference [70] Mller R, Lambrinos D Insect strategies of visual hom on Robotics and Automation. 2008: 1828-1833 ing in mobile robots[M-S.I]: AAAI Press, 2000 [56 Williams B, Cummins M An image-to-map loop clos- [71 Franz M O, Scholkopf B. where did I take that snap shot: Scene-based homing by image matching [J]. Biologi- ing method for monocular SLAM[C]/Proceedin cal Cybernetics, 1998, 73(3): 191-202 IEEE International Conference on Intelligent Robots [72 Moller R Local visual homing by warping of two- and Systems,2008:2053-2059 dimensional images[J]. Robotics and Autonomous Sys- [571 Kunar A Experiments on visual loop closing using Vo- tems,2009,57(1):87-101 cabulary trees[C]/CVPR Workshop, 2008 [58 Lowe D G Distinctive image features from scale-invariant [73 Krzykawski MImplementierung eines 2D-Warping-Ver ahrens auf einem FPGA[D. Faculty of Technology key points [J].International Journal of Computer Vision Bielefeld University, 2008 2004:91-110 74] Moller R, Krzykawski M, Gerstmayr L. Three 2D-warp- [59 Ke Y Sukthankar R PCA-SIFT: a more distinctive rep ng schemes for visual robot navigation JAutono- resentation for local image descriptors[C/ IEEE Con- mous robots,2010,29(3):253-291 ference on Computer Vision and Pattern Recognition [75] Horst M. Umstellung einer FPGA-basierten implementa 2004:511-517 tion des 2D-Warping-Algorithmus auf Min-Warping[D] [60 Bay H, Tuytelaars TSURF: speeded up robust features[C] Faculty of Technology, Bielefeld University, 2009 Computer Vision-ECC V, 2006: 404-417 [76 Miller R, Krzykawski M, Gerstmayr L. Three 2D-warp [611 Calonder M, Lepetit VBRIEF: binary robust indepen hemes for visual robot navigation [J].Autono- dent elementary features[C]//Proceedings of the Euro mous robots,2010,29(3):253-291 pean Conference on Computer Vision(ECCV), 2010, [77 Lambrinos D, Moller R, Labhart T, et al. A mobile ro 6314:778-792 bot employing insect strategies for navigation[J].Robot- [62 Leutenegger S, Chli M, Siegwart R BRISK: binary robust ics and Autonomous Systems, Special Issue on Biomi invariant scalable keypoints[ C]/proceedings of the IEEE metic Robots,2000.30(1/2):39-64 International Conference on Computer Vision, 2011 [78 Moller R Insect visual homing strategies in a robot [63]Nilsback M E, Zisserman A.A visual vocabulary for with analog processing[J]. Biological Cybernetics, spe flower classification[C]//IEEE Conference on Computer cial issue: Navigation in Biological and Artificial Sy Vision and Pattern Recognition, 2006: 1447-1454 tems,2000,83(3):231-244 [64] Csurka G, Dance C, Fan L, et al. Visual categorization [79 Moller R Do Insects use templates or parameters for with bags of keypoints[C]/ECCv04 Workshop on Sta landmark navigation? [J]Journal of Theoretical Biology tistical Learning in Computer Vision, 2004 59-74 2001,210(1):33-45 165 Filliat DA visual bag of words method for interactive (下转40页)

...展开详情
试读 9P 论文研究-仿生机器人视觉导航研究分析.pdf
立即下载
限时抽奖 低至0.43元/次
身份认证后 购VIP低至7折
一个资源只可评论一次,评论内容不能少于5个字
您会向同学/朋友/同事推荐我们的CSDN下载吗?
谢谢参与!您的真实评价是我们改进的动力~
  • 至尊王者

关注 私信
上传资源赚钱or赚积分
最新推荐
论文研究-仿生机器人视觉导航研究分析.pdf 22积分/C币 立即下载
1/9
论文研究-仿生机器人视觉导航研究分析.pdf第1页
论文研究-仿生机器人视觉导航研究分析.pdf第2页

试读结束, 可继续读1页

22积分/C币 立即下载