0 引言
环境感知是智能车系统的一个基本模块,是实现无人驾驶的前提.环境感知的一项基本任务是实现车
前障碍物的检测、跟踪和运动估计.
基于视觉的障碍物检测技术可以分为三类:基于先验知识的、基于深度学习的和基于目标位置的方
法.基于先验知识的方法主要利用预先已知目标的图形特征进行检测.例如,车辆探测
[1-2]
中利用车辆纹理和
形状等,行人探测
[3]
中利用行人头部、肤色特征等.这类方法一般采用单目相机同时进行检测和辨识,局限
性是只能探测单一类型的目标.基于深度学习的检测方法是通过卷积神经网络自动提取样本特征.目前基于
候选区域检测方法的 R-CNN 系列模型
[4-5]
和基于单次检测网络的 YOLO 系列模型
[6-7]
在目标检测领域获得
广泛研究,但检测性能很大程度取决于训练图像是否涵盖所有的待测模式.与上述方法不同,基于目标位
置的方法
[8-9]
是利用双目立体视觉重建场景结构并分割目标获得 ROI. Chen 等人
[10]
采用基于相位相关的立
体匹配方法获得视差图,通过高斯混合模型提取背景并拟合道路平面,将图像变换至道路平面后分割目
标. Shrivastava 等人
[11]
构造 V 视差图提取道路表面,采用改进的基于密度的三维聚类 DBSCAN 算法确定
目标区域.黄海洋等人
[12]
通过 Mean Shift 实现检测,提取目标区域外部特征点实现自车运动估计,通过内
部特征点和光流估计目标运动.这类方法的优点是能够检测多种类型的障碍物并获取较准确的距离信息.
目标跟踪常采用基于卡尔曼滤波器
[13]
或者粒子滤波器
[14-15]
的特征点跟踪,确定目标下一帧的位置.
Vatavu 等人
[16]
采用双目立体视觉获得三维信息,通过高程图提取目标 ROI,建立包含位置、速度、几何
形状的预测模型,应用粒子滤波器更新目标状态参数,卡尔曼滤波器更新目标几何形状. Franke 等人
[17]
融
合图像序列深度信息和运动信息,使用卡尔曼滤波器估计特征点的坐标和运动速度,同时依据运动信息区
分静态和动态障碍物. Barth 等人
[18]
进一步扩展了该方法,构建车辆运动模型,更新车辆位置和加速度、
角速度等运动参数,融合激光雷达数据跟踪远距离目标.该类算法不考虑目标的整体特征,因此当目标被
部分遮挡时,仍然可以利用可见特征完成跟踪任务,但不能有效处理全遮挡、重叠等问题.另一类跟踪方
法是以目标区域为正样本,背景区域为负样本,通过机器学习训练分类器,寻找下一帧最优区域.典型方
法有相关滤波器
[19]
,贝叶斯分类器
[20]
等.近年来研究人员也开展了基于深度卷积神经网络的跟踪方法的研
究
[21]
,这些方法改善了目标出现旋转、尺寸变化等情况下的跟踪效果,但是不能有效获得三维运动信息.
本文借助立体视觉的三维重建能力,采用基于位置的方法实现对多种类型目标的检测.跟踪阶段,采
用光流法对 ROI 内边缘点进行跟踪,采用 EKF 建立预测与测量模型将自车运动、光流及视差融合在一
起,更新获得优化的目标位置和速度.方法考虑相机自运动,建立自车和目标相对运动模型,获得目标的
绝对运动信息.采用边缘点跟踪约束和随机采样一致性算法剔除不可靠的跟踪点,提高跟踪预测的精度.
1 方法总体框架
方法总体框架如图 1 所示,分为两步:1)基于目标位置的方法实现多类型障碍物的检测;2)基于特
征点跟踪的方法估计目标运动参数.首先对输入矫正后的双目图像进行立体匹配得到视差图,采用基于位
置的目标检测方法获得障碍物的 ROI;然后提取 ROI 内的边缘点进行光流跟踪,根据边缘点跟踪约束确
定有效光流,并结合自车运动和视差,建立 EKF 的预测和测量方程更新边缘点的运动参数,对处理结果
采用 RANSAC 算法筛选有效边缘点并计算目标距离和绝对速度.
评论0
最新资源