2018年11月
计算机工程与设计
Nov.2018
第39卷第11期
COMPUTER
ENGINEERING
AND
DESIGN
V01.39
No.1
t
多层卷积特征融合的行人检测
吕俊奇,邱卫根,张立臣,李雪武
(广东工业大学计算机学院,广东广州510006)
摘要:针对小目标以及遮挡严重的场景下的行人目标检测准确率较低的问题,提出一种卷积层信息融合的方法。根据经
典卷积神经网络的设计特点,融合不同尺度的卷积特征信.g-;在此基础上,尝试将目标全局以及局部上下文信息进一步融
合。在VOC数据集以及Brainwash数据集上验证该模型的性能,实验结果表明,这种卷积特征融合对于多尺度的物体以及
目标遮挡问题,可有效提升目标检测的准确率。
关键词:多尺度特征;深度卷积神经网络;特征融合;目标上下文;边框回归;行人检测
中图法分类号:TP391.41
文献标识号:A
文章编号:1000—7024(2018)11—3481—05
doi:10.16208/j.issnl000—7024.2018.11.032
Multi—scale
convolutional
feature
fusion
for
pedestrian
detection
LYU
J
un-qi,QIU
Wei—gen,ZHANG
Li—chen,LI
Xue—wu
(School
of
Computer,Guangdong
University
of
Technology,Guangzhou
510006,China)
Abstract:Regarding
tO
the
low
accuracy
of
pedestrian
detection
in
small
targets
and
badly
occluded
scenes,a
method
of
convolu—
tion
feature
information
fusion
was
proposed.According
to
the
design
characteristics
of
classical
convolutional
neural
networks,
convolution
feature
information
of
different
scales
was
fused.On
this
basis,the
target
global
and
local
context
information
was
further
fused.The
performance
of
the
model
was
verified
on
the
VOC
dataset
and
the
Brainwash
dataset.Experimental
results
show
that
the
convolution
feature
fusion
can
effectively
improve
the
accuracy
of
target
detection
for
multi-scale
objects
and
partial
occlusions.
Key
words:multi—scale
feature;deep
convolution
neural
network;feature
integration;object
context;bounding
box
regression;
pedestrian
detection
0引
言
行人检测在车辆辅助驾驶、智能视频监控、人机交互
等领域具有广泛的应用[1],也是计算机视觉中极具挑战
问题。
Dalai等[2]提出了稠密的、重叠的、固定尺度的HOG
局部特征描述子描述人体轮廓。该描述子借鉴了旋转尺度
不变特征(scale
invariant
feature
transform,S1FT)中运用
梯度方向直方图表示目标的思想。
DPM(deformable
parts
model)[33算法采用了传统的滑
动窗VI检测,通过构建尺度金字塔在多种尺度空间上搜索
候选目标,对目标的形变具有很强的鲁棒性。
Dollar等[4]提出融合积分图和原始HOG特征的多通道
特征(aggregate
channel
features,ACF),利用级联决策树
构建AdaBoost分类器,进一步提高了行人检测精度。
从2014年开始,基于深度学习的目标检测取得了巨大
的突破,以R-CNN[5]为代表的目标检测框架在VOC目标
检测数据集上取得了较好的成绩,通过结合候选区域提取
和卷积神经网络分类,利用卷积神经网络强大的学习特征
能力极大提高了特征提取的能力。
针对目标的多尺度问题,R-CNN使用Selective
SearchE6]生成多尺度的目标假设区域,然后将这些建议归
一化CNN支持的大小(例如224×224)。然而,从计算的
角度来看,这种做法非常低效。最新的Faster
RCNN[7]通
收稿日期:2017—09—04;修订日期:2017—11一07
基金项目:国家自然科学基金项目(61572142)
作者简介:吕俊奇(1993一),男,广东广州人,硕士研究生,研究方向为计算机视觉、图像分割、行人检测;邱卫根(1968一),男,江西
抚州人,教授,硕士生导师,研究方向为人工智能、粗糙集理论及应用、计算机图形图像学;张立臣(1962一),男,吉林省吉林市人,
博士,教授,硕士生导师,研究方向为并行化处理、实时计算;李雪武(1989一),男,广东广州人,硕士研究生,研究方向为计算机视
觉、目标跟踪。E
mail:swearos91@gmail.com
万方数据