没有合适的资源?快使用搜索试试~ 我知道了~
基于胶囊网络的指静脉识别研究
3 下载量 132 浏览量
2020-10-15
23:26:35
上传
评论
收藏 363KB PDF 举报
温馨提示
试读
6页
针对卷积神经网络(CNN)中空间上的指静脉信息丢失的问题,提出了一种基于胶囊网络(Capsule Network,CapsNets)的指静脉识别算法。CapsNets在整个学习过程中以“胶囊”的形式从底层传递至高层,如此以向量的形式封装指静脉的多维特征,特征会在网络中被保存,而不是丢失后进行恢复。采用60 000张图像作为训练集,10 000张图为测试集,通过对图像增强、裁剪后进行网络学习。通过实验表明,CapsNets的网络结构特征相比CNN在处理脊线区域时效果更加明显,对比VGG精确度增加了13.6%,loss值也收敛到0.01。
资源推荐
资源详情
资源评论
基于胶囊网络的指静脉识别研究基于胶囊网络的指静脉识别研究
针对卷积神经网络(CNN)中空间上的指静脉信息丢失的问题,提出了一种基于胶囊网络(Capsule
Network,CapsNets)的指静脉识别算法。CapsNets在整个学习过程中以“胶囊”的形式从底层传递至高层,如此
以向量的形式封装指静脉的多维特征,特征会在网络中被保存,而不是丢失后进行恢复。采用60 000张图像作
为训练集,10 000张图为测试集,通过对图像增强、裁剪后进行网络学习。通过实验表明,CapsNets的网络结
构特征相比CNN在处理脊线区域时效果更加明显,对比VGG精确度增加了13.6%,loss值也收敛到0.01。
0 引言引言
近几年来,在机器学习的发展日益更新中,深度学习算法也不断进步、更新。从2012年AlexNet
[1]
的诞生,一直到2017年
VGG
[2]
、GoogleNet
[3]
、ResNet
[4]
等网络的优化、改进版的出现,保证了深度学习算法在图像分类的ImagNet挑战赛上远胜其
他分类算法。卷积神经网络(CNN)通过卷积提取特征,从底层到高层映射,实现复杂函数逼近,展现了智能学习的能力。文献
[5]提出了采用改进的AlexNet网络训练指静脉图像,将3×3卷积核改为1×1并减少了特征图数量,在循环50 000次后,识别率
达到99.1%。文献[6]采用VGG网络训练指静脉图像,对比了低质、中质、高质图像和16层VGG网络、19层VGG网络的训练结
果,其中16层VGG网络的误识率达到最低0.396(高质图像)。
通过标准高质图像的训练,CNN适合运用于指静脉的识别中,但是同样存在一些实际问题。通过采集器采集到的图像有非
常大的几率采集到浅部的指静脉图像,同时,在对图像处理时是基于二维矩阵,CNN对全局指静脉图像学习特征时效果并不
好,隐藏在表皮层靠后的静脉不会被学习到,因此会严重影响到识别精确度。
如图1所示,浅部静脉图像特点在于局部静脉较细、颜色较浅、分布不均且不完整,导致这样的原因主要是因为此静脉比较
靠后,红外摄像头不能清晰地穿过组织进行拍摄。然而正常图像的静脉粗细、颜色均匀分布明显。
2017年12月,HINTON G E提出了CapsNets的网络结构
[10]
,并在multiMINIST上训练精确度为99.23%,实现了在affinist测
试集上79%的精确度,远超CNN的66%,同时CapsNets耗时较少,为目前精确度最高的网络
[11]
。指静脉图像常存在静脉重
叠,导致采集过程中常出现一条重叠的静脉图像。CNN对空间位置的学习效果不佳,所以在采集图像时会对同一指头采集多
次,使得网络尽可能学习到特征图中每一处静脉,而CapsNets在空间位置上对静脉图像的处理远超CNN,整个学习过程中
以“胶囊”的形式从底层传递至高层,封装多维特征,如此可减少训练样本数量的同时也保留了出现概率少的的静脉特征。为此
本文提出了将CapsNets应用于指静脉识别方法中。
1 CapsNets
1.1 网络结构网络结构
一些主要的计算机视觉任务中都需要一个不同的CNN架构,CNN图像分类的效果已经得到各位研究人员的认可,但是存在
以下问题:
(1)CNN要接受大量图像的训练,这使得在获得训练样本时要消耗不少时间,但CapsNets可以使用较少的训练数据进行训
练。
(2)CNN不能很好地处理歧义。CapsNets即使在密集的场景下,也可以表现出色。
(3)CNN在池化层中丢失了大量的信息。池化层取最大值保留了出现概率较高的特征,同时舍去了出现概率较少的特征,往
往我们又需要这些重要的信息,这些层减少了空间分辨率,所以它们的输出无法对输入的小变化做出反应。当在整个网络中必
须保存详细的信息时,这是一个问题。如今,解决这个问题的方法是通过在CNN周围建立复杂的体系结构来恢复一些丢失的
信息。CapsNets详细的属性信息在整个网络中被保留下来而不是丢失后被恢复。输入的小改动导致输出的细微变化,信息被
保留,这就是所谓的等变性。因此,CapsNets可以在不同的视觉任务中使用相同的简单一致的架构。
(4)CNN需要额外的组件来自动识别一个部件属于哪个对象。CapsNets可以为其提供部件的层次结构。
CapsNet是一个非常浅的网络,加上卷积层和全连接层一共3层。CNN在抽取低级特征上表现非常优秀,相反CapsNets是
用来表征某个物体的“实例”,所以它更加适合于去表征高级的实例。所以在CapsNets中的底层加入传统CNN的卷积层做底层
的特征抽取。
如图2所示,从低级特征到 Primary Capsule,第二卷积层的维度是6×6×8×32,用32个步长为2的9×9×256的滤波器做了8次
卷积操作,在CNN中维度为6×6×1×32的层里有6×6×32元素,每个元素是一个标量,在Capsule中,维度为6×6×8×32的层里
有6×6×32元素,每个元素是一个 1×8的向量,主要储存低级别特征的向量。
资源评论
weixin_38722607
- 粉丝: 5
- 资源: 865
上传资源 快速赚钱
- 我的内容管理 展开
- 我的资源 快来上传第一个资源
- 我的收益 登录查看自己的收益
- 我的积分 登录查看自己的积分
- 我的C币 登录后查看C币余额
- 我的收藏
- 我的下载
- 下载帮助
安全验证
文档复制为VIP权益,开通VIP直接复制
信息提交成功