没有合适的资源?快使用搜索试试~ 我知道了~
基于卷积神经网络的图像检测.pdf
1.该资源内容由用户上传,如若侵权请联系客服进行举报
2.虚拟产品一经售出概不退款(资源遇到问题,请及时私信上传者)
2.虚拟产品一经售出概不退款(资源遇到问题,请及时私信上传者)
版权申诉
0 下载量 35 浏览量
2021-10-18
15:24:05
上传
评论
收藏 829KB PDF 举报
温馨提示
试读
19页
。。。
资源推荐
资源详情
资源评论
绪论
第一章绪论
1.1 研究背景
1.1.1 人工神经网络的发展
纵观人工神经网络的发展历史,有经历过高潮期,也有衰落的时候。
上世纪四十年代,Mcculloch 和 Pitts 以他们对生物神经元的了解,提出了
MP 神经元模型。示意图如下:
.
.
.
.
图 1-1 MP 神经元模型
表 1-1 生物神经元与 MP 模型对比
生物神
经元
MP 模
型
神经元 输入信
号
权值 输出 总和 膜电位 阈值
这是第一个用数学方法描述的生物神经元的结构,从此有了人工神经网络这
一概念,也开始了它的漫漫发展历程。
随后,Hebb 注意到了生物的条件反射与人工神经网络的联系,并提出了 Hebb
学习规则。该学习规则包含有一个算法:
该算法表示权值的误差是和网络输入和网络输出是成正比关系的。在此之
后,人们对这种算法进行优化创新,新的算法和规则纷纷涌现。
到了上世纪五十年代,感知机( Perceptron)模型问世,它融合了一些现代
1
绪论
计算机科学的原则,还有权重更新,增加偏置等一系列创新算法,使得它成为第
一个完整的人工神经网络。
1969 年,《Perceptron》一书出版,该书认为:单层的感知机不能完成异或计
算,并且当时的以当时的科技发展水平无法完成人工神经网络所需要的大规模的
运算要求。这些观点都让当时的人工神经网络研究陷入僵局,人工神经网络研究
进入了第一段的发展衰落期。
到了七十年代,哈佛博士生 Paul Werbos 提出了著名的反向传播算法
(back—propagating),反响不大。但后来这一算法又被自然杂志的一篇文章所提起,
其激励传播、权重更新等一系列创新性的理论使得人工神经网络有重焕生机。
八十年代,Hopfield 神经网络模型出现,该模型对反向传播算法进行了更具
体的实现。从 BP 算法中得到启发,对此神经网络采用负反馈流程来提高其网络
稳定性;对权重更新设计了诸如外积法、伪逆法、正交设计法等一系列方法。为
带反馈的人工神经网络模型算法提供了重要的公式和理论基础。
随后,connectionism 网络模型与并行计算的出现,使得人工神经网络的负反
馈算法日趋成熟,但是由于负反馈网络模型所采用 BP 算法对隐含层数目过多问
题有着局部最优和过拟合的缺点,人工神经网络的发展也是受到了根本性的限
制。自此关于人工神经网络的研究出现了第二次发展低潮。
1.1.2 Deep Learning 对于人工神经网络的推动
然而,在人工神经网络的第二次发展低潮期间,很多研究人员并没有放弃人
工神经网络的研究。终于,在 2006 年的自然科学杂志上,深度学习(Deep Learning)
被提出,这篇文章关于人工神经网络的这一最新研究成果。这篇文章表明多隐含
层的人工神经网络对于特征抽取具有更好的效率,并且识别效果更好;然后对每
一层都初始化的话,就能减少训练的难易度。
传统意义上的多层神经网络是只有输入层、隐藏层、输出层。其中隐藏层的
层数根据需要而定,没有明确的理论推导来说明到底多少层合适。而深度学习中
最著名的卷积神经网络 CNN,在原来多层神经网络的基础上,加入了特征学习
部分,这部分是模仿人脑对信号处理上的分级的。具体操作就是在原来的全连接
的层前面加入了部分连接的卷积层与降维层,而且加入的是一个层级。输入层 -
卷积层 -降采样层 -卷积层 - 降采样层 -- .... -- 隐藏层 -输出层简单来说,原来
多层神经网络做的步骤是:特征映射到值。特征是人工挑选。深度学习做的步骤
是信号->特征->值。特征是由网络自己选择。
因此,深度学习,就是构建一个具有多隐含层的人工神经网络模型,通过加
2
绪论
入如卷积层和降采样层,逐层初始化从而得到有关数据集的更本质的特征 ,来提
高分类的准确性。深度学习和传统的浅层学习的主要区别在模型的深浅,这直接
关系到对于图像特征的深层处理过程,与图像检测的准确性直接挂钩。
目前,常见的深度学习算法包括:受限波尔兹曼机( Restricted Boltzmann
Machine, RBN),信念神经网络(DBN),卷积网络(Convolutional Network),
堆栈式自动编码器(Stacked Auto-encoders)。
1.1.3 卷积神经网络的研究现状
2006 年,卷积神经网络(CNN)出现。它继承了深度学习的基本思想,采
用多个隐含层的神经网络模型,并运用了许多的分类数据集进行训练和测试,在
当时得到了世界最好的成绩,但由计算机于硬件水平有限,计算运行速度遇到瓶
颈,使得 CNN 应对大型图像数据处理上乏力。
后来,随着 2012 年的 10 月 ImageNet 问题的解决,CNN 进入到了全面发展
的时代,出现了一大批学者的研究成果,如人脸识别方法研究
错误!未找到引用源。
、
遥感图像分类方法研究
错误!未找到引用源。
等。目前,基于 CNN 的手写字符识别已
经正式商用,随着时间的推移,将会有更多的模型和算法被开发,卷积神经网络
必将会在图像检测领域大放异彩。
CNN 主要有三个典型特征,分别是:局部感受野、权值共享和降采样。这三
个特征都
对于图形特征来说,在所有位置,它的规律都是一样的。所以可以采用局部
的特征,然后集合起来形成全局的特征,这就是局部感受野的概念。以前所采用
的全连接方式来获取图像的全部特征来说,连接数实在过大,运算量非常巨大,
科技水平无法达到这种高度,现在有了局部感受域,同一幅图像,只要选取几个
区域就行了,然后合并起来的到全局特征,这样就大大减少了连接数目,运算量
大幅降低,计算负荷也下降,神经网络也越灵活。
上文中,在这些局部特征中,他们与上一层之间的每一个连接是需要附加权
值来进行输入的,这些连接中,每个链接的权值如果是任意的,这也将会带来给
计算量。假如有 1000 个局部特征连接点,则将会有 1000 个权值,到下一层的计
算量将会是 1000x1000=1000000 个,如果采用卷机神经网络的权值共享理论,即
所有的连接点都采用同一个权值,计算量将会是 1000x1=1000 个,计算量减少了
整整 1000 倍!所以,权值共享极大的减少了神经网络计算量,降低了复杂度,
使得训练和测试过程变得简单起来。
在图像特征提取后的神经网络深层处理中,通过降采样,可以降低上一层的
3
剩余18页未读,继续阅读
资源评论
苦茶子12138
- 粉丝: 1w+
- 资源: 6万+
上传资源 快速赚钱
- 我的内容管理 展开
- 我的资源 快来上传第一个资源
- 我的收益 登录查看自己的收益
- 我的积分 登录查看自己的积分
- 我的C币 登录后查看C币余额
- 我的收藏
- 我的下载
- 下载帮助
安全验证
文档复制为VIP权益,开通VIP直接复制
信息提交成功