没有合适的资源?快使用搜索试试~ 我知道了~
资源推荐
资源详情
资源评论














苏州大学强化学习讨论班——JHD 编辑整理 2 / 73
[1] Deep learning 简介
一、什么是 Deep Learning?
实际生活中,人们为了解决一个问题,如对象的分类(对象可是是文档、图像等),
首先必须做的事情是如何来表达一个对象,即必须抽取一些特征来表示一个对象,如
文本的处理中,常常用词集合来表示一个文档,或把文档表示在向量空间中(称为 VSM
模型),然后才能提出不同的分类算法来进行分类;又如在图像处理中,我们可以用
像素集合来表示一个图像,后来人们提出了新的特征表示,如 SIFT,这种特征在很多
图像处理的应用中表现非常良好,特征选取得好坏对最终结果的影响非常巨大。因此,
选取什么特征对于解决一个实际问题非常的重要。
然而,手工地选取特征是一件非常费力、启发式的方法,能不能选取好很大程度
上靠经验和运气;既然手工选取特征不太好,那么能不能自动地学习一些特征呢?答
案是能!Deep Learning 就是用来干这个事情的,看它的一个别名 Unsupervised Feature
Learning,就可以顾名思义了,Unsupervised 的意思就是不要人参与特征的选取过程。
因此,自动地学习特征的方法,统称为 Deep Learning。
二、Deep Learning 的基本思想
假设我们有一个系统 S,它有 n 层(S1,…Sn),它的输入是 I,输出是 O,形象
地表示为: I =>S1=>S2=>…..=>Sn => O,如果输出 O 等于输入 I,即输入 I 经
过这个系统变化之后没有任何的信息损失(呵呵,大牛说,这是不可能的。信息论中
有个“信息逐层丢失”的说法(信息处理不等式),设处理 a 信息得到 b,再对 b 处

苏州大学强化学习讨论班——JHD 编辑整理 3 / 73
理得到 c,那么可以证明:a 和 c 的互信息不会超过 a 和 b 的互信息。这表明信息处
理不会增加信息,大部分处理会丢失信息。当然了,如果丢掉的是没用的信息那多好
啊),保持了不变,这意味着输入 I 经过每一层 Si 都没有任何的信息损失,即在任何
一层 Si,它都是原有信息(即输入 I)的另外一种表示。现在回到我们的主题 Deep
Learning,我们需要自动地学习特征,假设我们有一堆输入 I(如一堆图像或者文本),
假设我们设计了一个系统 S(有 n 层),我们通过调整系统中参数,使得它的输出仍
然是输入 I,那么我们就可以自动地获取得到输入 I 的一系列层次特征,即 S1,… , Sn。
对于深度学习来说,其思想就是堆叠多个层,也就是说这一层的输出作为下一层
的输入。通过这种方式,就可以实现对输入信息进行分级表达了。
另外,前面是假设输出严格地等于输入,这个限制太严格,我们可以略微地放松
这个限制,例如我们只要使得输入与输出的差别尽可能地小即可,这个放松会导致另
外一类不同的方法。上述就是 Deep Learning 的基本思想。
三、浅层学习(Shallow Learning)和深度学习(Deep
Learning)
浅层学习是机器学习的第一次浪潮。
20 世纪 80 年代末期,用于人工神经网络的反向传播算法(也叫 Back
Propagation 算法或者 BP 算法)的发明,给机器学习带来了希望,掀起了基于统计
模型的机器学习热潮。这个热潮一直持续到今天。人们发现,利用 BP 算法可以让一
个人工神经网络模型从大量训练样本中学习统计规律,从而对未知事件做预测。这种
基于统计的机器学习方法比起过去基于人工规则的系统,在很多方面显出优越性。这
个时候的人工神经网络,虽也被称作多层感知机(Multi-layer Perceptron),但实
际是种只含有一层隐层节点的浅层模型。

苏州大学强化学习讨论班——JHD 编辑整理 4 / 73
20 世纪 90 年代,各种各样的浅层机器学习模型相继被提出,例如支撑向量机
(SVM,Support Vector Machines)、 Boosting、最大熵方法(如 LR,Logistic
Regression)等。这些模型的结构基本上可以看成带有一层隐层节点(如 SVM、
Boosting),或没有隐层节点(如 LR)。这些模型无论是在理论分析还是应用都获
得了巨大的成功。相对目前的深度学习,由于理论分析难度大,训练方法又需要很多
经验和技巧,浅层人工神经网络后来相对沉寂。
深度学习是机器学习的第二次浪潮。
2006 年,加拿大多伦多大学教授、机器学习领域的泰斗 Geoffrey Hinton 和他
的学生 RuslanSalakhutdinov 在《科学》上发表了一篇文章,开启了深度学习在学
术界和工业界的浪潮。这篇文章有两个主要观点:
1)多隐层的人工神经网络具有优异的特征学习能力,学习得到的特征对数据有
更本质的刻画,从而有利于可视化或分类;
2)深度神经网络在训练上的难度,可以通过“逐层初始化”(layer-wise
pre-training)来有效克服。这篇文章中,逐层初始化是通过无监督学习实现的。
当前多数分类、回归等学习方法为浅层结构算法,其局限性在于有限样本和计
算单元情况下对复杂函数的表示能力有限,针对复杂分类问题其泛化能力受到一定制
约。深度学习可通过学习一种深层非线性网络结构,实现复杂函数逼近,表征输入数
据的分布式表示,并展现了强大的从少数样本集中学习数据集本质特征的能力。
多层的好处是可以用较少的参数表示复杂的函数

苏州大学强化学习讨论班——JHD 编辑整理 5 / 73
深度学习的实质,是通过构建具有很多隐层的机器学习模型和海量的训练数据,
来学习更有用的特征,从而提升分类或预测的准确性。因此,“深度模型”是手段,
“特征学习”是目的。区别于传统的浅层学习,深度学习的不同在于:
1)强调了模型结构的深度,通常有 5 层、6 层,甚至 10 多层的隐层节点;
2)明确了特征学习的重要性。也就是说,通过逐层特征变换,将样本在原空间
的特征表示变换到一个新特征空间,从而使分类或预测更容易。与人工规则构造特征
的方法相比,利用大数据来学习特征,更能够刻画数据丰富的内在信息。
四、Deep learning 与 Neural Network
深度学习是机器学习研究中的一个新的领域,其动机在于建立模拟人脑进行分析
和学习的神经网络,它模仿人脑的机制来解释数据,例如图像,声音和文本。深度学
习是无监督学习的一种。
深度学习的概念源于人工神经网络的研究。含多隐层的多层感知器就是一种深
度学习结构。深度学习通过组合低层特征形成更加抽象的高层,来表示属性类别或特
征,以发现数据的分布式特征表示。
剩余72页未读,继续阅读
资源评论

承让@
- 粉丝: 2
- 资源: 377

上传资源 快速赚钱
我的内容管理 收起
我的资源 快来上传第一个资源
我的收益
登录查看自己的收益我的积分 登录查看自己的积分
我的C币 登录后查看C币余额
我的收藏
我的下载
下载帮助

会员权益专享
安全验证
文档复制为VIP权益,开通VIP直接复制
