种线性模型,可以看作全连接神经网络的前身。
1967 年,最近邻算法被 Thomas 提出。最近邻算法适用于分类问题,而且易于实现。
最近邻算法可以说是目前最简单也最常用的分类算法之一,通过判断某一点所处样本空间
中最近的 k 个点的所属类别,从而实现这一点的分类。该方法在类别的决策上,依据最近
邻的一些样本的类别。
(2)停滞阶段
大约在上世纪六十年代中到七十年代末,,包括机器学习在内的人工智能的发展陷入
了停滞阶段。究其原因是研究人员对人工智能的发展寄希望于大量的数据支持和大型数据
库上。他们定的目标在当时科技水平不足的情况下显得有一些脱离实际,当时的科技发展
水平无法支持他们建立大型的数据库或者说处理过多的数据。
但这个时期研究人员也并非毫无成果的,其中 Ward 在 1963 年的时候提出了一种名为
层次聚类的聚类算法,其实还有不少算法也是这个时期产生的,有一部分现在也在被广泛
使用。同时,人们也开始尝试使用符号来代替数值研究学习问题并且得到了广泛的应用。
(3)恢复阶段
上世纪七十年代末,人们意识到单一的学习方式终归是有局限的,他们开始尝试拓展
机器学习,寻求多种学习方式,机器学习再次迎来了发展前景。
1977 年,用于聚类的最大期望值算法诞生。它不仅能解决聚类问题,还可以解决一些
特定的估计问题。
1981 年,反向传播算法还在萌芽阶段。在神经网络反向传播算法中,多层感知器的概
念被提出了。接着科学家们在他的算法的基础上,开始尝试把反向传播算法和多层感知器
结合在一起,然后不断提出新的神经网络模型和新的算法。
反向传播算法的正式诞生是在 1986 年。它是一种基于感知机模型,建立在梯度下降基
础上的学习算法,实际上不少算法都受到感知机的启发。反向传播算法适用于多层神经网
络,现在大部分的神经网络都是多层的,一般认为层数越多,模型输出结果也会变更准确。
在这个阶段,机器学习系统开始发展,通过知识库来实现强化学习。
(4)成型以及发展阶段
二十世纪九十年代初开始,机器学习已经发展地相当成熟了。从模型层数的角度来说,
机器学习主要分为浅层学习和深度学习两种类型。随着机器学习领域的泰斗 Hinton 提出了
神经网络深度学习算法,神经网络深度学习算法作用在神经网络上效果更加出类拔萃,所
以现在深度学习的应用比浅层学习更广泛。
1995 年,支持向量机被用作手写字符识别。其实支持向量机在 1964 年就已经被提出
了。在多名学者的推动下支持向量机快速发展,展现了它无与伦比的泛化性,当时的神经
网络再也无法和它竞争。
2000 年,长短期记忆网络首次被提出,它是一种特殊的循环神经网络,在长序列输入
中它的表现的比一般循环神经网络更好。它能记住被需要长时间记忆的信息,忘记不重要
的信息。由于它并不只是像循环神经网络那样单独叠加信息,一定情况下可以提升效率。
二十一世纪初,神经网络之父 Geoffrey Hinton 将反向传播算法应用到深度学习的领域,
成功打开了神经网络现如今被广泛研究的局面。Hinton 以及其他研究人员,还在尝试不断
推进神经网络的发展。其中比较著名的二人就是和 Hinton 并称深度学习三巨头的 Yoshua
Bengio 和 Yann LeCun。在 2018 年,他们三人共同获得了图灵奖,图灵奖被广泛认为计算
机领域的诺贝尔奖。
目前,机器学习领域最热门的两个方向是神经网络和支持向量机。神经网络和支持向
量机都竭力证明自身的优越性。支持向量机的计算复杂性较低,应用起来比较方便,所以
在实际应用领域它还是占有一定优势。作为后起之秀的神经网络,似乎可以承担比支持向
评论0
最新资源