5.最大期望(EM)算法
在统计计算中,最大期望(EM,Expectation–Maximization)算法是在概率
(probabilistic)模型中寻找参数最大似然估计的算法,其中概率模型依赖于无法观测的
隐藏变量(LatentVariabl)。最大期望经常用在机器学习和计算机视觉的数据集聚
(DataClustering)领域。
6.PageRank
PageRank 是 Google 算法的重要内容。2001 年 9 月被授予美国专利,专利人是
Google 创始人之一拉里·佩奇(LarryPage)。因此,PageRank 里的 page 不是指网页,
而是指佩奇,即这个等级方法是以佩奇来命名的。
PageRank 根据网站的外部链接和内部链接的数量和质量俩衡量网站的价值。
PageRank 背后的概念是,每个到页面的链接都是对该页面的一次投票,被链接的越多,
就意味着被其他网站投票越多。这个就是所谓的“链接流行度”——衡量多少人愿意将
他们的网站和你的网站挂钩。PageRank 这个概念引自学术中一篇论文的被引述的频度
——即被别人引述的次数越多,一般判断这篇论文的权威性就越高。
7.AdaBoost
Adaboost 是一种迭代算法,其核心思想是针对同一个训练集训练不同的分类
器(弱分类器),然后把这些弱分类器集合起来,构成一个更强的最终分类器(强分类器)。
其算法本身是通过改变数据分布来实现的,它根据每次训练集之中每个样本的分类是否
正确,以及上次的总体分类的准确率,来确定每个样本的权值。将修改过权值的新数据
集送给下层分类器进行训练,最后将每次训练得到的分类器最后融合起来,作为最后的
决策分类器。
8.kNN:k-
nearestneighborclassi/cation
K 最近邻(k-NearestNeighbor,KNN)分类算法,是一个理论上比较成熟的方法,
也是最简单的机器学习算法之一。该方法的思路是:如果一个样本在特征空间中的 k
个最相似(即特征空间中最邻近)的样本中的大多数属于某一个类别,则该样本也属于这
个类别。
9.NaiveBayes
在众多的分类模型中,应用最为广泛的两种分类模型是决策树模型
(DecisionTreeModel)和朴素贝叶斯模型(NaiveBayesianModel,NBC)。朴素贝叶斯模型
发源于古典数学理论,有着坚实的数学基础,以及稳定的分类效率。同时,NBC 模型
所需估计的参数很少,对缺失数据不太敏感,算法也比较简单。理论上,NBC 模型与
其他分类方法相比具有最小的误差率。但是实际上并非总是如此,这是因为 NBC 模型
假设属性之间相互独立,这个假设在实际应用中往往是不成立的,这给 NBC 模型的正
确分类带来了一定影响。在属性个数比较多或者属性之间相关性较大时,NBC 模型的
分类效率比不上决策树模型。而在属性相关性较小时,NBC 模型的性能最为良好。
10.CART:分类与回归树
CART,Classi/cationandRegressionTrees。在分类树下面有两个关键的思想。第
一个是关于递归地划分自变量空间的想法;第二个想法是用验证数据进行剪枝。