虽然存在变异,但是劳埃德算法仍旧保持流行,因为它在实际中收敛非常快。实际上,
观察发现迭代次数远远少于点的数量。然而最近,BA2 C#4<#2和 #;2 ::B4:82提出存
在特定的点集使得 82平均算法花费超多项式时间达到收敛。
近似的 82平均算法已经被设计用于原始数据子集的计算。
从算法的表现上来说,它并不保证一定得到全局最优解,最终解的质量很大程度上取决
于初始化的分组。由于该算法的速度很快,因此常用的一种方法是多次运行 82平均算法,选
择最优解。
82平均算法的一个缺点是,分组的数目 82是一个输入参数,不合适的 82可能返回较差的
结果。另外,算法还假设均方误差是计算群组分散度的最佳参数。
3、SVM
支持向量机,英文为 330#42D40#2,D<,简称 2机(论文中一般简称 :B9)。它是一种
監督式學習的方法,它广泛的应用于统计分类以及回归分析中。
支持 向 量机 属 于一 般 化 线 性分 类 器 他们 也可 以 认为 是提 克洛 夫规 范化 ( 8<00B
E;#F60)方法的一个特例这族分类器的特点是他们能够同时最小化经验误差与最大化
几何边缘区因此支持向量机也被称为最大边缘区分类器。在统计计算中,最大期望(,)
算法是在概率(3#0GG:6D)模型中寻找参数最大似然估计的算法,其中概率模型依赖于无
法观测的隐藏变量(442 #G)。最大期望经常用在机器学习和计算机视觉的数据集聚
(42:4#;)领域。最大期望算法经过两个步骤交替进行计算,第一步是计算期望(),
也就是将隐藏变量象能够观测到的一样包含在内从而计算最大似然的期望值;另外一步是最
大化(,),也就是最大化在 2 步上找到的最大似然的期望值从而计算参数的最大似然估计。
,2 步上找到的参数然后用于另外一个 2 步计算,这个过程不断交替进行。
382等人在多年研究统计学习理论基础上对线性分类器提出了另一种设计最佳准则。其原
理也从线性可分说起,然后扩展到线性不可分的情况。甚至扩展到使用非线性函数中去,这
种分类器被称为支持向量机330#42D40#2,D<简称 ,。支持向量机的提出有很深的
理论背景。支持向量机方法是在近年来提出的一种新方法。
,2 的主要思想可以概括为两点: 2 它是针对线性可分情况进行分析,对于线性不
可分的情况,通过使用非线性映射算法将低维输入空间线性不可分的样本转化为高维特征空
间使其线性可分,从而使得高维特征空间采用线性算法对样本的非线性特征进行线性分析成
为可能;2 它基于结构风险最小化理论之上在特征空间中建构最优分割超平面,使得学习
器得到全局最优化并且在整个样本空间的期望风险以某个概率满足一定上界。
评论0
最新资源