基于基于Adaboost和和CART结合的优化分类算法结合的优化分类算法
提出了一种基于Adaboost算法和CART算法结合的分类算法。以特征为节点生成CART二叉树,用CART二叉树
代替传统Adaboost算法中的弱分类器,再由这些弱分类器生成强分类器。将强分类器对数字样本和人脸样本分
类,与传统Adaboost算法相比,该方法的错误率分别减少20%和86.5%。将分类器应用于目标检测上,实现了
对这两种目标的快速检测和定位。结果表明,改进算法既减小了对样本分类的错误率,又保持了传统Adboost算
法对目标检测的快速性。
摘摘 要:要: 提出了一种基于
关键词:关键词: Adaboost;CART;
数据挖掘是从大量的数据中提取出隐含有用信息的过程[1]。分类是数据挖掘的一种重要形式,在分类算法中,Adaboost算
法和CART(Classification and Regression Tree)算法在对数据的分类中都有着重要的作用。Adaboost算法是一种迭代算法,
其核心思想是针对同一个分类集训练不同的弱分类器,然后把这些弱分类器结合起来形成一个强分类器进而实现对数据分类,
其分类速度快、精度高。2001年,由VIOLA P和JONES M将该算法应用于人脸定位[2],算法开始得到快速的发展。此
后,LIENHART R和MAYDT J又用此算法成功实现了对不同方位人脸的检测[3]。决策树算法最早是由HUNT等人于1966年提
出的CLS(Concept Learning System)。当前,最有影响的决策树算法是QUINLAN于1986年提出的ID3和1993年提出的C4.5。
CART算法是基于以上两种方法的改进算法,它采用一种二分递归分割的技术,将当前的样本集分为两个子样本集,使得生成
的决策树的每个非叶子节点都有两个分支。因此,CART算法生成的决策树是结构简洁的二叉树[4],比ID3和C4.5算法具有更
好的抗噪声性能。
本算法是基于以上两种算法的改进算法,在算法的训练过程中,用CART算法生成的二叉树代替传统Adaboost算法中的弱
分类器,然后级联成最终的强分类器,最后通过以实验验证了该算法的可靠性。实验分别以数字图像和人脸图像为样本,训练
生成分类器,再分别对若干张测试样本分类并计算出分类误差及误差减小率。在目标检测的实验上,比较了改进算法和传统
Adaboost算法的优越性,两种算法都能完全检测到目标,且耗时相当。
1 Adaboost和和CART算法算法
1.1 Adaboost算法算法
Adaboost算法的训练过程就是找出若干个弱分类器[5]。设n个弱分类器(h1,h2,…,hn)是由相同的学习算法形成的,每个
弱分类器能单独对未知样本分类成正样本或负样本(二分类情况),通过加权统计弱分类器的分类结果得出最终的分类结果。选
择弱分类器的过程中,只要求分类器对样本的分类能力大于自然选择就可以了,即分类错误率小于0.5。凡是分类错误率低于
0.5的分类器都可以作为弱分类器,但在实际的训练过程中,还是选择错误率最低的分类器作为该轮选择的弱分类器,表示如
下:
特征为矩形图像中白色区域内的像素总和减去黑色区域的像素总和,它反映了白色区域到黑色区域的梯度变化情况。
评论0
最新资源