第八章
Adaboost
提纲
• AdaBoost的起源和基本概念
• AdaBoost算法
• 前向分步训练算法
• AdaBoost 编程
• AdaBoost实时人脸检测算法
• 1984,Kearns和Valiant:
• 强可学习(strongly learnable)和弱可学习(weakly
learnable)
• 在概率近似正确(probably approximately correct, PAC)学
习的框架中,一个概念(类),如果存在一个多项式的学习
算法能够学习它,并且正确率很高,称这个概念是强可学习
的;
• 一个概念(类),如果存在一个多项式的学习算法能够学习
它,学习的正确率仅比随机猜测略好,则称这个概念是弱可
学习的。
• 1989, Schapire,证明:
• 在PAC学习的框架下,一个概念是强可学习的充分必要条件
是这个概念是弱可学习。
Adaboost的起源
• 问题的提出:
• 只要找到一个比随机猜测略好的弱学习算法就可以
直接将其提升为强学习算法,而不必直接去找很难
获得的强学习算法。
Adaboost的起源
例如:学习算法A在a情况下失效,学习算法B在b情况下
失效,那么在a情况下可以用B算法,在b情况下可以用A
算法解决。这说明通过某种合适的方式把各种算法组合
起来,可以提高准确率。
为实现弱学习互补,面临两个问题:
(1)怎样获得不同的弱分类器?
(2)怎样组合弱分类器?
怎样实现弱学习转为强学习