有了haar特征,有了提升性能的积分图,是不是已经可以很好的解决人脸检测问题了?答案是:no. 因为,计算每一个特征值的时候速度都大幅提升了,但是,一个小小的24*24是人脸图像根据不同的位置,
以及不同的缩放,可以产生超过160,000个特征!这个数量太庞大了,所以肯定要舍弃大量的特征。那么,如何保证使用少量的特征,而又能得到精确的结果呢?
大神永远有解决方法,viola等人使用adaboost来进行分类。声明一下,adaboost并不是viola等人提出的,而是Freund和Schapire提出。但是viola的伟大正是因为他将这个模型首次用到了人脸识别中,这使得
人脸识别在嵌入式系统应用成为一个可能的事情。
什么是adaboost呢?
AdaBoost,是英文"Adaptive Boosting"(自适应增强)的缩写,是一种机器学习方法,由Yoav Freund和Robert Schapire提出。[1]AdaBoost方法的自适应在于:前一个分类器分错的样本会被用来训练下一个分类器。
AdaBoost方法对于噪声数据和异常数据很敏感。但在一些问题中,AdaBoost方法相对于大多数其它学习算法而言,不会很容易出现过拟合现象。AdaBoost方法中使用的分类器可能很弱(比如出现很大错误率),但只
要它的分类效果比随机好一点(比如两类问题分类错误率略小于0.5),就能够改善最终得到的模型。而错误率高于随机分类器的弱分类器也是有用的,因为在最终得到的多个分类器的线性组合中,可以给它们赋予负
系数,同样也能提升分类效果。
AdaBoost方法是一种迭代算法,在每一轮中加入一个新的弱分类器,直到达到某个预定的足够小的错误率。每一个训练样本都被赋予一个权重,表明它被某个分类器选入训练集的概率。如果某个样本点已经被准确
地分类,那么在构造下一个训练集中,它被选中的概率就被降低;相反,如果某个样本点没有被准确地分类,那么它的权重就得到提高。通过这样的方式,AdaBoost方法能“聚焦于”那些较难分(更富信息)的样本上。
在具体实现上,最初令每个样本的权重都相等,对于第k次迭代操作,我们就根据这些权重来选取样本点,进而训练分类器Ck。然后就根据这个分类器,来提高被它分错的的样本的权重,并降低被正确分类的样本权重。
然后,权重更新过的样本集被用于训练下一个分类器Ck[2]。整个训练过程如此迭代地进行下去。
人脸检测使用adaboost的流程是什么呢?
首先是要把级联的概念搞清楚。所有伟大的东西,其思想都是很简单的。
级联结构:
将多个强分类器连接在一起进行操作。每一个强分类器都由若干个弱分类器加权组成。例如,一个级联用的强分类器包含20个左右的弱分类器,然后在将10个强分类器级联起来,就构成了一个级联强分类器,
这个级联强分类器中总共包括200个(20*10)分类器。因为每一个强分类器对负样本的判别准确度非常高,所以一旦发现检测到的目标位负样本,就不在继续调用下面的强分类器,减少了很多的检测时间。因为一幅
图像中待检测的区域很多都是负样本,这样由级联分类器在分类器的初期就抛弃了很多负样本的复杂检测,所以级联分类器的速度是非常快的;只有正样本才会送到下一个强分类器进行再次检验,这样就保证了最后
输出的正样本的伪正(false positive)的可能性非常低。
最优弱分类器:
寻找合适的阈值,使该分类器对所有样本的判断误差最小。对于每个特征f,计算所有训练样本的特征值并排序:
遍历排序后的特征值,对于序列中的每个元素,计算以下值:
1.全部人脸样本的权重和t1
2.全部非人脸样本的权重和t0
3.在此元素之前的人脸样本的权重和s1
4.在此元素之前的非人脸样本的权重和s0
5.此元素的分类误差:r=min{[s1+(t0-s0)],[s0+(t1-s1)]}
找出r值最小的元素作为最优阈值,最优分类器就产生了。
强分类器:
For T轮迭代:
1.重新统一权重
2.训练出本轮的最优弱分类器(详见上一P)
3.根据本轮迭代中的分类结果重新分配样本权重(增加错误分配样本的权重)
这样,T轮之后将产生T个最优弱分类器
组合T个最优弱分类器得到强分类器:
相当于让所有弱分类器投票,再对投票结果按照弱分类器的错误率加权求和,将投票加权求和的结果与平均投票结果比较得出最终的结果。
级联分类器的训练过程:
参考文档:
1 https://wizardforcel.gitbooks.io/dm-algo-top10/content/adaboost.html
2 https://zh.wikipedia.org/wiki/AdaBoost
3 https://blog.csdn.net/cyh_24/article/details/39755661