ADABOOST做人脸识别原理+程序详解
**注意:**adaboost算法的目的是做一个目标检测,举个例子在人脸识别中,adaboost只能检测出一张图片中的人脸,并不能区分这些人脸分别是谁。
*1. 算法的整体流程*
人脸检测(face detection)是指对于任意一幅给定的图像,采用一定的策略对其进行搜索以确定其中是否有人脸,如果有人脸则返回人脸的位置、大小和姿态。
这是matlab中训练一个级联分类的过程,整个流程和adaboost的流程很像。
算法的整体流程如下图所示:
*2. 算法详解*
基于adaboost的人脸检测算法来说,训练分类器的部分,主要分成以下四步:
1. step1 样本初始化
给定一系列的训练样本(x1,y1), (x2,y2), ···,(xn,yn) 其中, yi=1表示样本为人脸,yi=0表示样本为非人脸。设人脸正样本的数量为n1,非人脸负样本的数量为n2。
2. step2 权重初始化
**目的:**adaboost采用多个弱分类组成的强分类器,这里的权重初始化,是对所有的样本进行的初始化,当第i个弱分类器对第j个样本分类错误时,则增大第j个样本在后续分类器中的权重。通俗的讲,就像我们在学习的时候要准备一个错题本,注意前面的错题一样。
对所有样本的权重初始化为:
3. step3 最佳弱分类器选择
设共需从原有的N个弱分类器中选择T个弱分类器,用t来进行当前弱分类器的计数,则t=1,2,···,T;用以下步骤训练第t轮的最佳弱分类器:
>
- 权重归一化:
弱分类器训练:
对于每个特征E(就是应用各种不同尺度的Harr特征),训练一个对应的弱分类器h(x,E,p,theta),该分类器对所有样本进行分类时对应于各样本的加权错误率为:最佳弱分类器选取:
上一步计算的是一个特征对所有样本的分类错误率,这里就计算所有的特征(选用20x20的人脸图像是,共有78460个特征)
伪代码:for t = 1:T
for j = 1:num_of_feature
计算每个feature对n个样本的加权错误率,选取加权错误率最小的feature作为t个弱分类器;
最小错误率为:权重更新:
目的:为了提高前面错误分类样本的权重
计算更新因子:
权重更新:
其中:
当样本xi被正确分类时, = 0;
当样本xi被错误分类时, = 1。
4. step4 合成强分类器
经过T轮训练之后,获得了T个最佳弱分类器,其中,每个弱分类器有对应的特征、阈值和方向指示符,最后,通过对T个弱分类器进行线性加权合成强分类器:
其中:
而其中的theta为通过率阈值,一般取为0.5*at。
参考: