统计学习方法:CART算法

时间:2021-10-14 14:52:44

作者:桂。

时间:2017-05-13  14:19:14

链接:http://www.cnblogs.com/xingshansi/p/6847334.html

统计学习方法:CART算法


前言

内容主要是CART算法的学习笔记。

CART算法是一个二叉树问题,即总是有两种选择,而不像之前的ID3以及C4.5B可能有多种选择。CART算法主要有回归树和分类树,二者常用的准则略有差别:回归树是拟合问题,更关心拟合效果的好坏,此处用的是均方误差准则; 分类树是分类问题,更像是离散变量的概率估计,用与熵类似的Gini系数进行度量。

一、CART算法——回归树

因为是回归问题,只要抓住两个要点就好:

1)如何切分;

2)切分后的不同区域,如何取值;

先来分析一下一次划分的操作:

  A-回归树切分

选择第j个变量统计学习方法:CART算法和它的取值s,作为切分变量和切分点,并定义两个区域:

统计学习方法:CART算法

通过寻找最小均方误差点,实现切分:

统计学习方法:CART算法

  B-回归树的输出值

对固定输入变量j找到最优切分点s,并定义各自区域均值为输出变量:

统计学习方法:CART算法

  C-回归树举例

看一下习题中的例子:

统计学习方法:CART算法

数据的切分点分别为:1.5,2.5,3.5,4.5,5.5,6.5,7.5,8.5,9.5

从公式

统计学习方法:CART算法

可以看出输出值c就是对应类别内y的均值。

当切分点选择s = 2.5时,区域R1有:

统计学习方法:CART算法

c1 = (4.5+4.75)/2=4.625

区域R2有:

统计学习方法:CART算法同样c2 = 7.17

从而计算出s = 2.5对应的估计误差:

统计学习方法:CART算法

不同的s切分点,对应的估计误差不同,最后选择最小误差对应的切分点,这就完成了一次切分:

统计学习方法:CART算法

此时的c1,c2分别对应两类输出值。

假设s=6.5处实现了第一次划分,第二次就是分别在子区域进一步划分,如将:

统计学习方法:CART算法

进行二次切分,步骤思路与上面完全一致。

总结一下CART回归树的算法思路:

统计学习方法:CART算法

二、CART算法——分类树

  A-基尼系数

CART分类树不再是基于信息增益,而是引入了Gini系数,给出基尼系数定义:

统计学习方法:CART算法

二分问题中Gini系数与熵之半的对比:

统计学习方法:CART算法

可以看出基尼系数与熵的特性类似,也是不确定性(信息量)的一种量度。

一方面,如果对于样本集合D,基尼系数:

统计学习方法:CART算法

其中统计学习方法:CART算法是D中属于第k类的样本子集,K是类的个数。

如果D被特征A划分为D1、D2两部分,这个时候就是统计均值,D的基尼系数:

统计学习方法:CART算法

  B-CART决策树生成

CART决策树的生成,抓住两个基本要点:

1)基尼系数计算,确定二叉树;

2)确定决策树层次结构

举例说明:

统计学习方法:CART算法

分别以统计学习方法:CART算法表示年龄、有工作、有自己的房子、信贷情况。

对于A1是分为中年、老年、青年,计算基尼系数

统计学习方法:CART算法

A1、A3都可以,选择A1,,即青年是一类,非青年(中年、老年)是一类,

有工作、有自己的房子,都是二分,可以不用切分。信贷情况A4:

统计学习方法:CART算法

统计学习方法:CART算法最小,故选为最优切分点。

至此,完成了基尼系数计算以及二叉树划分。下面确定决策树层次结构:

统计学习方法:CART算法

统计学习方法:CART算法

统计学习方法:CART算法

由小到大,A3为最优切分点,依次在A1,A2,A4选择,故选择A2为次优切分点......依次类推。

统计学习方法:CART算法

给出决策树生成算法:

统计学习方法:CART算法

主要分两步走:

1)计算各种情况的基尼系数,划分每个节点的二叉树;

2)根据基尼系数的大小,确定二叉树不同节点的层次结构,形成决策树。

 

三、CART树剪枝

回归树(拟合问题)与决策树都存在过拟合问题,防止过拟合(过渡细化)都需要剪枝的操作。

先来看看剪枝用到的准则函数:

统计学习方法:CART算法

关于C(T)之前文章有分析,它是叶节点特性的度量,C4.3里它是熵的均值,CART决策树里它是基尼系数的概率均值,原理类似。多一个正则项,就是稀疏性约束。

ID3、C4.5算法中的剪枝原理是给定α,事实上很难一次给出理想的α。CART剪枝不再给定一个α,然后选择最优决策树,而是通过设定不同的α,通过交叉验证选择最优CART树,也就是:

训练集:得到不同的子树;

测试集:交叉验证选择最优树.

从有限个子树统计学习方法:CART算法中计算最优子树,最优子树由验证集得出的测试误差决定,哪个最小就是哪个。

这里就引出了一个问题,每次剪哪一个节点呢?先看分析剪枝的两个极端情况:

1)完全没剪:

统计学习方法:CART算法

2)只剩根节点:

统计学习方法:CART算法

在α较小或者为0时,有:

统计学习方法:CART算法

在α取+∞大时,有:

统计学习方法:CART算法

α是连续变量,因此总有临界点:

统计学习方法:CART算法

为了不混淆变量,重新定义:

统计学习方法:CART算法

α大于g(t)就是该剪。简而言之:

对于同一棵树的结点,α都是一样的,当α从0开始缓慢增大(或者从+∞慢慢减小),总会有某棵子树该剪,其他子树不该剪的情况,即α超过了某个结点的g(t),但还没有超过其他结点的g(t)。这样随着alpha不断增大,不断地剪枝,就得到了n+1棵子树,接下来只要用独立数据集测试这n+1棵子树,试试哪棵子树的误差最小 就知道那棵是最好的方案了。

给出CART剪枝算法:

统计学习方法:CART算法

原书的算法勘误:

(4)修改为:

统计学习方法:CART算法

(6)修改为:

统计学习方法:CART算法

参考:

  • 李航《统计学习方法》