支持向量机(SVM)

时间:2024-07-19 06:57:37

前提知识:拉格朗日乘子法和KKT条件-****博客

概述

支持向量机(Support Vector Machine:SVM)的目的是用训练数据集的间隔最大化找到一个最优分离超平面

这里面有两个概念间隔最大化和最优分离超平面。

最优分离超平面

  • 在一维的平面中,我们使用点来进行分隔
  • 在二维的平面中,用线
  • 在三维的平面中,用面
  • 在更高的维度中,我们称之为超平面

在众多分离超平面中选择一个最好的超平面,称之为最优分离超平面

选择原理:

  • 正确的对训练数据进行分类
  • 对未知数据也能很好的分类

详细解释:

最优分离超平面其实是和两侧样本点有关,而且只和这些点有关。观察如下图:

其中当间隔达到最大,两侧样本点的距离相等的超平面为最优分离超平面。对应上图,Margin对应的就是最优分离超平面的间隔,此时的间隔达到最大。

间隔最大化

如果我们能够确定两个平行超平面,那么两个超平面之间的最大距离就是最大化间隔,即Margin。

计算

如何计算两个超平面之间的距离,也就是如何计算最大化间隔。

怎么确定两个超平面?

我们知道一条直线的数学方程是:y-ax+b=0,而超平面会被定义成类似的形式:

推广到n维空间,则超平面方程中的w、x分别为:

如何确保两超平面之间没有数据点?我们的目的是通过两个平行超平面对数据进行分类,那我们可以这样定义两个超平面。

对于每一个向量xi:满足:

将两个不等式合并成一个不等式的形式,将不等式两边同时乘以 yi,-1类的超平面yi=-1,要改变不等式符号,合并后得:

如何确定间隔?

平面的垂直距离就是我们要的间隔。

结果: 

其中||w||表示w的二范数,求所有元素的平方和,然后在开方。比如,二维平面为

可以发现,w 的模越小,间隔m 越大。

求间隔最大化——最优化问题

因此,SVM最小化以下目标函数:

其中,C是决定两类之间的裕度内训练数据点数量的常数,即训练误差,ξ是防止过拟合的松弛变量

上面的最优超平面问题是一个凸优化问题,可以转换成了拉格朗日的对偶问题(如下图所示),判断是否满足KKT条件,然后求解w和b了(可以参考拉格朗日乘子法和KKT条件-****博客)。

 αi为拉格朗日乘子,函数K(x, xi) = φ(x),Tφ(x)是核函数。

补充:

硬间隔线性SVM

可以通过分类将样本点完全分类准确,不存在分类错误的情况,这种叫硬间隔,这类模型叫做硬间隔线性SVM。

软间隔线性SVM

可以通过分类将样本点不完全分类准确,存在少部分分类错误的情况,这叫软间隔,这类模型叫做软间隔线性SVM。

样本点本身不可分

将样本从原始空间映射到一个更高纬的空间中,使得样本在新的空间中线性可分,即:核函数

参考:学习SVM,这篇文章就够了!(附详细代码) | 机器之心 (jiqizhixin.com)【机器学习基础】一文详尽之支持向量机(SVM)算法!-腾讯云开发者社区-腾讯云 (tencent.com)学习SVM,这篇文章就够了!(附详细代码) | 机器之心 (jiqizhixin.com)