支持向量机回归(SVR)是支持向量机在回归问题上的应用模型。支持向量机回归模型基于不同的损失函数产生了很多变种。本文仅介绍基于不敏感损失函数的SVR模型。
核心思想
找到一个分离超平面(超曲面),使得期望风险最小。
-SVR
-损失函数
-损失函数,就是当误差小于时,该误差可忽略。反之,误差为。如图所示:
基于-损失函数的SVR称为-SVR。
优化问题如下:
-SVR
同-支持向量机分类,另设一个参数来调节支持向量的个数。
优化问题如下:
是用户*设置的,故直接将称为,称为,则最优化函数等同于:
支持向量
直观地理解,支持向量就是对最终的w,b的计算起到作用的样本()。那么根据不敏感函数图像,不敏感区域形同一个“管道”。管道之内的样本对应,为非支持向量;位于“管壁”上的为边界支持向量,,为边界支持向量;位于“管道”之外的为非边界支持向量,,为非边界支持向量(异常点检测时,常从非边界支持向量中挑选异常点);
注:图片来自LIBSVM指导文档。如有不当之处,请指正。
我的GitHub
注:如有不当之处,请指正。