机器学习公开课备忘录(三)机器学习算法的应用与大数据集

时间:2022-07-15 09:51:26

 机器学习公开课备忘录(三)机器学习算法的应用与大数据集

对应机器学习公开课第六周和第10周

机器学习算法模型的选择与评价

1、对于一个data,可以将data划分为training set、test set和cross validation set三类(比例60%、20%、20%),其代价函数值分别为\(J_{train}、J_{test}、J_{cv}\),例如在构建新特征 \(x\) 的多项式时,可以假设不同的阶次 \(d\)\(x\) 的多项式,利用training set得到各个多项式的具体参数,利用cross validation选择多项式模型中性能最好的一组,即确定最佳的 \(d\),而test set则用于评价最终模型的性能。
2、模型在泛化时中常见的两类问题是欠拟合与过拟合。前者代表数据有大的偏差,即平均值和真实值偏离;后者代表有大的方差,即平均值和真实值接近,但是波动幅度大。对于正则项,\(\lambda\) 过大时引发了underfit(欠拟合)问题,反之则引发overfit(过拟合问题), \(\lambda\) 的选择同样可以根据cross validation set来选择。绘制m和\(J_{train}、J_{cv}\)的曲线,可以观察系统存在的问题:
机器学习公开课备忘录(三)机器学习算法的应用与大数据集
对于高偏差,最终测试集的误差和训练集误差随着样本m的提高非常接近,但是这误差值非常高,离我们期望值较远;而对于高偏差,测试集误差和训练集误差在m很大时仍然有一定差距,且随着m的增大而继续接近。这也说明,试图通过增大样本数量来改善模型性能的,只对高偏差的过拟合问题有效。
3、对于系统的过拟合和欠拟合问题,一些可以尝试的解决办法如下

解决方案 问题
更多data high variance
更少特征 high variance
增加额外特征 high bias
增加特征阶次 high bias
增大正则参数 high bias
减小正则参数 high variance

4、某些情况下,测试集的存在不能很好地评估系统性能,例如对于偏斜类问题(即分类问题中,某个类别特别少),因此还有一种评价方法:

预测\真实 1 0
1 true positive false positive
0 false negative true negative

此时,有 \[查准率P = \frac{TP}{TP+FP}\] \[查全率R = \frac{TP}{TP+FN}\] \[F=2*\frac{PR}{P+R}\]

大数据集的使用

梯度下降法的使用

1、在正式开始前,可以选用较小的数据集,绘制学习曲线,来大致寻找参数范围
2、批量梯度下降法需要读入所有数据才完成一次更新,在数据量过大时,速度很缓慢,为了提高速度,有两种方法:

a. 随机梯度下降法:每读入一个数据,就进行参数更新:\[\theta_j=\theta_j-\alpha(h_\theta(x^{(i)})-y^{(i)})x_j^{(i)}   j=0,...,n \] 直到将m个数据全部读入更新完毕,然后打乱数据集顺序,再重新读入一次,一般要重复1~10次;随机梯度下降法只能逼近最小值,但不能达到。若要绘制曲线,则可每读入一个数据,就计算该数据的代价,每扫描一定数量的数据,就计算平均cost,然后绘制一个点,最后得到曲线

b. 小批量梯度下降法:每读入b(1<b<m)个数据,就进行参数跟新:
say b=10,m=1000
repeat{
 for i=1,11,21,...,991{
   \(\theta_j=\theta_j-\alpha\frac{1}{10}\sum\limits_{k=i}^{i+9}(h_\theta(x^{(k)})-y^{(k)})x_j^{(k)}  j=0,1,...,n\)

 }
}

在线学习机制

  1. 每读入一个数据,就进行更新,然后舍弃数据
  2. 能适应并反应用户偏好的变化

MAP REDUCE

  1. 分散计算——汇总,以此来加快求解速度
  2. 算法必须能表示成求和的形式