机器学习公开课备忘录(三)机器学习算法的应用与大数据集
对应机器学习公开课第六周和第10周
机器学习算法模型的选择与评价
1、对于一个data,可以将data划分为training set、test set和cross validation set三类(比例60%、20%、20%),其代价函数值分别为\(J_{train}、J_{test}、J_{cv}\),例如在构建新特征 \(x\) 的多项式时,可以假设不同的阶次 \(d\) 的 \(x\) 的多项式,利用training set得到各个多项式的具体参数,利用cross validation选择多项式模型中性能最好的一组,即确定最佳的 \(d\),而test set则用于评价最终模型的性能。
2、模型在泛化时中常见的两类问题是欠拟合与过拟合。前者代表数据有大的偏差,即平均值和真实值偏离;后者代表有大的方差,即平均值和真实值接近,但是波动幅度大。对于正则项,\(\lambda\) 过大时引发了underfit(欠拟合)问题,反之则引发overfit(过拟合问题), \(\lambda\) 的选择同样可以根据cross validation set来选择。绘制m和\(J_{train}、J_{cv}\)的曲线,可以观察系统存在的问题:
对于高偏差,最终测试集的误差和训练集误差随着样本m的提高非常接近,但是这误差值非常高,离我们期望值较远;而对于高偏差,测试集误差和训练集误差在m很大时仍然有一定差距,且随着m的增大而继续接近。这也说明,试图通过增大样本数量来改善模型性能的,只对高偏差的过拟合问题有效。
3、对于系统的过拟合和欠拟合问题,一些可以尝试的解决办法如下
解决方案 | 问题 |
---|---|
更多data | high variance |
更少特征 | high variance |
增加额外特征 | high bias |
增加特征阶次 | high bias |
增大正则参数 | high bias |
减小正则参数 | high variance |
4、某些情况下,测试集的存在不能很好地评估系统性能,例如对于偏斜类问题(即分类问题中,某个类别特别少),因此还有一种评价方法:
预测\真实 | 1 | 0 |
---|---|---|
1 | true positive | false positive |
0 | false negative | true negative |
此时,有 \[查准率P = \frac{TP}{TP+FP}\] \[查全率R = \frac{TP}{TP+FN}\] \[F=2*\frac{PR}{P+R}\]
大数据集的使用
梯度下降法的使用
1、在正式开始前,可以选用较小的数据集,绘制学习曲线,来大致寻找参数范围
2、批量梯度下降法需要读入所有数据才完成一次更新,在数据量过大时,速度很缓慢,为了提高速度,有两种方法:
a. 随机梯度下降法:每读入一个数据,就进行参数更新:\[\theta_j=\theta_j-\alpha(h_\theta(x^{(i)})-y^{(i)})x_j^{(i)} j=0,...,n \] 直到将m个数据全部读入更新完毕,然后打乱数据集顺序,再重新读入一次,一般要重复1~10次;随机梯度下降法只能逼近最小值,但不能达到。若要绘制曲线,则可每读入一个数据,就计算该数据的代价,每扫描一定数量的数据,就计算平均cost,然后绘制一个点,最后得到曲线
b. 小批量梯度下降法:每读入b(1<b<m)个数据,就进行参数跟新:
say b=10,m=1000
repeat{
for i=1,11,21,...,991{
\(\theta_j=\theta_j-\alpha\frac{1}{10}\sum\limits_{k=i}^{i+9}(h_\theta(x^{(k)})-y^{(k)})x_j^{(k)} j=0,1,...,n\)
}
}
在线学习机制
- 每读入一个数据,就进行更新,然后舍弃数据
- 能适应并反应用户偏好的变化
MAP REDUCE
- 分散计算——汇总,以此来加快求解速度
- 算法必须能表示成求和的形式