- 疑问:机器学习可以看做是拉普拉斯妖么?即一切皆有前因后果,只要提供足够多的因,便产生足够精确的果
- step1-2:足够的data然后设定a set of function,然后评判这一系列functions的goodness。
- step3:使用Gradient Descent方法,通过微分找出最小的Loss function L,及其对应的参数
- 现阶段不考虑多个极点情况,只考虑只有一个极点情况convex,no local optimal所以微分为0时便是最小值
- Step 4:调整精度,可以采用高次项input,如下,采用2次方,3次方,甚至4次方会使得函数图像和training data愈发吻合,不过这仅仅是针对training data的精度优化,过于复杂会导致过拟合,失去泛化能力
- Step 5:使用testing data来测试各种model的泛化能力,避免产生过拟合overfitting情况
Step 6:寻找hidden feature,添加进去redesign the model,
如上,添加进去其他的可能会对结果产生attribution的feature,再次通过Gradient Descent找到最小loss函数对应的参数,如下
- Step 7:但是可以看见还是不够精确,于是我们又可以添加高次项input增加精度
- Step 8:如上可以看出,产生了overfitting的情况,如何避免这种情况呢。regularization:redesign Loss function ,加上一项,learning rate乘以参数平方的加和,这样使得函数
如上,选择合适的learning rate,最后得出一个合适的Model