机器学习 1 regression

时间:2023-12-11 09:13:20

Linear regerssion 线性回归

回归:

stock market forecast

f(过去10年股票起伏的资料) = 明天道琼指数点数

self driving car

f(获取的道路图像)= 方向盘角度

recommendation

f(使用者A 商品B)= 购买商品可能性

预测妙蛙种子 cp值 combat power

f( xs ) =cp after evolution

xs

xhp

xw

xh

找model

定义 function set

step 1: model

y = b+ w* xcp  进化前的CP值

f1 : y= 10.0+9*xcp

f2: y= 9.8+9.2*xcp

f3: y= -0.8-1.2*xcp

infinite 有很多

linear model : y=b+sum(wi*xi)

xi feature wi weight b bais

step2: goodness of function

x1 ,   y^1

x2 ,   y^2

...

x10 ,   y^10

x 进化前的CP值

y 进化后的CP值

xncp  

损失函数

L(f)=L(w,b)

机器学习 1 regression

使用某个function 的wb 用来计算L

机器学习 1 regression

step: best function

机器学习 1 regression

gradient descent

L(w) w

w*= arg minwL(w)

穷举W所有值 ,看计算那个值? 效率低

可以: 1) 随机选取初始点 W0

2) 计算 dL/dw| w=w0

也就是切线的斜率      negative -》 increase w

positive -> decrease w

往左边走一步 还是右边走,LOSS会减少?

stepsize: 却觉于

1)现在的微分值越大,也就是越陡峭,

2)还有就是常数项 learning rate

机器学习 1 regression

w1 <- w0- n* dl/dw|w=w0

w2 <- w1-n*dl/dw|w=w1

local optimal 会找到局部最小值,而不是global optimal

如果是两个参数? w*,b* = arg min w,b L(w,b)

与上面的过程一致

有两个参数 w,b 决定了function

机器学习 1 regression

in linear regression ,the loss function L ins convex

NO local optimal

how's the results?

Generalization 泛化性能

selecting another model

y= b+w1*xcp+w2*(xcp)2

有没有可能更复杂的model,

how about more complex model?

在train data上效果是模型越复杂,效果很好,这是因为

越复杂的模型是包括简单的模型

A more complex model yields lower error on training data

但是在test data上效果不一定是。这就是overfitting

机器学习 1 regression

只考虑进化前的cp值可能还不够,同时需要考虑物种

预测重新设计function Set

机器学习 1 regression

if xs=pidgey y=b1+w1*xcp

也是线性模型,不同种类的物种,它的model不一样

机器学习 1 regression

考虑其他的影响因素 用更加复杂的模型

机器学习 1 regression

已经过拟合了

regularization 正则项 ,去解决过拟合,

当W很小,接近0,当输入有变化,output对输入变化不敏感。

输出对输入就不敏感,function 就平滑。如果一个平滑的function

收到噪声影响小。

机器学习 1 regression

调整b 和function平滑没关系,只是和位置有关系

lamad 越大,考虑训练误差越小

我们希望function平滑,但不能太平滑,调整lamad