凸优化学习
梯度下降法是最经典、最简单的算法,要求目标函数一阶可微无约束,有m,M控制凸性。
学习笔记
一、梯度下降法
形如:
RepeatUntil Convergencedkdkαmaxxk+1=−∇f(xk)=argminf(xk+αdk)≥α≥0=xk+αkdk
二、收敛性分析
1.精确步长搜索(Exact line search)
有:
⇔⇒⇒f(xk+1)f~(α)αminf~(α)αminf~(α)≤f(xk)+∇fT(xk)(−α∇f(xk))+2M∥−α∇f(x2)∥22≤f(xk)−α∥∇f(xk)∥22+2Mα2∥∇f(xk)∥22①≤f(xk)−M1∥∇f(xk)∥22+2M1∥∇f(xk)∥22≤f(xk)−2M1∥∇f(xk)∥22②
其中f~(α)指f关于α的函数,minf~(α)就是指精确步长搜索(即按照求得的能使函数下降最大的步长下降)。②式也可以写成:
f(xk+1)≤f(xk)−2M1∥∇f(xk)∥22②
②式表明在梯度下降法中,我们每执行一次迭代,我们就能获得一次函数值的下降,这个下降值至少为2M1∥∇f(xk)∥22。
我们接下来研究每一次迭代后,我们离最优解有多远,由m,M定义:
②−p∗:③−p∗:④⋅m+⑤⋅M:⇒⇒p∗2M1∥∇f(xk)∥22+f(xk+1)−p∗−2m1∥∇f(xk)∥22+f(xk)−p∗M(f(xk+1)−p∗)+m(f(xk)−p∗)f(xk+1)−p∗∥∥∥∥f(xk)−p∗f(xk+1)−p∗∥∥∥∥≥f(xk)−2m1∥∇f(xk)∥22③≤f(xk)−p∗④≤0⑤≤M(f(xk)−p∗)≤(1−Mm)(f(xk)−p∗)⑥≤∥∥∥∥1−Mm∥∥∥∥⑦
这是什么意思呢,这说明我们每执行一次精准步长搜索的梯度下降,我的目标函数值一定是在下降的,并且我们可以由前一步的下降算出下降了多少。可以看到,梯度下降法在精确步长搜索时是线性收敛的:
2.模糊步长搜索(Inexact line search)(Amijo Rule)
Amijo Rule:
满足f0(xk+αdk)≤f0(xk)+γα∇f0T(xk)dk时接受α,迭代停止。
Amijo Rule满足性质:
当0≤α≤M1时,迭代必然停止。
证明该性质:
当0≤α≤M1时,必有:
−α+2Mα2≤−2α①
根据定义有:
f~(α)=由①②得:有γ∈[0,0.5]得:f(xk+1)≤f(xk)−α∥∇f(xk)∥22+2Mα2②≤f(xk)−2α∥∇f(xk)∥22≤f(xk)−γα∥∇f(xk)∥22③
③等价于接受α的不等式,所以此时迭代必然停止,证毕。
当不精确搜索在本次迭代后将停止时,我们本次的α≥M1,得:
αinexact=αmax或≥Mββ∈[0,1]
对于精确步长有:
f(xk+1)=f~(αexact)≤f(xk)−2M1∥∇f(xk)∥22
得模糊步长:
f(xk+1)=f~(αinexact)≤f(xk)−γmin{αmax,Mβ}∥∇f(xk)∥22
可得:
∥∥∥∥f(xk)−p∗f(xk+1)−p∗∥∥∥∥≤∥∥∥∥1−γmin{2mαmax,M2mβ}∥∥∥∥
其中γ∈[0,0.5],β∈[0,1],这个比例比较接近于1,是线性收敛的。同时,当m,M比较接近时,收敛比较快。
个人思考
梯度下降法作为应用最广、最简单的算法,用来入门是最好不过了。这里面的收敛性分析可以帮助我们了解在什么时候使用梯度下降法会收敛得比较快。梯度下降法也有它的一些局限性,在学习后面的算法中可以体会这一点。
纸质笔记