之前经学长推荐,开始在B站上看Andrew Ng的机器学习课程。其实已经看了1/3了吧,今天把学习笔记补上吧。
吴恩达老师的Machine learning课程共有113节(B站上的版本https://www.bilibili.com/video/av9912938)。这篇学习笔记是结合第一、二部分(我所理解的):
第一部分:概览机器学习,介绍其中的一些专业名词及定义。Section 1-26
第二部分:如何使用Octave实现机器学习中的基本算法(Ocatave就是开源版的Matlab)。Section 27-39
总的来说,吴恩达老师讲的还是很慢的,他每次说到微积分、线代相关的知识,都要担心同学们不知道,小心翼翼地推导一遍……(美国人的数学真的这么不好吗)
着重记录一下逻辑回归吧:
吴老师说逻辑回归其实就是Sigmoid函数,或Logistic函数on,这名字起得也太差了吧,国内老师有的把这个称为指数回归,我觉得还顺口些。sigmoid函数的本质就是将实域上的数全都映射到0-1之间(表示概率):
\(g(z)=\frac{1}{1-e^{-z}}\)
那么其中的\(z\)是什么呢?其实也就是我们使用线性回归所计算出来的\(Θ^{T}x\)。
之所以这个函数可以拟合分类问题,是因为大部分事实情况与之相同。当某指标已经很大时,他再增加,对概率的影响也比较小。