上文使用的是 s i g m o i d sigmoid sigmoid函数作为激活函数,还可以将其根据具体应用,更换为以下函数:
- Sigmoid函数:将输入值压缩到0到1之间,常用于二分类问题
- ReLU函数:将负值置为0,常用于深度神经网络中
- Tanh函数:将输入值压缩到-1到1之间,常用于回归问题
- Leaky ReLU函数:对负值进行微小的缩放,避免梯度消失问题
上文使用的是 s i g m o i d sigmoid sigmoid函数作为激活函数,还可以将其根据具体应用,更换为以下函数: