上QQ阅读APP看书,第一时间看更新
2.1 激活函数
在神经网络中,虽然理论上激活函数可以是线性的,比如恒等函数f(x) = x,但一般选为非线性的sigmoid函数:
或者双曲正切函数tanh:
此外,激活函数可以是硬限幅函数:
或者斜面函数:
当然,激活函数还有很多其他选择,比如,
校正线性单元(或修正线性单元)ReLU:
渗漏校正线性单元(或渗漏修正线性单元)LReLU:
其中,a∈(0, 1)是一个固定值。如果按某个均匀分布取随机值,则称为RReLU(Ramdomized LReLU)。
参数校正线性单元(或参数修正线性单元)PReLU:
其中,a≤1是一个可调参数,具体值需要通过学习得到。
指数线性单元ELU(其中a≥0是一个可调参数):
软加函数softplus:
最大输出函数maxout:
软最大输出函数softmax: