深度学习——最常见的三种激活函数
深度学习——最常见的三种激活函数1 tanh激活函数1.1 函数原型tanh(x)=ex−e−xex+e−xtanh(x) = \frac{e^x-e^{-x}}{e^x+e^{-x}}tanh(x)=ex+e−xex−e−x1.2 函数图像1.3 函数导数tanh′(x)=1−tanh2(x)tanh'(x) = 1 - tanh^2(x)tanh′(x)=1−tanh2(x)...
深度学习——最常见的三种激活函数
1 tanh激活函数
1.1 函数原型
t a n h ( x ) = e x − e − x e x + e − x tanh(x) = \frac{e^x-e^{-x}}{e^x+e^{-x}} tanh(x)=ex+e−xex−e−x
1.2 函数图像
1.3 函数导数
t a n h ′ ( x ) = 1 − t a n h 2 ( x ) tanh'(x) = 1 - tanh^2(x) tanh′(x)=1−tanh2(x)
1.4 代码实现
import numpy as np
def tanh(x):
return (np.exp(x)-np.exp(-x))/(np.exp(x)+np.exp(-x))
2 Sigmoid激活函数
2.1 函数原型
s i g m o i d ( x ) = 1 1 + e − x sigmoid(x) = \frac{1}{1+e^{-x}} sigmoid(x)=1+e−x1
2.2 函数图像
图像来源:https://www.jianshu.com/p/ebde8a644e25
2.3 函数导数
s i g m o i d ′ ( x ) = s i g m o i d ( x ) ∗ ( 1 − s i g m o i d ( x ) ) sigmoid'(x)= sigmoid(x)*(1-sigmoid(x)) sigmoid′(x)=sigmoid(x)∗(1−sigmoid(x))
2.4 代码实现
def sigmoid(x):
return 1/(1+exp(-x))
3 Relu激活函数
3.1 函数原型
R e l u ( x ) = m a x ( 0 , x ) Relu(x)=max(0,x) Relu(x)=max(0,x)
3.2 函数图像
3.3 函数导数
R e l u ′ ( x ) = { 0 , x < = 0 1 , x > 0 Relu'(x)=\{ \begin{matrix} 0,x<= 0\\ 1,x > 0 \end{matrix} Relu′(x)={0,x<=01,x>0
3.4 代码实现
def relu(x):
return (np.abs(x) + x) / 2.0
更多推荐
所有评论(0)