深度学习——最常见的三种激活函数

1 tanh激活函数

1.1 函数原型

t a n h ( x ) = e x − e − x e x + e − x tanh(x) = \frac{e^x-e^{-x}}{e^x+e^{-x}} tanh(x)=ex+exexex

1.2 函数图像

在这里插入图片描述

1.3 函数导数

t a n h ′ ( x ) = 1 − t a n h 2 ( x ) tanh'(x) = 1 - tanh^2(x) tanh(x)=1tanh2(x)

1.4 代码实现
import numpy as np
def tanh(x):
    return (np.exp(x)-np.exp(-x))/(np.exp(x)+np.exp(-x))

2 Sigmoid激活函数

2.1 函数原型

s i g m o i d ( x ) = 1 1 + e − x sigmoid(x) = \frac{1}{1+e^{-x}} sigmoid(x)=1+ex1

2.2 函数图像

图像来源:https://www.jianshu.com/p/ebde8a644e25
在这里插入图片描述

2.3 函数导数

s i g m o i d ′ ( x ) = s i g m o i d ( x ) ∗ ( 1 − s i g m o i d ( x ) ) sigmoid'(x)= sigmoid(x)*(1-sigmoid(x)) sigmoid(x)=sigmoid(x)(1sigmoid(x))

2.4 代码实现
def sigmoid(x):
	return 1/(1+exp(-x))

3 Relu激活函数

3.1 函数原型

R e l u ( x ) = m a x ( 0 , x ) Relu(x)=max(0,x) Relu(x)=max(0,x)

3.2 函数图像

在这里插入图片描述

3.3 函数导数

R e l u ′ ( x ) = { 0 , x < = 0 1 , x > 0 Relu'(x)=\{ \begin{matrix} 0,x<= 0\\ 1,x > 0 \end{matrix} Relu(x)={0x<=01x>0

3.4 代码实现
def relu(x):
	return (np.abs(x) + x) / 2.0
Logo

腾讯云面向开发者汇聚海量精品云计算使用和开发经验,营造开放的云计算技术生态圈。

更多推荐