卷积神经网络CNN的池化层和1*1的卷积核的作用

(1)池化层|Pooling Layer:
目前,有两种广泛使用的池化操作——平均池化(average pooling)最大池化(max pooling),其中最大池化是两者中使用最多的一个操作,其效果一般要优于平均池化。池化层用于在卷积神经网络上减小特征空间维度,但不会减小深度,1乘1的卷积核来担任减小深度的角色。当使用最大池化层时,采用输入区域的最大数量,而当使用平均池化时,采用输入区域的平均值。下图就是采用最大池化的方法维度从4乘4减小到了2乘2,但并不会减小深度(也就是通道数)
在这里插入图片描述
说明:一般普遍采用的都是2乘2的卷积核,并且步长是2,这样就达到了维度减小一半的目的

参考链接:https://blog.csdn.net/qq_21950671/article/details/88808152

(2)1×1卷积理解
  假设当前输入张量维度为6×6×32,卷积核维度为1×1×32,取输入张量的某一个位置(如图黄色区域)与卷积核进行运算。实际上可以看到,如果把1×1×32卷积核看成是32个权重W,输入张量运算的1×1×32部分为输入x,那么每一个卷积操作相当于一个Wx过程,多个卷积核就是多个神经元,相当于一个全连接网络。
  综上,可以将1×1卷积过程看成是将输入张量分为一个个输入为1×1×32的x,他们共享卷积核变量(对应全连接网络的权重)W的全连接网络
  在这里插入图片描述
1×1卷积核作用就是通过控制卷积核的数量达到通道数大小的放缩而池化层只能改变高度和宽度,无法改变通道数

参考链接:https://www.cnblogs.com/CZiFan/p/9490565.html

Logo

腾讯云面向开发者汇聚海量精品云计算使用和开发经验,营造开放的云计算技术生态圈。

更多推荐