深度学习深度学习——卷积神经网络卷积神经网络
卷积神经网络卷积神经网络
文章目录文章目录卷积神经网络一、卷积神经网络基础1.基础知识2.卷积层的简洁实现3.池化二、LeNet三、常见的一些卷积神经网络
1.AlexNet2.VGG3.NiN4.GoogLeNet
一、卷积神经网络基础一、卷积神经网络基础
1.基础知识基础知识
二维互相关(cross-correlation)运算:输入一个二维数组和核数组(卷积核或过滤器),卷积核在输入数组上滑动,在每个位
置上与输入子数组按元素相乘并求和,取得一个输出的二维数组。如图中所示:
19=0×0+1×1+3×2+4×3,25=1×0+2×1+4×2+5×3,……
二维卷积层:将输入和卷积核做互相关运算,再加上一个偏差得到输出。此外,将核数组上下翻转、左右翻转再与输入数组做
互相关运算,这个过程称为卷积运算。
特征图:二维卷积层输出的二维数组称为特征图,看作是输入在空间维度上某一级的表征。
感受野(receptive field):影响因素的前向运算的所有可能输入区域。如上图中。输出中的阴影元素19的感受野是输入的阴
影部分的四个元素。
如果再将图中的输出部分YYY与另一个2×2的核数组做互相关运算,得到一个单元素的输出,那么这个单元素的输出在YYY上
的感受野是YYY的4个元素,在原输入数组上就是所有的9个元素。也就是说,随着卷积层的加深,单个元素的感受野更加广
阔,隐含更多特征。
卷积层的超参数:填充和步幅。
填充(padding):在输入数组的周围填充元素(一般为0)。卷积神经网络一般使用奇数高宽的核,对于高宽为
2k+12k+12k+1的核,令步幅为1,选择两侧填充kkk行/列,可使得输入与输出维度相同。
输出形状为:(nh+ph−kh+1)×(nw+pw−kw+1)(n_h+p_h-k_h+1)×(n_w+p_w-k_w+1)(nh+ph−kh+1)×(nw+pw−kw
+1),nw,nhn_w,n_hnw,nh分别为原输入的宽高,ppp为宽高填充的行列数,kkk为卷积核的宽高
步幅(stride):每次卷积核在输入数组上滑动的行数与列数。
输出形状为:[(nh+ph−kh+sh)/sh]×[(nw+pw−kw+sw)/sw][(n_h+p_h-k_h+s_h)/s_h]×[(n_w+p_w-k_w+s_w)/s_w][(nh+ph−kh
+sh)/sh]×[(nw+pw−kw+sw)/sw],sss为步幅
多输入与输出通道:将3维数组除宽高外的一维称为通道维。
多输入通道为每个输入通道各分配一个核数组,将所有输出按通道相加,得到一个二维数组作为输出。多输出通道是在输出通
道上核数组的连结。
1×1卷积层:包含1×1的卷积核的卷积层。1×1卷积核在不改变输入高宽的情况下调整通道数。如果将通道维当作特征为维,
将高宽维度上的元素作为数据样本,那么1×1卷积层的作用等价于全连接层。
2.卷积层的简洁实现卷积层的简洁实现
评论10
最新资源