A.批规范化(batch normalization)是在不引入新参数的情况下保证
B.与 Sigmoid 函数相比,Relu 较不容易使网络产生梯度消失
C.梯度下降法实现简单,当目标函数是凸函数时,可基于二阶收敛
D.用 Sigmoid 激活函数时,如果权重初始化较大或较小时,容易出
现梯度饱和梯度消失,可选用 Tanh 函数改进
A.池化的常用方法包括最大化池化、最小化池化、平均化池化、全
B.在人脸识别中采用较多池化的原因是为了获得人脸部的高层特征
C.池化在 CNN 中可以减少较多的计算量,加快模型训练
D.池化方法可以自定义
3、下面关于 CNN 的描述中,错误的说法是哪个?
A.局部感知使网络可以提取数据的局部特征,而权值共享大大降低
B.卷积核一般是有厚度的,即通道(channel),通道数量越多,获得
的特征图(Feature map)就越多