///20-12-04///参考各种网页。
///20-12-05///理解前几个非轻量级的神经网络结构有利于理解后边的轻量级网络结构。
ResNet(模块)
残差网络。
怎么解决退化问题?深度残差网络。如果深层网络的后面那些层是恒等映射,那么模
型就退化为一个浅层网络。那现在要解决的就是学习恒等映射函数了。 但是直接让一些层
去拟合一个潜在的恒等映射函数 H(x) = x,比较困难,这可能就是深层网络难以训练的原
因。但是,如果把网络设计为 H(x) = F(x) + x,如下图。我们可以转换为学习一个残差函
数 F(x) = H(x) - x. 只要 F(x)=0,就构成了一个恒等映射 H(x) = x. 而且,拟合残差肯
定更加容易。
ResNeXt(模块)
作者在论文中提出网络 ResNeXt,同时采用 VGG 堆叠的思想和 Inception 的 split-
transform-merge 思想,但是可扩展性比较强,可以认为是在增加准确率的同时基本不
改变或降低模型的复杂度。这里提到一个名词 cardinality,原文的解释是 the size of
the set of transformations,如下图 Fig1 右边是 cardinality=32 的样子,这里注意
每个被聚合的拓扑结构都是一样的(这也是和 Inception 的差别,减轻设计负担)
上图左边是 ResNet,右边是 ResNeXt。
评论5
最新资源