卷积之Grouped Convolutions

2021/05/17 BasicKnowledge 共 576 字,约 2 分钟

深度学习基础知识点卷积Grouped Convolutions

背景

组卷积最初是在 $AlexNet$ 中提出的,之后被大量应用在 $ResNeXt$ 网络结构中,提出的动机就是通过将 $feature$ 划分为不同的组来降低模型计算复杂度。

卷积过程


Grouped Convolutions

分组卷积就是将输入 $feature \ map$ 的通道进行分组,然后每个组内部进行卷积操作,最终将得到的组卷积的结果 $Concate$ 到一起,得到输出的 $feature \ map$。

优点

  • 训练效率高:由于卷积被分为几个不同的组,每个组的计算就可以分配给不同的 $GPU$ 核心来进行计算。这种结构的设计更符合 $GPU$ 并行计算的要求,这也能解释为何 $ResNeXt$ 在 $GPU$ 上效率要高于 $Inception$ 模块。
  • 模型效率高:模型参数随着组数或者基数的增加而减少。
  • 效果好:分组卷积可能能够比普通卷积组成的模型效果更优,这是因为滤波器之间的关系是稀疏的,而划分组以后对模型可以起到一定正则化的作用。从 $COCO$ 数据集榜单就可以看出来,有很多是 $ResNeXt101$ 作为 $backbone$ 的模型在排行榜非常靠前的位置。

缺点

$information$ 只是在分组的区域内交互,并没有在所有 $channels$ 上都进行交互融合,导致学得的特征也具有分组的特性,阻挡了不同分组之间的“信息流”。

Search

    Categories Cloud

    Blog Git BasicKnowledge Linux Classification Article MachineLearning

    Table of Contents