【论文阅读】inception v1学习总结

时间:2022-12-16 09:51:42

1. 摘要

  • 提出了Inception的深度卷积神经网络架构。
  • 该体系结构用于分类和检测
    • 分类【分类问题】:对画框的范围进行分类
    • 检测【回归问题】:画出框的线,画出物体的边缘框
  • 该体系结构的主要特点是提高了网络内计算资源的利用率。
  • 该体系结构基于Hebbian理论和多尺度信息处理
    • Hebbian理论:将不同特征进行融合成物体【例如:猫的耳朵,腿等融合成一只完整的猫】
    • 多尺度信息处理:用不同大小的卷积核并行处理,进行汇总融合【不同大小的卷积核,会融合不同大小的物体,比如:人,猫大小不一样,需要不同的卷积核】
  • 允许增加网络的深度和宽度,同时保持计算量保持不变

2. 序言

  • 在过去三年中,深度学习的进步(更具体地说是卷积网络),图像识别和对象检测的质量一直在以惊人的速度进步
  • 大部分不仅是更强大的硬件、数据集和模型的结果,而且主要是新思想、算法和改进的网络架构的结果
  • GoogLeNet参数比AlexNet少12倍,同时也更加准确。
  • 随着移动和嵌入式计算的不断发展,算法的效率(尤其是其功率和内存使用)越来越重要
  • 目标检测的最大收益并不是来自于单独使用深度网络或更大的模型,而是来自深度架构和经典计算机视觉的协同作用
  • 该模型保持15亿倍的计算量,可以以合理的成本投入到现实中使用,即使是在大型数据集上。
  • 该模型增加了网络深度【模型的深度与算法的深度】

3. 文献综述

  • 从LeNet-5开始,卷积神经网络(CNN)通常具有标准结构
    • 标准结构:多层卷积层——》对比度归一化和最大池层【可选】——》一个或多个全连接的层。
  • 对于较大的数据集,最近的趋势是增加深度(层数)和宽度(卷积核个数),同时使用丢弃(dropout)来解决过拟合问题。
  • 池化层可能会导致空间信息丢失,但也成功用于定位、对象检测和人体姿态估计
    • 池化层具有平移不变性
  • Inception模型中的所有滤波器(卷积核)都是学习得到的。 Inception层重复多次使用,导致GoogLeNet模型中的22层深度模型。
  • Network-in-Network model,大量使用1*1卷积层,旨在提高神经网络的代表能力。具有两种作用
    • 主要用作降维模块,以消除计算瓶颈,限制网络的大小
    • 可以增加网络深度,宽度,非线性运算,且不会造成显著的性能损失。

4.动机和高层考虑

4.1提高深度神经网络性能的最直接方法

4.1.1 增加模型的大小

  • 主要优点:
    • 增加网络深度【模型的深度】
    • 增加网络宽度【卷积核个数】
    • 是训练更高质量模型的一种简单而安全的方法,特别是考虑到大量标记训练数据的可用性。
  • 主要缺点
    • 容易过拟合:增加网络深度会有更多参数,特别是在训练集中标记的数据集少时,使网络容易过拟合
    • 计算资源急剧增加
      • 参数的增加,计算次数也会增加
      • 如果增加深度使用效率降低(如果大多数权重最终接近于零,容量增加并没有显著效果),计算资源就会被浪费。

4.1.2 解决增加模型大小导致的缺点思路

  • 思路一:【计算机设施效率降低,没有用】
    • 稀疏连接取代密集连接,并且在卷积内部也使用
      • 稀疏连接:就是有些参数权重为0【自己理解】
      • 在稀疏数据结构上进行数值计算,计算基础设施效率很低。
      • 即使参数减少了100倍,因此现有的计算效率低下使稀疏连接取代密集连接,模型并没有实际的提升
  • 思路二:【没有降低计算机设施效率,且使用了稀疏计算】
    • 使用密集连接,得到稀疏连接
      • inception块使用了4种不同大小的卷积核并行卷积【每个卷积核卷积是密集连接】,最后进行汇总融合【各个特征图汇总融合就变成了稀疏连接】。
    • 在调整学习率、超参数和改进的训练方法之后,Inception架构在定位和对象检测特别有用,最终证明它们至少是局部最优。
    • 尽管该体系结构已经成为计算机视觉的成功,但其质量是否可以归因于导致其构建的指导原则,仍然值得探索。

5.结构详述

5.1 Inception架构的主要思想

  • 主要思想:通过多个密集结构融合去获取近似的稀疏结构
  • 在较低层(靠近输入层),更注重提取局部特征。在较高层(靠近输出层),更注重提取全局特征。
  • 较低层提取局部特征,可以使用1*1卷积核。较高层提取较大特征,可以使用较大的卷积核(例如:3*3,5*5)提取
  • 使用不同大小的卷积核并行卷积,汇总融合要确保特征图大小一致,使用padding填充。
  • 池化操作对于网络成功至关重要,因此也添加了池化层
  • Inception模块相互叠加,它们输出相关性统计数据不同。
    • 更高特征会被更高层提取,在更高层特征提取,3×3和5×5卷积的比率应该会增加。
  • 仅在较高层开始使用Inception模块
    • 由于技术原因(训练期间的内存效率)。在传统卷积结构(CNN标准结构)后使用Inception模块是有益的。【但不是必须的,只是当前训练中的一些基础设施效率低下】
    • 另一个优点,它符合一种直觉,即视觉信息应该以各种尺度处理,然后聚合,以便下一阶段可以同时从不同尺度提取特征。
  • inception模块增了网络的深度与宽度,但是没有增加计算量。导致inception网络非Inception架构类似性能网络快2-3倍,需要仔细的手动设计模型。

5.2 原生inception块问题

  • Inception模块叠加,通道数会大大增加,导致较高层通道数非常大,计算量大大增加,可能导致计算故障。
  • 因为一个池化层存在,通道数一定会增加,其它层输出通道为1,最终输出层也会比输入层多3层
    【论文阅读】inception v1学习总结

5.3 解决通道数增加问题

  • 使用1*1卷积
    • 在3*3,5*5卷积之前使用1*1卷积降低通道数【降维】
      【论文阅读】inception v1学习总结

5.4 1*1卷积优点

  • 升维与降维
    • 1*1卷积层不会改变卷积核的大小,只会改变通道数,调整通道数,控制模型复杂度【升维,降维】
      • 通道数比卷积前小,是对数据降维,降低模型复杂度
      • 通道数比卷积前大,是对数据升维,增加模型复杂度
  • 增加非线性变换
    • 卷积层后会有非线性变换层,增加1*1卷积层,也就增加了非线性变换
  • 增加模型深度
  • 减少参数量与计算量
    • 1*1卷积参数只有1个,参数量较少,计算量也会减少
  • 可以替代全连接层【通道数就是神经元的个数】
  • 也可当作池化层
    • 使用1*1卷积核,当输入输出的特征图个数一致时,设置步长(stride),也可以代替池化层

6. GoogLeNet

  • 模型inception结构图
    【论文阅读】inception v1学习总结

  • 总图
    【论文阅读】inception v1学习总结

  • GoogLeNet 这个名字是对LeNet 5网络的致敬

  • 卷积之后全部使用Relu激活函数

  • 图片大小为224×224,采用RGB颜色通道减去均值,对数据预处理

  • 网络深度为22层(加上池化层,为27层。再加上inception模块内部层,为100层)。

  • 全局平均池化代代替全连接层和展平层。

    • 网络能够很容易地适应和微调其他标签集。
    • 继续使用dropout

6.1辅助分类器

  • 由于模型的深度较大,反向传播求参数会导致梯度消失问题,通过添加中间层的辅助分类器,增加反向传播梯度信号,提供额外的正则化。
  • 辅助分类器放在Inception(4a)和(4d)模块的输出之上的较小卷积网络。
  • 注意:训练好的模型,会去掉辅助分类器,增加辅助分类器只是防止梯度消失问题,导致求参困难
  • 总损失函数公式
    L o s s t o t a l = L o s s e n d + 0.3 ∗ L o s s 辅 助 器 1 + 0.3 ∗ L o s s t o t a l 辅 助 器 2 \begin{aligned} Loss_{total}=Loss_{end}+0.3*Loss_{辅助器1}+0.3*Loss_{total辅助器2} \end{aligned} Losstotal=Lossend+0.3Loss1+0.3Losstotal2

7. 训练方法

  • 网络使用分布式机器学习系统进行训练。
    • 分布式机器学习系统具有数据并行性
    • 分布式系统,相当于多个电脑同时对该模型进行训练,数据分为k份,每份有batch个数据集,每个电脑进行前向与反向传播,主电脑用来优化更新参数
  • 使用0.9的动量异步随机梯度下降(stochastic gradient descent with 0.9 momentum )。
  • 使用固定学习率计划(每8个时期将学习率降低4%)