经典神经网络学习笔记

写在前面:本文是阅读有三AI博主课程的笔记

AlexNet

  • 更深的网络结构
  • 使用卷积层+卷积层+池化层提取图像特征
  • dropout
  • 数据增强
  • RELU替换sigmoid
  • 多GPU训练

训练技巧

image-20230106104745510
  • 多GPU训练:(与只是用一个GPU想不,top-1和top-5的错误率减少1.7%和1.2%)

    使得神经元并行,并使通信限制在了某些网络层。从上图中可以看出,c1,c2层是独立的,c4,c5是独立的,c3层两个GPU有通信

image-20230106105552881
  • Dropout

    随机裁剪一部分神经元,每次裁剪后生成的网络结构都不一样,通过组合多个模型的方式能有效减少过拟合

image-20230106105847910
  • 数据增强

    image-20230106110213739

VGG

小卷积

image-20230106110607663

33卷积卷两次得到的图的大小和进行一次5 5卷积得到的大小一样

使用3*3卷积的优点:

1.网络层数增加因此非线性表达能力更强

2.网络层参数减少 (2 * 3 * 3 =18 5* 5 =25)

VGG16相比AlexNet的一个改进是采用连续的几个3x3的卷积核代替AlexNet中的较大卷积核(11x11,7x7,5x5)。对于给定的感受野(与输出有关的输入图片的局部大小),采用堆积的小卷积核是优于采用大的卷积核,因为多层非线性层可以增加网络深度来保证学习更复杂的模式,而且代价还比较小(参数更少)。

image-20230106111526174

19的性能没有明显的优势

image-20230106112004104

GoogLeNet

比VGG更深,但是参数量更少

背景

1*1卷积

RGB转灰度

image-20230106112404868

使用1* 1卷积层可以实现上述转换

1*1 卷积的作用

image-20230106112509822

降维以后可以进行一些计算,降低参数量

1*1 卷积实验

image-20230107103105060
image-20230107103259910

引入\(1\times1\)卷积之后

image-20230107103721751
image-20230107104021134
image-20230107104035555

incption Module

image-20230106113152260

对于同一张图片,不同尺寸的卷积核的表现效果是不一样的,因为他们的感受野不同。Inception便能够满足这样的需求,一个Inception模块中并列提供多种卷积核的操作,网络在训练的过程中通过调节参数自己去选择使用。

Resnet

short connect

image-20230107104629763

残差网络有效性

  • 从信号角度
image-20230107105846052
  • 从集成角度看
image-20230107110122318

从模型结构看

image-20230107113714388

如果网络退化则说明参数的矩阵的秩比较低,矩阵行向量之间的线性相关性比较强

densenet

image-20230107113903794

cliqueNet

image-20230107113934974

MobileNet

v1存在的问题

RELU信息丢失:小于0d=的信息直接丢失了

image-20230107121002456

V2

image-20230107121249695

反转残差模块

image-20230107121449665

V1 和V2的结构对比

image-20230107121500373