提交 1176fe71 编写于 作者: W wizardforcel

2021-01-02 18:50:10

上级 a2dd301c
......@@ -60,7 +60,7 @@ MobileNets 体系结构的核心是深度可分离卷积的概念。 CNN 的标
![](img/9b23f1db-5fa5-43a3-9c3b-d96b685696c0.png)
通常,如果我们将 *D = 256**K = 3* ,则比率为 0.115。 这意味着深度方向可分离卷积的参数是标准卷积的九倍。
通常,如果我们将`D = 256``K = 3`,则比率为 0.115。 这意味着深度方向可分离卷积的参数是标准卷积的九倍。
希望您现在对 MobileNet 如何通过深度方向可分离卷积减少参数数量有所了解。 现在,让我们在下一个小节中查看 MobileNet 的结构。
......@@ -70,13 +70,13 @@ MobileNet 的结构由 30 层组成。 它以 3 x 3 的标准卷积作为第一
![](img/9ca9c54e-df3e-4dbf-9f52-4f2d7a72786c.png)
图片来自 *MobileNets:用于移动视觉* *应用*的高效卷积神经网络。 BN 代表批次归一化。
图片来自《MobileNets:用于移动视觉应用的高效卷积神经网络》。 BN 代表批次归一化。
在该结构中,前面的块重复 13 次。 为了减少特征图的宽度和高度,MobileNet 在深度卷积中使用了第二步。 是的,它不使用 maxpooling! 为了增加特征图的深度,逐点卷积将通道数量加倍。 通道的加倍发生在相应的逐点层中,其中在深度卷积中使用步幅 2。
可以在[这个页面](https://arxiv.org/pdf/1704.04861.pdf)上找到 MobileNets 研究论文的链接。
MobileNet 经过 ImageNet 数据的训练,图像的输入尺寸为 224 x 224 x3。根据 ImageNet 图像的输入尺寸,从卷积层出来的最终输出尺寸为 7 x 7 x 1,024。 卷积结束后,将应用**全局平均池****GAP**)层,以使尺寸为 1 x 1 x 1,024。 假设尺寸为`H`x`W`x`D`的特征图,GAP 层会计算 *HW* 值的平均值,并替换 *] H* x`W`值具有单个平均值,因此输出尺寸始终为 1 x 1 x`D`
MobileNet 经过 ImageNet 数据的训练,图像的输入尺寸为 224 x 224 x3。根据 ImageNet 图像的输入尺寸,从卷积层出来的最终输出尺寸为 7 x 7 x 1,024。 卷积结束后,将应用**全局平均池****GAP**)层,以使尺寸为 1 x 1 x 1,024。 假设尺寸为`H x W x D`的特征图,GAP 层会计算`HW`值的平均值,并使用单个平均值替换`H x W`值,因此输出尺寸始终为`1 x 1 x D`
由于 MobileNet 主要用于分类,因此结束层是全连接层。 MobileNets 中使用的激活功能是 ReLU6。 我们已经了解了 ReLU,但是 ReLU6 是什么? ReLU6 与 ReLU 功能相同,但上限限制为六个。 作者声称 ReLU6 可帮助模型更早地学习稀疏特征。 以下等式定义了 ReLU6 激活函数:
......@@ -86,7 +86,7 @@ MobileNet 经过 ImageNet 数据的训练,图像的输入尺寸为 224 x 224 x
![](img/6a59c5a9-4edb-4e15-a71f-6b2ef601ea7e.png)
图片来自 *MobileNets:针对移动视觉应用的高效卷积神经网络*
图片来自《MobileNets:针对移动视觉应用的高效卷积神经网络》
既然我们已经了解了 MobileNet 的体系结构以及如何通过深度方向上可分离的卷积减少参数的数量,那么让我们看一下 MobileNet 的实现。
......@@ -205,7 +205,7 @@ MobileNetV2 的核心体系结构仍然依赖于深度方向上可分离的卷
# 扩展层
**扩展层**是 1 x 1 卷积层,始终具有比输入维更大的输出通道维。 扩展量由称为**扩展因子**的超参数控制。 整个 MobileNetV2 的扩展因子都设置为 6。例如,如果输入具有 64 个通道,它将被扩展为 *64 * 6 = 384* 个通道。 在其上进行深度卷积,然后瓶颈层将其带回到 128 个通道。
**扩展层**是 1 x 1 卷积层,始终具有比输入维更大的输出通道维。 扩展量由称为**扩展因子**的超参数控制。 整个 MobileNetV2 的扩展因子都设置为 6。例如,如果输入具有 64 个通道,它将被扩展为`64 * 6 = 384`个通道。 在其上进行深度卷积,然后瓶颈层将其带回到 128 个通道。
MobileNetV2 的体系结构首先扩展通道,执行卷积,然后减小它。 这使架构的端到端维数较低,从而减少了所需参数的数量。
......@@ -225,7 +225,7 @@ MobileNetV2 的体系结构首先扩展通道,执行卷积,然后减小它
![](img/2778f97c-d627-4359-9458-b39cfdeaf5cc.png)
图片来自研究论文 *MobileNetV2:残差和线性瓶颈*
图片来自研究论文《MobileNetV2:残差和线性瓶颈》
既然我们已经涵盖了 MobileNetV2 的所有元素,我们将研究 MobileNetV2 的整体结构。
......@@ -235,9 +235,9 @@ MobileNetV2 首先对图像执行标准卷积,以​​创建 32 个滤镜特
![](img/d335fb34-5b5e-43ba-8a2e-e83db7eb88a9.png)
图片来自研究论文 *MobileNetV2:残差和线性瓶颈*
图片来自研究论文《MobileNetV2:残差和线性瓶颈》
在上表中,`n`列表示重复特定层的次数。 *列*代表用于该层的步幅。 列`c``t`分别表示层中使用的通道数和扩展因子。
在上表中,`n`列表示重复特定层的次数。 `s`代表用于该层的步幅。 列`c``t`分别表示层中使用的通道数和扩展因子。
与 MobileNet 相似,我们也可以使用 Keras 来实现 MobileNetV2。
......@@ -319,7 +319,7 @@ MobileNetV2 的制造商还使移动设备的实时对象检测成为可能。
![](img/8ee9bbcf-e883-4886-ad12-da9bea86256f.png)
图片来自研究论文 MobileNetV2:*残差和线性瓶颈*
图片来自研究论文《MobileNetV2:残差和线性瓶颈》
# 概要
......
Markdown is supported
0% .
You are about to add 0 people to the discussion. Proceed with caution.
先完成此消息的编辑!
想要评论请 注册