提交 e166ab8e 编写于 作者: littletomatodonkey's avatar littletomatodonkey

add tables

上级 0bed4f4d
docs/images/models/main_fps_top1.png

301.6 KB | W: | H:

docs/images/models/main_fps_top1.png

299.7 KB | W: | H:

docs/images/models/main_fps_top1.png
docs/images/models/main_fps_top1.png
docs/images/models/main_fps_top1.png
docs/images/models/main_fps_top1.png
  • 2-up
  • Swipe
  • Onion skin
文件模式从 100644 更改为 100755
文件模式从 100644 更改为 100755
......@@ -2,9 +2,16 @@
## 概述
正在持续更新中......
![](../../images/models/DPN.png)
所有模型在预测时,图像的crop_size设置为224,resize_short_size设置为256。
该系列模型的FLOPS、参数量以及fp32预测耗时如下图所示。
![](../../images/models/DPN.png.flops.png)
![](../../images/models/DPN.png.params.png)
![](../../images/models/DPN.png.fp32.png)
所有模型在预测时,图像的crop_size设置为224,resize_short_size设置为256。
## 精度、FLOPS和参数量
......
......@@ -2,26 +2,14 @@
## 概述
正在持续更新中......
![](../../images/models/EfficientNet.png)
在预测时,图像的crop_size和resize_short_size如下表所示。
该系列模型的FLOPS、参数量以及fp32预测耗时如下图所示。
| Models | crop_size | resize_short_size |
|:--:|:--:|:--:|
| ResNeXt101_32x8d_wsl | 224 | 224 |
| ResNeXt101_32x16d_wsl | 224 | 224 |
| ResNeXt101_32x32d_wsl | 224 | 224 |
| ResNeXt101_32x48d_wsl | 224 | 224 |
| Fix_ResNeXt101_32x48d_wsl | 320 | 320 |
| EfficientNetB0 | 224 | 256 |
| EfficientNetB1 | 240 | 272 |
| EfficientNetB2 | 260 | 292 |
| EfficientNetB3 | 300 | 332 |
| EfficientNetB4 | 380 | 412 |
| EfficientNetB5 | 456 | 488 |
| EfficientNetB6 | 528 | 560 |
| EfficientNetB7 | 600 | 632 |
| EfficientNetB0_small | 224 | 256 |
![](../../images/models/EfficientNet.png.flops.png)
![](../../images/models/EfficientNet.png.params.png)
![](../../images/models/EfficientNet.png.fp32.png)
## 精度、FLOPS和参数量
......
......@@ -24,8 +24,8 @@
| Models | Crop Size | Resize Short Size | Batch Size=1<br>(ms) |
|-------------|-----------|-------------------|--------------------------|
| HRNet_W18_C | 224 | 256 | 7.368 |
| HRNet_W30_C | 224 | 256 | 9.495 |
| HRNet_W32_C | 224 | 256 | 9.292 |
| HRNet_W30_C | 224 | 256 | 9.402 |
| HRNet_W32_C | 224 | 256 | 9.467 |
| HRNet_W40_C | 224 | 256 | 10.739 |
| HRNet_W44_C | 224 | 256 | 11.497 |
| HRNet_W48_C | 224 | 256 | 12.165 |
......
......@@ -9,7 +9,16 @@ ResNet系列模型是在2015年提出的,一举在ILSVRC2015比赛中取得冠
本次发布ResNet系列的模型包括ResNet50,ResNet50_vd,ResNet50_vd_ssld,ResNet200_vd等14个预训练模型。在训练层面上,ResNet的模型采用了训练ImageNet的标准训练流程,而其余改进版模型采用了更多的训练策略,如learning rate的下降方式采用了cosine decay,引入了label smoothing的标签正则方式,在数据预处理加入了mixup的操作,迭代总轮数从120个epoch增加到200个epoch。
其中,ResNet50_vd_v2与ResNet50_vd_ssld采用了知识蒸馏,保证模型结构不变的情况下,进一步提升了模型的精度,具体地,ResNet50_vd_v2的teacher模型是ResNet152_vd(top1准确率80.59%),数据选用的是ImageNet-1k的训练集,ResNet50_vd_ssld的teacher模型是ResNeXt101_32x16d_wsl(top1准确率84.2%),数据选用结合了ImageNet-1k的训练集和ImageNet-22k挖掘的400万数据。知识蒸馏的具体方法正在持续更新中。
![](../../images/models/ResNet.png)
该系列模型的FLOPS、参数量以及fp32预测耗时如下图所示。
![](../../images/models/ResNet.png.flops.png)
![](../../images/models/ResNet.png.params.png)
![](../../images/models/ResNet.png.fp32.png)
通过上述曲线可以看出,层数越多,准确率越高,但是相应的参数量、计算量和延时都会增加。ResNet50_vd_ssld通过用更强的teacher和更多的数据,将其在ImageNet-1k上的验证集top-1精度进一步提高,达到了82.39%,刷新了ResNet50系列模型的精度。
**注意**:所有模型在预测时,图像的crop_size设置为224,resize_short_size设置为256。
......
......@@ -6,9 +6,18 @@ ResNeXt是ResNet的典型变种网络之一,ResNeXt发表于2017年的CVPR会
SENet是2017年ImageNet分类比赛的冠军方案,其提出了一个全新的SE结构,该结构可以迁移到任何其他网络中,其通过控制scale的大小,把每个通道间重要的特征增强,不重要的特征减弱,从而让提取的特征指向性更强。
Res2Net是2019年提出的一种全新的对ResNet的改进方案,该方案可以和现有其他优秀模块轻松整合,在不增加计算负载量的情况下,在ImageNet、CIFAR-100等数据集上的测试性能超过了ResNet。Res2Net结构简单,性能优越,进一步探索了CNN在更细粒度级别的多尺度表示能力。Res2Net揭示了一个新的提升模型精度的维度,即scale,其是除了深度、宽度和基数的现有维度之外另外一个必不可少的更有效的因素。该网络在其他视觉任务如目标检测、图像分割等也有相当不错的表现。
![](../../images/models/SeResNeXt.png)
该系列模型的FLOPS、参数量以及fp32预测耗时如下图所示。
![](../../images/models/SeResNeXt.png.flops.png)
![](../../images/models/SeResNeXt.png.params.png)
![](../../images/models/SeResNeXt.png.fp32.png)
目前PaddleClas开源的这三类的预训练模型一共有24个,其指标如图所示,从图中可以看出,在同样Flops和Params下,改进版的模型往往有更高的精度,但是推理速度往往不如ResNet系列。另一方面,Res2Net表现也较为优秀,相比ResNeXt中的group操作、SEResNet中的SE结构操作,Res2Net在相同Flops、Params和推理速度下往往精度更佳。
**注意**:所有模型在预测时,图像的crop_size设置为224,resize_short_size设置为256。
......
Markdown is supported
0% .
You are about to add 0 people to the discussion. Proceed with caution.
先完成此消息的编辑!
想要评论请 注册