Skip to content
体验新版
项目
组织
正在加载...
登录
切换导航
打开侧边栏
PaddlePaddle
PaddleClas
提交
94fe07d0
P
PaddleClas
项目概览
PaddlePaddle
/
PaddleClas
接近 2 年 前同步成功
通知
116
Star
4999
Fork
1114
代码
文件
提交
分支
Tags
贡献者
分支图
Diff
Issue
19
列表
看板
标记
里程碑
合并请求
6
Wiki
0
Wiki
分析
仓库
DevOps
项目成员
Pages
P
PaddleClas
项目概览
项目概览
详情
发布
仓库
仓库
文件
提交
分支
标签
贡献者
分支图
比较
Issue
19
Issue
19
列表
看板
标记
里程碑
合并请求
6
合并请求
6
Pages
分析
分析
仓库分析
DevOps
Wiki
0
Wiki
成员
成员
收起侧边栏
关闭侧边栏
动态
分支图
创建新Issue
提交
Issue看板
提交
94fe07d0
编写于
1月 03, 2023
作者:
weixin_46524038
提交者:
cuicheng01
1月 19, 2023
浏览文件
操作
浏览文件
下载
电子邮件补丁
差异文件
Supplement other docs
上级
a77ce6ed
变更
32
隐藏空白更改
内联
并排
Showing
32 changed file
with
249 addition
and
145 deletion
+249
-145
docs/zh_CN/models/ImageNet1k/CSPNet.md
docs/zh_CN/models/ImageNet1k/CSPNet.md
+5
-1
docs/zh_CN/models/ImageNet1k/DLA.md
docs/zh_CN/models/ImageNet1k/DLA.md
+9
-9
docs/zh_CN/models/ImageNet1k/DPN.md
docs/zh_CN/models/ImageNet1k/DPN.md
+5
-5
docs/zh_CN/models/ImageNet1k/DeiT.md
docs/zh_CN/models/ImageNet1k/DeiT.md
+8
-8
docs/zh_CN/models/ImageNet1k/DenseNet.md
docs/zh_CN/models/ImageNet1k/DenseNet.md
+5
-5
docs/zh_CN/models/ImageNet1k/ESNet.md
docs/zh_CN/models/ImageNet1k/ESNet.md
+16
-1
docs/zh_CN/models/ImageNet1k/EfficientNet.md
docs/zh_CN/models/ImageNet1k/EfficientNet.md
+8
-8
docs/zh_CN/models/ImageNet1k/HRNet.md
docs/zh_CN/models/ImageNet1k/HRNet.md
+7
-7
docs/zh_CN/models/ImageNet1k/HarDNet.md
docs/zh_CN/models/ImageNet1k/HarDNet.md
+4
-4
docs/zh_CN/models/ImageNet1k/Inception.md
docs/zh_CN/models/ImageNet1k/Inception.md
+8
-7
docs/zh_CN/models/ImageNet1k/MixNet.md
docs/zh_CN/models/ImageNet1k/MixNet.md
+3
-3
docs/zh_CN/models/ImageNet1k/NextViT.md
docs/zh_CN/models/ImageNet1k/NextViT.md
+13
-0
docs/zh_CN/models/ImageNet1k/Others.md
docs/zh_CN/models/ImageNet1k/Others.md
+4
-4
docs/zh_CN/models/ImageNet1k/PP-HGNet.md
docs/zh_CN/models/ImageNet1k/PP-HGNet.md
+6
-6
docs/zh_CN/models/ImageNet1k/PP-LCNet.md
docs/zh_CN/models/ImageNet1k/PP-LCNet.md
+8
-8
docs/zh_CN/models/ImageNet1k/PP-LCNetV2.md
docs/zh_CN/models/ImageNet1k/PP-LCNetV2.md
+4
-4
docs/zh_CN/models/ImageNet1k/PVTV2.md
docs/zh_CN/models/ImageNet1k/PVTV2.md
+19
-0
docs/zh_CN/models/ImageNet1k/PeleeNet.md
docs/zh_CN/models/ImageNet1k/PeleeNet.md
+5
-1
docs/zh_CN/models/ImageNet1k/ReXNet.md
docs/zh_CN/models/ImageNet1k/ReXNet.md
+5
-5
docs/zh_CN/models/ImageNet1k/RedNet.md
docs/zh_CN/models/ImageNet1k/RedNet.md
+5
-5
docs/zh_CN/models/ImageNet1k/RepVGG.md
docs/zh_CN/models/ImageNet1k/RepVGG.md
+23
-0
docs/zh_CN/models/ImageNet1k/Res2Net.md
docs/zh_CN/models/ImageNet1k/Res2Net.md
+5
-5
docs/zh_CN/models/ImageNet1k/ResNeSt.md
docs/zh_CN/models/ImageNet1k/ResNeSt.md
+5
-2
docs/zh_CN/models/ImageNet1k/ResNeXt.md
docs/zh_CN/models/ImageNet1k/ResNeXt.md
+8
-8
docs/zh_CN/models/ImageNet1k/ResNeXt101_wsl.md
docs/zh_CN/models/ImageNet1k/ResNeXt101_wsl.md
+4
-4
docs/zh_CN/models/ImageNet1k/ResNet.md
docs/zh_CN/models/ImageNet1k/ResNet.md
+14
-14
docs/zh_CN/models/ImageNet1k/SENet.md
docs/zh_CN/models/ImageNet1k/SENet.md
+3
-3
docs/zh_CN/models/ImageNet1k/Twins.md
docs/zh_CN/models/ImageNet1k/Twins.md
+5
-5
docs/zh_CN/models/ImageNet1k/UniFormer.md
docs/zh_CN/models/ImageNet1k/UniFormer.md
+16
-1
docs/zh_CN/models/ImageNet1k/VAN.md
docs/zh_CN/models/ImageNet1k/VAN.md
+8
-1
docs/zh_CN/models/ImageNet1k/VGG.md
docs/zh_CN/models/ImageNet1k/VGG.md
+4
-4
docs/zh_CN/models/ImageNet1k/ViT.md
docs/zh_CN/models/ImageNet1k/ViT.md
+7
-7
未找到文件。
docs/zh_CN/models/ImageNet1k/CSPNet.md
浏览文件 @
94fe07d0
...
@@ -36,13 +36,17 @@ CSPNet(Cross Stage Partial Network)系列网络模型主要是一种网络
...
@@ -36,13 +36,17 @@ CSPNet(Cross Stage Partial Network)系列网络模型主要是一种网络
|:--:|:--:|:--:|:--:|:--:|:--:|:--:|
|:--:|:--:|:--:|:--:|:--:|:--:|:--:|
| CSPDarkNet53 | 0.7725 | 0.9355 | - | - | 5.041 | 27.678 |
| CSPDarkNet53 | 0.7725 | 0.9355 | - | - | 5.041 | 27.678 |
**备注:**
精度类型为 FP32,推理过程使用 TensorRT。
### 1.3 Benchmark
### 1.3 Benchmark
<a
name=
'1.3.1'
></a>
<a
name=
'1.3.1'
></a>
#### 1.3.1 基于 V100 GPU 的预测速度
#### 1.3.1 基于 V100 GPU 的预测速度
敬请期待。
| Models | Size | Latency(ms)
<br>
bs=1 | Latency(ms)
<br>
bs=4 | Latency(ms)
<br>
bs=8 |
| ------------- | ----------------- | ------------------------------ | ------------------------------ | ------------------------------ |
| CSPDarkNet53 | 256 | 2.80 | 5.43 | 9.48 |
<a
name=
"2"
></a>
<a
name=
"2"
></a>
...
...
docs/zh_CN/models/ImageNet1k/DLA.md
浏览文件 @
94fe07d0
...
@@ -54,15 +54,15 @@ DLA(Deep Layer Aggregation)。 视觉识别需要丰富的表示形式,其范
...
@@ -54,15 +54,15 @@ DLA(Deep Layer Aggregation)。 视觉识别需要丰富的表示形式,其范
| Models | Size | Latency(ms)
<br>
bs=1 | Latency(ms)
<br>
bs=4 | Latency(ms)
<br>
bs=8 |
| Models | Size | Latency(ms)
<br>
bs=1 | Latency(ms)
<br>
bs=4 | Latency(ms)
<br>
bs=8 |
| -------- | --------- | ----------------- | ------------------------------ | ------------------------------ | ------------------------------ |
| -------- | --------- | ----------------- | ------------------------------ | ------------------------------ | ------------------------------ |
| DLA102 | 224 | 4.
95 | 8.08 | 12.4
0 |
| DLA102 | 224 | 4.
15 | 6.81 | 11.6
0 |
| DLA102x2 | 224 |
19.58 | 23.97 | 31.37
|
| DLA102x2 | 224 |
6.40 | 16.08 | 33.51
|
| DLA102x | 224 |
11.12 | 15.60 | 20.37
|
| DLA102x | 224 |
4.68 | 16.44 | 20.98
|
| DLA169 | 224 |
7.70 | 12.25 | 18.90
|
| DLA169 | 224 |
6.45 | 10.79 | 18.31
|
| DLA34 | 224 | 1.
83 | 3.37 | 5.98
|
| DLA34 | 224 | 1.
67 | 2.49 | 4.31
|
| DLA46_c | 224 |
1.06 | 2.08 | 3.23
|
| DLA46_c | 224 |
0.88 | 1.44 | 1.96
|
| DLA60 | 224 | 2.
78 | 5.36 | 8.29
|
| DLA60 | 224 | 2.
54 | 4.26 | 7.01
|
| DLA60x_c | 224 | 1.
79 | 3.68 | 5.19
|
| DLA60x_c | 224 | 1.
04 | 1.82 | 3.68
|
| DLA60x | 224 |
5.98 | 9.24 | 12.52
|
| DLA60x | 224 |
2.66 | 8.44 | 11.95
|
**备注:**
精度类型为 FP32,推理过程使用 TensorRT。
**备注:**
精度类型为 FP32,推理过程使用 TensorRT。
...
...
docs/zh_CN/models/ImageNet1k/DPN.md
浏览文件 @
94fe07d0
...
@@ -63,11 +63,11 @@ DPN 的全称是 Dual Path Networks,即双通道网络。该网络是由 Dense
...
@@ -63,11 +63,11 @@ DPN 的全称是 Dual Path Networks,即双通道网络。该网络是由 Dense
| Models | Crop Size | Resize Short Size | FP32
<br/>
Batch Size=1
<br/>
(ms) | FP32
<br/>
Batch Size=4
<br/>
(ms) | FP32
<br/>
Batch Size=8
<br/>
(ms) |
| Models | Crop Size | Resize Short Size | FP32
<br/>
Batch Size=1
<br/>
(ms) | FP32
<br/>
Batch Size=4
<br/>
(ms) | FP32
<br/>
Batch Size=8
<br/>
(ms) |
|-------------|-----------|-------------------|-------------------|-------------------|-------------------|
|-------------|-----------|-------------------|-------------------|-------------------|-------------------|
| DPN68 | 224 | 256 |
8.18 | 11.40 | 14.82
|
| DPN68 | 224 | 256 |
2.82 | 10.90 | 14.45
|
| DPN92 | 224 | 256 |
12.48 | 20.04 | 25.1
0 |
| DPN92 | 224 | 256 |
6.15 | 11.20 | 20.0
0 |
| DPN98 | 224 | 256 |
14.70 | 25.55 | 35.12
|
| DPN98 | 224 | 256 |
6.15 | 25.22 | 35.69
|
| DPN107 | 224 | 256 |
19.46 | 35.62 | 50.2
2 |
| DPN107 | 224 | 256 |
8.39 | 34.44 | 52.1
2 |
| DPN131 | 224 | 256 |
19.64 | 34.60 | 47.4
2 |
| DPN131 | 224 | 256 |
8.26 | 33.96 | 48.6
2 |
**备注:**
精度类型为 FP32,推理过程使用 TensorRT。
**备注:**
精度类型为 FP32,推理过程使用 TensorRT。
...
...
docs/zh_CN/models/ImageNet1k/DeiT.md
浏览文件 @
94fe07d0
...
@@ -53,14 +53,14 @@ DeiT(Data-efficient Image Transformers)系列模型是由 FaceBook 在 2020
...
@@ -53,14 +53,14 @@ DeiT(Data-efficient Image Transformers)系列模型是由 FaceBook 在 2020
| Models | Size | Latency(ms)
<br>
bs=1 | Latency(ms)
<br>
bs=4 | Latency(ms)
<br>
bs=8 |
| Models | Size | Latency(ms)
<br>
bs=1 | Latency(ms)
<br>
bs=4 | Latency(ms)
<br>
bs=8 |
| ------------------------------------ | ----------------- | ------------------------------ | ------------------------------ | ------------------------------ |
| ------------------------------------ | ----------------- | ------------------------------ | ------------------------------ | ------------------------------ |
| DeiT_tiny_
<br>
patch16_224 | 224 | 3.
61 | 3.94 | 6.10
|
| DeiT_tiny_
<br>
patch16_224 | 224 | 3.
87 | 3.58 | 4.64
|
| DeiT_small_
<br>
patch16_224 | 224 | 3.
61 | 6.24 | 10.49
|
| DeiT_small_
<br>
patch16_224 | 224 | 3.
52 | 5.90 | 9.44
|
| DeiT_base_
<br>
patch16_224 | 224 |
6.13 | 14.87 | 28.50
|
| DeiT_base_
<br>
patch16_224 | 224 |
5.97 | 15.52 | 27.39
|
| DeiT_base_
<br>
patch16_384 | 384 | 1
4.12 | 48.80 | 97.60
|
| DeiT_base_
<br>
patch16_384 | 384 | 1
3.78 | 45.94 | 89.38
|
| DeiT_tiny_
<br>
distilled_patch16_224 | 224 | 3.
51 | 4.05 | 6.03
|
| DeiT_tiny_
<br>
distilled_patch16_224 | 224 | 3.
31 | 3.61 | 4.57
|
| DeiT_small_
<br>
distilled_patch16_224 | 224 | 3.
70 | 6.20 | 10.53
|
| DeiT_small_
<br>
distilled_patch16_224 | 224 | 3.
57 | 5.91 | 9.51
|
| DeiT_base_
<br>
distilled_patch16_224 | 224 | 6.
17 | 14.94 | 28.58
|
| DeiT_base_
<br>
distilled_patch16_224 | 224 | 6.
00 | 15.43 | 27.10
|
| DeiT_base_
<br>
distilled_patch16_384 | 384 | 1
4.12 | 48.76 | 97.09
|
| DeiT_base_
<br>
distilled_patch16_384 | 384 | 1
3.76 | 45.61 | 89.15
|
**备注:**
精度类型为 FP32,推理过程使用 TensorRT。
**备注:**
精度类型为 FP32,推理过程使用 TensorRT。
...
...
docs/zh_CN/models/ImageNet1k/DenseNet.md
浏览文件 @
94fe07d0
...
@@ -64,11 +64,11 @@ DenseNet 是 2017 年 CVPR best paper 提出的一种新的网络结构,该网
...
@@ -64,11 +64,11 @@ DenseNet 是 2017 年 CVPR best paper 提出的一种新的网络结构,该网
| Models | Size | Latency(ms)
<br>
bs=1 | Latency(ms)
<br>
bs=4 | Latency(ms)
<br>
bs=8 |
| Models | Size | Latency(ms)
<br>
bs=1 | Latency(ms)
<br>
bs=4 | Latency(ms)
<br>
bs=8 |
|-------------|-----------|-------------------|-------------------|-------------------|-------------------|
|-------------|-----------|-------------------|-------------------|-------------------|-------------------|
| DenseNet121 | 224 | 3.
40 | 6.94 | 9.17
|
| DenseNet121 | 224 | 3.
22 | 6.25 | 8.20
|
| DenseNet161 | 224 |
7.06 | 14.37 | 19.55
|
| DenseNet161 | 224 |
6.83 | 13.39 | 18.34
|
| DenseNet169 | 224 |
5.00 | 10.29 | 12.8
4 |
| DenseNet169 | 224 |
4.81 | 9.53 | 11.9
4 |
| DenseNet201 | 224 | 6.
38 | 13.72 | 17.17
|
| DenseNet201 | 224 | 6.
15 | 12.70 | 15.93
|
| DenseNet264 | 224 | 9.
34 | 20.95 | 25.41
|
| DenseNet264 | 224 | 9.
05 | 19.57 | 23.84
|
| DPN68 | 224 | 8.18 | 11.40 | 14.82 |
| DPN68 | 224 | 8.18 | 11.40 | 14.82 |
| DPN92 | 224 | 12.48 | 20.04 | 25.10 |
| DPN92 | 224 | 12.48 | 20.04 | 25.10 |
| DPN98 | 224 | 14.70 | 25.55 | 35.12 |
| DPN98 | 224 | 14.70 | 25.55 | 35.12 |
...
...
docs/zh_CN/models/ImageNet1k/ESNet.md
浏览文件 @
94fe07d0
...
@@ -37,7 +37,22 @@ ESNet(Enhanced ShuffleNet)是百度自研的一个轻量级网络,该网络在
...
@@ -37,7 +37,22 @@ ESNet(Enhanced ShuffleNet)是百度自研的一个轻量级网络,该网络在
| ESNet_x0_75 | 72.24 | 90.45 | - | - | 123.7 | 3.87 |
| ESNet_x0_75 | 72.24 | 90.45 | - | - | 123.7 | 3.87 |
| ESNet_x1_0 | 73.92 | 91.40 | - | - | 197.3 | 4.64 |
| ESNet_x1_0 | 73.92 | 91.40 | - | - | 197.3 | 4.64 |
关于 Inference speed 等信息,敬请期待。
**备注:**
PaddleClas 所提供的该系列模型的预训练模型权重,均是基于其官方提供的权重转得。
### 1.3 Benchmark
<a
name=
'1.3.1'
></a>
#### 1.3.1 基于 V100 GPU 的预测速度
| Models | Size | Latency(ms)
<br>
bs=1 | Latency(ms)
<br>
bs=4 | Latency(ms)
<br>
bs=8 |
|-------------------------------|-------------------|-------------------------------|-------------------------------|-------------------------------|
| ESNet_x0_25 | 224 | 0.88 | 1.41 | 1.37 |
| ESNet_x0_5 | 224 | 1.04 | 1.47 | 1.47 |
| ESNet_x0_75 | 224 | 1.13 | 1.63 | 1.71 |
| ESNet_x1_0 | 224 | 1.35 | 1.66 | 2.04 |
**备注:**
精度类型为 FP32,推理过程使用 TensorRT。
<a
name=
"2"
></a>
<a
name=
"2"
></a>
...
...
docs/zh_CN/models/ImageNet1k/EfficientNet.md
浏览文件 @
94fe07d0
...
@@ -67,14 +67,14 @@ EfficientNet 是 Google 于 2019 年发布的一个基于 NAS 的轻量级网络
...
@@ -67,14 +67,14 @@ EfficientNet 是 Google 于 2019 年发布的一个基于 NAS 的轻量级网络
| Models | Size | Latency(ms)
<br>
bs=1 | Latency(ms)
<br>
bs=4 | Latency(ms)
<br>
bs=8 |
| Models | Size | Latency(ms)
<br>
bs=1 | Latency(ms)
<br>
bs=4 | Latency(ms)
<br>
bs=8 |
|-------------------------------|-------------------|-------------------------------|-------------------------------|-------------------------------|
|-------------------------------|-------------------|-------------------------------|-------------------------------|-------------------------------|
| EfficientNetB0 | 224 | 1.
96 | 3.71 | 5.56
|
| EfficientNetB0 | 224 | 1.
58 | 2.55 | 3.69
|
| EfficientNetB1 | 240 | 2.
88 | 5.40 | 7.63
|
| EfficientNetB1 | 240 | 2.
29 | 3.92 | 5.50
|
| EfficientNetB2 | 260 |
3.26 | 6.20 | 9.17
|
| EfficientNetB2 | 260 |
2.52 | 4.47 | 6.78
|
| EfficientNetB3 | 300 |
4.52 | 8.85 | 13.5
4 |
| EfficientNetB3 | 300 |
3.44 | 6.53 | 10.4
4 |
| EfficientNetB4 | 380 |
6.78 | 15.47 | 24.95
|
| EfficientNetB4 | 380 |
5.35 | 11.69 | 19.97
|
| EfficientNetB5 | 456 |
10.97 | 27.24 | 45.93
|
| EfficientNetB5 | 456 |
8.52 | 21.94 | 38.37
|
| EfficientNetB6 | 528 | 1
7.09 | 43.32 | 76.90
|
| EfficientNetB6 | 528 | 1
3.49 | 36.99 | 67.17
|
| EfficientNetB7 | 600 | 2
5.91 | 71.23 | 128.20
|
| EfficientNetB7 | 600 | 2
1.91 | 62.29 | 116.07
|
| EfficientNetB0_
<br>
small | 224 | 1.24 | 2.59 | 3.92 |
| EfficientNetB0_
<br>
small | 224 | 1.24 | 2.59 | 3.92 |
**备注:**
精度类型为 FP32,推理过程使用 TensorRT。
**备注:**
精度类型为 FP32,推理过程使用 TensorRT。
...
...
docs/zh_CN/models/ImageNet1k/HRNet.md
浏览文件 @
94fe07d0
...
@@ -66,15 +66,15 @@ HRNet 是 2019 年由微软亚洲研究院提出的一种全新的神经网络
...
@@ -66,15 +66,15 @@ HRNet 是 2019 年由微软亚洲研究院提出的一种全新的神经网络
| Models | Size | Latency(ms)
<br>
bs=1 | Latency(ms)
<br>
bs=4 | Latency(ms)
<br>
bs=8 |
| Models | Size | Latency(ms)
<br>
bs=1 | Latency(ms)
<br>
bs=4 | Latency(ms)
<br>
bs=8 |
|-------------|-----------|-------------------|-------------------|-------------------|-------------------|
|-------------|-----------|-------------------|-------------------|-------------------|-------------------|
| HRNet_W18_C | 224 | 6.
66 | 8.94 | 11.95
|
| HRNet_W18_C | 224 | 6.
33 | 8.12 | 10.91
|
| HRNet_W18_C_ssld | 224 | 6.66 | 8.92 | 11.93 |
| HRNet_W18_C_ssld | 224 | 6.66 | 8.92 | 11.93 |
| HRNet_W30_C | 224 | 8.
61 | 11.40 | 15.23
|
| HRNet_W30_C | 224 | 8.
34 | 10.65 | 13.95
|
| HRNet_W32_C | 224 | 8.
54 | 11.58 | 15.57
|
| HRNet_W32_C | 224 | 8.
03 | 10.46 | 14.11
|
| HRNet_W40_C | 224 | 9.
83 | 15.02 | 20.92
|
| HRNet_W40_C | 224 | 9.
64 | 14.27 | 19.54
|
| HRNet_W44_C | 224 | 10.
62 | 16.18 | 25.92
|
| HRNet_W44_C | 224 | 10.
54 | 15.41 | 24.50
|
| HRNet_W48_C | 224 | 1
1.07 | 17.06 | 27.28
|
| HRNet_W48_C | 224 | 1
0.81 | 15.67 | 15.53
|
| HRNet_W48_C_ssld | 224 | 11.09 | 17.04 | 27.28 |
| HRNet_W48_C_ssld | 224 | 11.09 | 17.04 | 27.28 |
| HRNet_W64_C | 224 | 13.
82 | 21.15 | 35.51
|
| HRNet_W64_C | 224 | 13.
12 | 19.49 | 33.80
|
**备注:**
精度类型为 FP32,推理过程使用 TensorRT。
**备注:**
精度类型为 FP32,推理过程使用 TensorRT。
...
...
docs/zh_CN/models/ImageNet1k/HarDNet.md
浏览文件 @
94fe07d0
...
@@ -48,10 +48,10 @@ HarDNet(Harmonic DenseNet)是 2019 年由国立清华大学提出的一种
...
@@ -48,10 +48,10 @@ HarDNet(Harmonic DenseNet)是 2019 年由国立清华大学提出的一种
| Models | Size | Latency(ms)
<br>
bs=1 | Latency(ms)
<br>
bs=4 | Latency(ms)
<br>
bs=8 |
| Models | Size | Latency(ms)
<br>
bs=1 | Latency(ms)
<br>
bs=4 | Latency(ms)
<br>
bs=8 |
| ------------ | ----------------- | ------------------------------ | ------------------------------ | ------------------------------ |
| ------------ | ----------------- | ------------------------------ | ------------------------------ | ------------------------------ |
| HarDNet68 | 224 |
3.58 | 8.53 | 11.58
|
| HarDNet68 | 224 |
2.97 | 4.12 | 6.05
|
| HarDNet85 | 224 |
6.24 | 14.85 | 20.57
|
| HarDNet85 | 224 |
4.67 | 7.17 | 10.85
|
| HarDNet39_ds | 224 | 1.
40 | 2.30 | 3.33
|
| HarDNet39_ds | 224 | 1.
12 | 1.54 | 2.00
|
| HarDNet68_ds | 224 |
2.26 | 3.34 | 5.06
|
| HarDNet68_ds | 224 |
1.88 | 2.56 | 3.37
|
**备注:**
精度类型为 FP32,推理过程使用 TensorRT。
**备注:**
精度类型为 FP32,推理过程使用 TensorRT。
...
...
docs/zh_CN/models/ImageNet1k/Inception.md
浏览文件 @
94fe07d0
...
@@ -70,13 +70,14 @@ InceptionV4 是 2016 年由 Google 设计的新的神经网络,当时残差结
...
@@ -70,13 +70,14 @@ InceptionV4 是 2016 年由 Google 设计的新的神经网络,当时残差结
| Models | Size | Latency(ms)
<br>
bs=1 | Latency(ms)
<br>
bs=4 | Latency(ms)
<br>
bs=8 |
| Models | Size | Latency(ms)
<br>
bs=1 | Latency(ms)
<br>
bs=4 | Latency(ms)
<br>
bs=8 |
|------------------------|-------------------|------------------------|------------------------|------------------------|
|------------------------|-------------------|------------------------|------------------------|------------------------|
| GoogLeNet | 224 | 1.41 | 3.25 | 5.00 |
| GoogLeNet | 224 | 1.26 | 2.84 | 3.64 |
| Xception41 | 299 | 3.58 | 8.76 | 16.61 |
| Xception41 | 299 | 3.20 | 7.78 | 14.83 |
| Xception41_
<br>
deeplab | 299 | 3.81 | 9.16 | 17.20 |
| Xception41_
<br>
deeplab | 299 | 3.34 | 8.22 | 15.54 |
| Xception65 | 299 | 5.45 | 12.78 | 24.53 |
| Xception65 | 299 | 5.01 | 11.66 | 22.49 |
| Xception65_
<br>
deeplab | 299 | 5.65 | 13.08 | 24.61 |
| Xception65_
<br>
deeplab | 299 | 4.98 | 11.90 | 22.94 |
| Xception71 | 299 | 6.19 | 15.34 | 29.21 |
| Xception71 | 299 | 5.75 | 14.11 | 27.37 |
| InceptionV4 | 299 | 8.93 | 15.17 | 21.56 |
| InceptionV3 | 299 | 3.92 | 5.98 | 9.57 |
| InceptionV4 | 299 | 7.09 | 10.95 | 18.37 |
**备注:**
精度类型为 FP32,推理过程使用 TensorRT。
**备注:**
精度类型为 FP32,推理过程使用 TensorRT。
...
...
docs/zh_CN/models/ImageNet1k/MixNet.md
浏览文件 @
94fe07d0
...
@@ -53,9 +53,9 @@ MixNet 是谷歌出的一篇关于轻量级网络的文章,主要工作就在
...
@@ -53,9 +53,9 @@ MixNet 是谷歌出的一篇关于轻量级网络的文章,主要工作就在
| Models | Size | Latency(ms)
<br>
bs=1 | Latency(ms)
<br>
bs=4 | Latency(ms)
<br>
bs=8 |
| Models | Size | Latency(ms)
<br>
bs=1 | Latency(ms)
<br>
bs=4 | Latency(ms)
<br>
bs=8 |
| -------- | ----------------- | ------------------------------ | ------------------------------ | ------------------------------ |
| -------- | ----------------- | ------------------------------ | ------------------------------ | ------------------------------ |
| MixNet_S | 224 |
2.31 | 3.63 | 5.20
|
| MixNet_S | 224 |
1.83 | 2.59 | 3.86
|
| MixNet_M | 224 | 2.
84 | 4.60 | 6.62
|
| MixNet_M | 224 | 2.
25 | 3.38 | 5.06
|
| MixNet_L | 224 |
3.16 | 5.55 | 8.03
|
| MixNet_L | 224 |
1.83 | 4.19 | 6.29
|
**备注:**
精度类型为 FP32,推理过程使用 TensorRT。
**备注:**
精度类型为 FP32,推理过程使用 TensorRT。
...
...
docs/zh_CN/models/ImageNet1k/NextViT.md
浏览文件 @
94fe07d0
...
@@ -50,6 +50,19 @@ NextViT 是一种新的视觉 Transformer 网络,可以用作计算机视觉
...
@@ -50,6 +50,19 @@ NextViT 是一种新的视觉 Transformer 网络,可以用作计算机视觉
-
PaddleClas 所提供的该系列模型的预训练模型权重,均是基于其官方提供的权重转得。PaddleClas 验证了 NextViT_small_224 的精度可以与论文精度对齐。
-
PaddleClas 所提供的该系列模型的预训练模型权重,均是基于其官方提供的权重转得。PaddleClas 验证了 NextViT_small_224 的精度可以与论文精度对齐。
-
此处
`_ssld`
并非使用 PaddleClas 中的蒸馏的
`SSLD 蒸馏`
方法得到,而是使用类似
`SSLD 蒸馏`
挖掘的数据集训练得到。
-
此处
`_ssld`
并非使用 PaddleClas 中的蒸馏的
`SSLD 蒸馏`
方法得到,而是使用类似
`SSLD 蒸馏`
挖掘的数据集训练得到。
### 1.3 Benchmark
<a
name=
'1.3.1'
></a>
#### 1.3.1 基于 V100 GPU 的预测速度
| Models | Size | Latency(ms)
<br>
bs=1 | Latency(ms)
<br>
bs=4 | Latency(ms)
<br>
bs=8 |
| -------- | --------- | ----------------- | ------------------------------ | ------------------------------ | ------------------------------ |
| NextViT_small_224 | 224 | 7.76 | 10.86 | 14.20 |
| NextViT_base_224 | 224 | 12.02 | 16.21 | 20.63 |
| NextViT_large_224 | 224 | 16.51 | 21.91 | 27.25 |
**备注:**
精度类型为 FP32,推理过程使用 TensorRT。
<a
name=
"2"
></a>
<a
name=
"2"
></a>
...
...
docs/zh_CN/models/ImageNet1k/Others.md
浏览文件 @
94fe07d0
...
@@ -55,11 +55,11 @@ SENet 是 2017 年 ImageNet 分类比赛的冠军方案,其提出了一个全
...
@@ -55,11 +55,11 @@ SENet 是 2017 年 ImageNet 分类比赛的冠军方案,其提出了一个全
| Models | Size | Latency(ms)
<br>
bs=1 | Latency(ms)
<br>
bs=4 | Latency(ms)
<br>
bs=8 |
| Models | Size | Latency(ms)
<br>
bs=1 | Latency(ms)
<br>
bs=4 | Latency(ms)
<br>
bs=8 |
|---------------------------|-------------------|-------------------|-------------------|-------------------|
|---------------------------|-------------------|-------------------|-------------------|-------------------|
| AlexNet | 224 | 0.
81 | 1.50 | 2.33
|
| AlexNet | 224 | 0.
64 | 0.88 | 1.21
|
| SqueezeNet1_0 | 224 | 0.
68 | 1.64 | 2.62
|
| SqueezeNet1_0 | 224 | 0.
46 | 1.01 | 1.59
|
| SqueezeNet1_1 | 224 | 0.
62 | 1.30 | 2.09
|
| SqueezeNet1_1 | 224 | 0.
37 | 0.72 | 1.07
|
| DarkNet53 | 256 | 2.79 | 6.42 | 10.89 |
| DarkNet53 | 256 | 2.79 | 6.42 | 10.89 |
| SENet154_vd | 224 |
34.83 | 51.22 | 69.74
|
| SENet154_vd | 224 |
12.57 | 33.64 | 72.71
|
**备注:**
精度类型为 FP32,推理过程使用 TensorRT。
**备注:**
精度类型为 FP32,推理过程使用 TensorRT。
...
...
docs/zh_CN/models/ImageNet1k/PP-HGNet.md
浏览文件 @
94fe07d0
...
@@ -60,9 +60,9 @@ PP-HGNet 目前提供的模型的精度、速度指标及预训练权重链接
...
@@ -60,9 +60,9 @@ PP-HGNet 目前提供的模型的精度、速度指标及预训练权重链接
| Model | Top-1 Acc(
\%
) | Top-5 Acc(
\%
) | Latency(ms) | 预训练模型下载地址 | inference模型下载地址 |
| Model | Top-1 Acc(
\%
) | Top-5 Acc(
\%
) | Latency(ms) | 预训练模型下载地址 | inference模型下载地址 |
|:--: |:--: |:--: |:--: | :--: |:--: |
|:--: |:--: |:--: |:--: | :--: |:--: |
| PPHGNet_tiny | 79.83 | 95.04 | 1.7
7
|
[
下载链接
](
https://paddle-imagenet-models-name.bj.bcebos.com/dygraph/legendary_models/PPHGNet_tiny_pretrained.pdparams
)
|
[
下载链接
](
https://paddle-imagenet-models-name.bj.bcebos.com/dygraph/inference/PPHGNet_tiny_infer.tar
)
|
| PPHGNet_tiny | 79.83 | 95.04 | 1.7
2
|
[
下载链接
](
https://paddle-imagenet-models-name.bj.bcebos.com/dygraph/legendary_models/PPHGNet_tiny_pretrained.pdparams
)
|
[
下载链接
](
https://paddle-imagenet-models-name.bj.bcebos.com/dygraph/inference/PPHGNet_tiny_infer.tar
)
|
| PPHGNet_tiny_ssld | 81.95 | 96.12 | 1.77 |
[
下载链接
](
https://paddle-imagenet-models-name.bj.bcebos.com/dygraph/legendary_models/PPHGNet_tiny_ssld_pretrained.pdparams
)
|
[
下载链接
](
https://paddle-imagenet-models-name.bj.bcebos.com/dygraph/inference/PPHGNet_tiny_ssld_infer.tar
)
|
| PPHGNet_tiny_ssld | 81.95 | 96.12 | 1.77 |
[
下载链接
](
https://paddle-imagenet-models-name.bj.bcebos.com/dygraph/legendary_models/PPHGNet_tiny_ssld_pretrained.pdparams
)
|
[
下载链接
](
https://paddle-imagenet-models-name.bj.bcebos.com/dygraph/inference/PPHGNet_tiny_ssld_infer.tar
)
|
| PPHGNet_small | 81.51| 95.82 | 2.
52
|
[
下载链接
](
https://paddle-imagenet-models-name.bj.bcebos.com/dygraph/legendary_models/PPHGNet_small_pretrained.pdparams
)
|
[
下载链接
](
https://paddle-imagenet-models-name.bj.bcebos.com/dygraph/inference/PPHGNet_small_infer.tar
)
|
| PPHGNet_small | 81.51| 95.82 | 2.
46
|
[
下载链接
](
https://paddle-imagenet-models-name.bj.bcebos.com/dygraph/legendary_models/PPHGNet_small_pretrained.pdparams
)
|
[
下载链接
](
https://paddle-imagenet-models-name.bj.bcebos.com/dygraph/inference/PPHGNet_small_infer.tar
)
|
| PPHGNet_small_ssld | 83.82| 96.81 | 2.52 |
[
下载链接
](
https://paddle-imagenet-models-name.bj.bcebos.com/dygraph/legendary_models/PPHGNet_small_ssld_pretrained.pdparams
)
|
[
下载链接
](
https://paddle-imagenet-models-name.bj.bcebos.com/dygraph/inference/PPHGNet_small_ssld_infer.tar
)
|
| PPHGNet_small_ssld | 83.82| 96.81 | 2.52 |
[
下载链接
](
https://paddle-imagenet-models-name.bj.bcebos.com/dygraph/legendary_models/PPHGNet_small_ssld_pretrained.pdparams
)
|
[
下载链接
](
https://paddle-imagenet-models-name.bj.bcebos.com/dygraph/inference/PPHGNet_small_ssld_infer.tar
)
|
| PPHGNet_base_ssld | 85.00| 97.35 | 5.97 |
[
下载链接
](
https://paddle-imagenet-models-name.bj.bcebos.com/dygraph/legendary_models/PPHGNet_base_ssld_pretrained.pdparams
)
|
[
下载链接
](
https://paddle-imagenet-models-name.bj.bcebos.com/dygraph/inference/PPHGNet_base_ssld_infer.tar
)
|
| PPHGNet_base_ssld | 85.00| 97.35 | 5.97 |
[
下载链接
](
https://paddle-imagenet-models-name.bj.bcebos.com/dygraph/legendary_models/PPHGNet_base_ssld_pretrained.pdparams
)
|
[
下载链接
](
https://paddle-imagenet-models-name.bj.bcebos.com/dygraph/inference/PPHGNet_base_ssld_infer.tar
)
|
...
@@ -213,7 +213,7 @@ cd path_to_PaddleClas
...
@@ -213,7 +213,7 @@ cd path_to_PaddleClas
<a
name=
"3.3.1"
></a>
<a
name=
"3.3.1"
></a>
#### 3.3.1 训练 ImageNet
#### 3.3.1 训练 ImageNet
在
`ppcls/configs/ImageNet/PPHGNet/PPHGNet_small.yaml`
中提供了 PPHGNet_small 训练配置,可以通过如下脚本启动训练:
在
`ppcls/configs/ImageNet/PPHGNet/PPHGNet_small.yaml`
中提供了 PPHGNet_small 训练配置,可以通过如下脚本启动训练:
```
shell
```
shell
...
@@ -228,13 +228,13 @@ python3 -m paddle.distributed.launch \
...
@@ -228,13 +228,13 @@ python3 -m paddle.distributed.launch \
**备注:**
**备注:**
*
当前精度最佳的模型会保存在
`output/PPHGNet_small/best_model.pdparams`
*
当前精度最佳的模型会保存在
`output/PPHGNet_small/best_model.pdparams`
<a
name=
"3.3.2"
></a>
<a
name=
"3.3.2"
></a>
#### 3.3.2 基于 ImageNet 权重微调
#### 3.3.2 基于 ImageNet 权重微调
如果训练的不是 ImageNet 任务,而是其他任务时,需要更改配置文件和训练方法,详情可以参考:
[
模型微调
](
../../training/single_label_classification/finetune.md
)
。
如果训练的不是 ImageNet 任务,而是其他任务时,需要更改配置文件和训练方法,详情可以参考:
[
模型微调
](
../../training/single_label_classification/finetune.md
)
。
<a
name=
"3.4"
></a>
<a
name=
"3.4"
></a>
...
@@ -275,7 +275,7 @@ python3 tools/infer.py \
...
@@ -275,7 +275,7 @@ python3 tools/infer.py \
*
默认是对
`docs/images/inference_deployment/whl_demo.jpg`
进行预测,此处也可以通过增加字段
`-o Infer.infer_imgs=xxx`
对其他图片预测。
*
默认是对
`docs/images/inference_deployment/whl_demo.jpg`
进行预测,此处也可以通过增加字段
`-o Infer.infer_imgs=xxx`
对其他图片预测。
*
默认输出的是 Top-5 的值,如果希望输出 Top-k 的值,可以指定
`-o Infer.PostProcess.topk=k`
,其中,
`k`
为您指定的值。
*
默认输出的是 Top-5 的值,如果希望输出 Top-k 的值,可以指定
`-o Infer.PostProcess.topk=k`
,其中,
`k`
为您指定的值。
*
默认的标签映射基于 ImageNet 数据集,如果改变数据集,需要重新指定
`Infer.PostProcess.class_id_map_file`
,该映射文件的制作方法可以参考
`ppcls/utils/imagenet1k_label_list.txt`
。
*
默认的标签映射基于 ImageNet 数据集,如果改变数据集,需要重新指定
`Infer.PostProcess.class_id_map_file`
,该映射文件的制作方法可以参考
`ppcls/utils/imagenet1k_label_list.txt`
。
...
...
docs/zh_CN/models/ImageNet1k/PP-LCNet.md
浏览文件 @
94fe07d0
...
@@ -121,14 +121,14 @@ BaseNet 经过以上四个方面的改进,得到了 PP-LCNet。下表进一步
...
@@ -121,14 +121,14 @@ BaseNet 经过以上四个方面的改进,得到了 PP-LCNet。下表进一步
| Model | Params(M) | FLOPs(M) | Top-1 Acc(
\%
) | Top-5 Acc(
\%
) | Latency(ms) | 预训练模型下载地址 | inference模型下载地址 |
| Model | Params(M) | FLOPs(M) | Top-1 Acc(
\%
) | Top-5 Acc(
\%
) | Latency(ms) | 预训练模型下载地址 | inference模型下载地址 |
|:--:|:--:|:--:|:--:|:--:|:--:|:--:|:--:|
|:--:|:--:|:--:|:--:|:--:|:--:|:--:|:--:|
| PPLCNet_x0_25 | 1.5 | 18 | 51.86 | 75.65 |
1.7
4 |
[
下载链接
](
https://paddle-imagenet-models-name.bj.bcebos.com/dygraph/legendary_models/PPLCNet_x0_25_pretrained.pdparams
)
|
[
下载链接
](
https://paddle-imagenet-models-name.bj.bcebos.com/dygraph/inference/PPLCNet_x0_25_infer.tar
)
|
| PPLCNet_x0_25 | 1.5 | 18 | 51.86 | 75.65 |
0.4
4 |
[
下载链接
](
https://paddle-imagenet-models-name.bj.bcebos.com/dygraph/legendary_models/PPLCNet_x0_25_pretrained.pdparams
)
|
[
下载链接
](
https://paddle-imagenet-models-name.bj.bcebos.com/dygraph/inference/PPLCNet_x0_25_infer.tar
)
|
| PPLCNet_x0_35 | 1.6 | 29 | 58.09 | 80.83 |
1.92
|
[
下载链接
](
https://paddle-imagenet-models-name.bj.bcebos.com/dygraph/legendary_models/PPLCNet_x0_35_pretrained.pdparams
)
|
[
下载链接
](
https://paddle-imagenet-models-name.bj.bcebos.com/dygraph/inference/PPLCNet_x0_35_infer.tar
)
|
| PPLCNet_x0_35 | 1.6 | 29 | 58.09 | 80.83 |
0.45
|
[
下载链接
](
https://paddle-imagenet-models-name.bj.bcebos.com/dygraph/legendary_models/PPLCNet_x0_35_pretrained.pdparams
)
|
[
下载链接
](
https://paddle-imagenet-models-name.bj.bcebos.com/dygraph/inference/PPLCNet_x0_35_infer.tar
)
|
| PPLCNet_x0_5 | 1.9 | 47 | 63.14 | 84.66 |
2.05
|
[
下载链接
](
https://paddle-imagenet-models-name.bj.bcebos.com/dygraph/legendary_models/PPLCNet_x0_5_pretrained.pdparams
)
|
[
下载链接
](
https://paddle-imagenet-models-name.bj.bcebos.com/dygraph/inference/PPLCNet_x0_5_infer.tar
)
|
| PPLCNet_x0_5 | 1.9 | 47 | 63.14 | 84.66 |
0.44
|
[
下载链接
](
https://paddle-imagenet-models-name.bj.bcebos.com/dygraph/legendary_models/PPLCNet_x0_5_pretrained.pdparams
)
|
[
下载链接
](
https://paddle-imagenet-models-name.bj.bcebos.com/dygraph/inference/PPLCNet_x0_5_infer.tar
)
|
| PPLCNet_x0_75 | 2.4 | 99 | 68.18 | 88.30 |
2.29
|
[
下载链接
](
https://paddle-imagenet-models-name.bj.bcebos.com/dygraph/legendary_models/PPLCNet_x0_75_pretrained.pdparams
)
|
[
下载链接
](
https://paddle-imagenet-models-name.bj.bcebos.com/dygraph/inference/PPLCNet_x0_75_infer.tar
)
|
| PPLCNet_x0_75 | 2.4 | 99 | 68.18 | 88.30 |
0.44
|
[
下载链接
](
https://paddle-imagenet-models-name.bj.bcebos.com/dygraph/legendary_models/PPLCNet_x0_75_pretrained.pdparams
)
|
[
下载链接
](
https://paddle-imagenet-models-name.bj.bcebos.com/dygraph/inference/PPLCNet_x0_75_infer.tar
)
|
| PPLCNet_x1_0 | 3.0 | 161 | 71.32 | 90.03 |
2.46
|
[
下载链接
](
https://paddle-imagenet-models-name.bj.bcebos.com/dygraph/legendary_models/PPLCNet_x1_0_pretrained.pdparams
)
|
[
下载链接
](
https://paddle-imagenet-models-name.bj.bcebos.com/dygraph/inference/PPLCNet_x1_0_infer.tar
)
|
| PPLCNet_x1_0 | 3.0 | 161 | 71.32 | 90.03 |
0.47
|
[
下载链接
](
https://paddle-imagenet-models-name.bj.bcebos.com/dygraph/legendary_models/PPLCNet_x1_0_pretrained.pdparams
)
|
[
下载链接
](
https://paddle-imagenet-models-name.bj.bcebos.com/dygraph/inference/PPLCNet_x1_0_infer.tar
)
|
| PPLCNet_x1_5 | 4.5 | 342 | 73.71 | 91.53 |
3.19
|
[
下载链接
](
https://paddle-imagenet-models-name.bj.bcebos.com/dygraph/legendary_models/PPLCNet_x1_5_pretrained.pdparams
)
|
[
下载链接
](
https://paddle-imagenet-models-name.bj.bcebos.com/dygraph/inference/PPLCNet_x1_5_infer.tar
)
|
| PPLCNet_x1_5 | 4.5 | 342 | 73.71 | 91.53 |
0.54
|
[
下载链接
](
https://paddle-imagenet-models-name.bj.bcebos.com/dygraph/legendary_models/PPLCNet_x1_5_pretrained.pdparams
)
|
[
下载链接
](
https://paddle-imagenet-models-name.bj.bcebos.com/dygraph/inference/PPLCNet_x1_5_infer.tar
)
|
| PPLCNet_x2_0 | 6.5 | 590 | 75.18 | 92.27 |
4.27
|
[
下载链接
](
https://paddle-imagenet-models-name.bj.bcebos.com/dygraph/legendary_models/PPLCNet_x2_0_pretrained.pdparams
)
|
[
下载链接
](
https://paddle-imagenet-models-name.bj.bcebos.com/dygraph/inference/PPLCNet_x2_0_infer.tar
)
|
| PPLCNet_x2_0 | 6.5 | 590 | 75.18 | 92.27 |
0.64
|
[
下载链接
](
https://paddle-imagenet-models-name.bj.bcebos.com/dygraph/legendary_models/PPLCNet_x2_0_pretrained.pdparams
)
|
[
下载链接
](
https://paddle-imagenet-models-name.bj.bcebos.com/dygraph/inference/PPLCNet_x2_0_infer.tar
)
|
| PPLCNet_x2_5 | 9.0 | 906 | 76.60 | 93.00 |
5.39
|
[
下载链接
](
https://paddle-imagenet-models-name.bj.bcebos.com/dygraph/legendary_models/PPLCNet_x2_5_pretrained.pdparams
)
|
[
下载链接
](
https://paddle-imagenet-models-name.bj.bcebos.com/dygraph/inference/PPLCNet_x2_5_infer.tar
)
|
| PPLCNet_x2_5 | 9.0 | 906 | 76.60 | 93.00 |
0.71
|
[
下载链接
](
https://paddle-imagenet-models-name.bj.bcebos.com/dygraph/legendary_models/PPLCNet_x2_5_pretrained.pdparams
)
|
[
下载链接
](
https://paddle-imagenet-models-name.bj.bcebos.com/dygraph/inference/PPLCNet_x2_5_infer.tar
)
|
| PPLCNet_x0_5_ssld | 1.9 | 47 | 66.10 | 86.46 | 2.05 |
[
下载链接
](
https://paddle-imagenet-models-name.bj.bcebos.com/dygraph/legendary_models/PPLCNet_x0_5_ssld_pretrained.pdparams
)
|
[
下载链接
](
https://paddle-imagenet-models-name.bj.bcebos.com/dygraph/inference/PPLCNet_x0_5_ssld_infer.tar
)
|
| PPLCNet_x0_5_ssld | 1.9 | 47 | 66.10 | 86.46 | 2.05 |
[
下载链接
](
https://paddle-imagenet-models-name.bj.bcebos.com/dygraph/legendary_models/PPLCNet_x0_5_ssld_pretrained.pdparams
)
|
[
下载链接
](
https://paddle-imagenet-models-name.bj.bcebos.com/dygraph/inference/PPLCNet_x0_5_ssld_infer.tar
)
|
| PPLCNet_x1_0_ssld | 3.0 | 161 | 74.39 | 92.09 | 2.46 |
[
下载链接
](
https://paddle-imagenet-models-name.bj.bcebos.com/dygraph/legendary_models/PPLCNet_x1_0_ssld_pretrained.pdparams
)
|
[
下载链接
](
https://paddle-imagenet-models-name.bj.bcebos.com/dygraph/inference/PPLCNet_x1_0_ssld_infer.tar
)
|
| PPLCNet_x1_0_ssld | 3.0 | 161 | 74.39 | 92.09 | 2.46 |
[
下载链接
](
https://paddle-imagenet-models-name.bj.bcebos.com/dygraph/legendary_models/PPLCNet_x1_0_ssld_pretrained.pdparams
)
|
[
下载链接
](
https://paddle-imagenet-models-name.bj.bcebos.com/dygraph/inference/PPLCNet_x1_0_ssld_infer.tar
)
|
| PPLCNet_x2_5_ssld | 9.0 | 906 | 80.82 | 95.33 | 5.39 |
[
下载链接
](
https://paddle-imagenet-models-name.bj.bcebos.com/dygraph/legendary_models/PPLCNet_x2_5_ssld_pretrained.pdparams
)
|
[
下载链接
](
https://paddle-imagenet-models-name.bj.bcebos.com/dygraph/inference/PPLCNet_x2_5_ssld_infer.tar
)
|
| PPLCNet_x2_5_ssld | 9.0 | 906 | 80.82 | 95.33 | 5.39 |
[
下载链接
](
https://paddle-imagenet-models-name.bj.bcebos.com/dygraph/legendary_models/PPLCNet_x2_5_ssld_pretrained.pdparams
)
|
[
下载链接
](
https://paddle-imagenet-models-name.bj.bcebos.com/dygraph/inference/PPLCNet_x2_5_ssld_infer.tar
)
|
...
...
docs/zh_CN/models/ImageNet1k/PP-LCNetV2.md
浏览文件 @
94fe07d0
...
@@ -112,7 +112,7 @@ PPLCNetV2 目前提供的模型的精度、速度指标及预训练权重链接
...
@@ -112,7 +112,7 @@ PPLCNetV2 目前提供的模型的精度、速度指标及预训练权重链接
|:--:|:--:|:--:|:--:|:--:|:--:|
|:--:|:--:|:--:|:--:|:--:|:--:|
| MobileNetV3_Large_x1_25 | 7.4 | 714 | 76.4 | 93.00 | 5.19 |
| MobileNetV3_Large_x1_25 | 7.4 | 714 | 76.4 | 93.00 | 5.19 |
| PPLCNetV1_x2_5 | 9 | 906 | 76.60 | 93.00 | 7.25 |
| PPLCNetV1_x2_5 | 9 | 906 | 76.60 | 93.00 | 7.25 |
|
<b>
PPLCNetV2_base
<b>
|
<b>
6.6
<b>
|
<b>
604
<b>
|
<b>
77.04
<b>
|
<b>
93.27
<b>
|
<b>
4.32
<b>
|
|
<b>
PPLCNetV2_base
<b>
|
<b>
6.6
<b>
|
<b>
604
<b>
|
<b>
77.04
<b>
|
<b>
93.27
<b>
|
<b>
0.68
<b>
|
|
<b>
PPLCNetV2_base_ssld
<b>
|
<b>
6.6
<b>
|
<b>
604
<b>
|
<b>
80.07
<b>
|
<b>
94.87
<b>
|
<b>
4.32
<b>
|
|
<b>
PPLCNetV2_base_ssld
<b>
|
<b>
6.6
<b>
|
<b>
604
<b>
|
<b>
80.07
<b>
|
<b>
94.87
<b>
|
<b>
4.32
<b>
|
...
@@ -231,7 +231,7 @@ cd path_to_PaddleClas
...
@@ -231,7 +231,7 @@ cd path_to_PaddleClas
<a
name=
"3.3"
></a>
<a
name=
"3.3"
></a>
### 3.3 模型训练
### 3.3 模型训练
<a
name=
"3.3.1"
></a>
<a
name=
"3.3.1"
></a>
#### 3.3.1 训练 ImageNet
#### 3.3.1 训练 ImageNet
...
@@ -249,7 +249,7 @@ python3 -m paddle.distributed.launch \
...
@@ -249,7 +249,7 @@ python3 -m paddle.distributed.launch \
**备注:**
**备注:**
*
当前精度最佳的模型会保存在
`output/PPLCNetV2_base/best_model.pdparams`
*
当前精度最佳的模型会保存在
`output/PPLCNetV2_base/best_model.pdparams`
#### 3.3.2 基于 ImageNet 权重微调
#### 3.3.2 基于 ImageNet 权重微调
如果训练的不是 ImageNet 任务,而是其他任务时,需要更改配置文件和训练方法,详情可以参考:
[
模型微调
](
../../training/single_label_classification/finetune.md
)
。
如果训练的不是 ImageNet 任务,而是其他任务时,需要更改配置文件和训练方法,详情可以参考:
[
模型微调
](
../../training/single_label_classification/finetune.md
)
。
...
@@ -293,7 +293,7 @@ python3 tools/infer.py \
...
@@ -293,7 +293,7 @@ python3 tools/infer.py \
*
默认是对
`docs/images/inference_deployment/whl_demo.jpg`
进行预测,此处也可以通过增加字段
`-o Infer.infer_imgs=xxx`
对其他图片预测。
*
默认是对
`docs/images/inference_deployment/whl_demo.jpg`
进行预测,此处也可以通过增加字段
`-o Infer.infer_imgs=xxx`
对其他图片预测。
*
默认输出的是 Top-5 的值,如果希望输出 Top-k 的值,可以指定
`-o Infer.PostProcess.topk=k`
,其中,
`k`
为您指定的值。
*
默认输出的是 Top-5 的值,如果希望输出 Top-k 的值,可以指定
`-o Infer.PostProcess.topk=k`
,其中,
`k`
为您指定的值。
*
默认的标签映射基于 ImageNet 数据集,如果改变数据集,需要重新指定
`Infer.PostProcess.class_id_map_file`
,该映射文件的制作方法可以参考
`ppcls/utils/imagenet1k_label_list.txt`
。
*
默认的标签映射基于 ImageNet 数据集,如果改变数据集,需要重新指定
`Infer.PostProcess.class_id_map_file`
,该映射文件的制作方法可以参考
`ppcls/utils/imagenet1k_label_list.txt`
。
<a
name=
"4"
></a>
<a
name=
"4"
></a>
...
...
docs/zh_CN/models/ImageNet1k/PVTV2.md
浏览文件 @
94fe07d0
...
@@ -40,6 +40,25 @@ PVTV2 是 VisionTransformer 系列模型,该模型基于 PVT(Pyramid Vision
...
@@ -40,6 +40,25 @@ PVTV2 是 VisionTransformer 系列模型,该模型基于 PVT(Pyramid Vision
| PVT_V2_B5 | 0.837 | 0.966 | 0.838 | - | 11.4 | 82.0 |
| PVT_V2_B5 | 0.837 | 0.966 | 0.838 | - | 11.4 | 82.0 |
| PVT_V2_B2_Linear | 0.821 | 0.961 | 0.821 | - | 3.8 | 22.6 |
| PVT_V2_B2_Linear | 0.821 | 0.961 | 0.821 | - | 3.8 | 22.6 |
**备注:**
PaddleClas 所提供的该系列模型的预训练模型权重,均是基于其官方提供的权重转得。
### 1.3 Benchmark
<a
name=
'1.3.1'
></a>
#### 1.3.1 基于 V100 GPU 的预测速度
| Models | Size | Latency(ms)
<br>
bs=1 | Latency(ms)
<br>
bs=4 | Latency(ms)
<br>
bs=8 |
| -------- | --------- | ----------------- | ------------------------------ | ------------------------------ | ------------------------------ |
| PVT_V2_B0 | 224 | 2.87 | 3.46 | - |
| PVT_V2_B1 | 224 | 3.32 | 5.48 | - |
| PVT_V2_B2 | 224 | 5.94 | 9.98 | - |
| PVT_V2_B3 | 224 | 9.46 | - | - |
| PVT_V2_B4 | 224 | 14.06 | - | - |
| PVT_V2_B5 | 224 | - | - | - |
**备注:**
精度类型为 FP32,推理过程使用 TensorRT。
<a
name=
"2"
></a>
<a
name=
"2"
></a>
## 2. 模型快速体验
## 2. 模型快速体验
...
...
docs/zh_CN/models/ImageNet1k/PeleeNet.md
浏览文件 @
94fe07d0
...
@@ -43,7 +43,11 @@ PeleeNet 系列模型是基于 DenseNet 网络所提出的稠密链接的思想
...
@@ -43,7 +43,11 @@ PeleeNet 系列模型是基于 DenseNet 网络所提出的稠密链接的思想
#### 1.3.1 基于 V100 GPU 的预测速度
#### 1.3.1 基于 V100 GPU 的预测速度
敬请期待。
| Models | Size | Latency(ms)
<br>
bs=1 | Latency(ms)
<br>
bs=4 | Latency(ms)
<br>
bs=8 |
| -------- | --------- | ----------------- | ------------------------------ | ------------------------------ | ------------------------------ |
| PeleeNet | 224 | 1.26 | 2.10 | 2.47 |
**备注:**
精度类型为 FP32,推理过程使用 TensorRT。
<a
name=
"2"
></a>
<a
name=
"2"
></a>
...
...
docs/zh_CN/models/ImageNet1k/ReXNet.md
浏览文件 @
94fe07d0
...
@@ -50,11 +50,11 @@ ReXNet 是 NAVER 集团 ClovaAI 研发中心基于一种网络架构设计新范
...
@@ -50,11 +50,11 @@ ReXNet 是 NAVER 集团 ClovaAI 研发中心基于一种网络架构设计新范
| Models | Size | Latency(ms)
<br>
bs=1 | Latency(ms)
<br>
bs=4 | Latency(ms)
<br>
bs=8 |
| Models | Size | Latency(ms)
<br>
bs=1 | Latency(ms)
<br>
bs=4 | Latency(ms)
<br>
bs=8 |
| ---------- | ----------------- | ------------------------------ | ------------------------------ | ------------------------------ |
| ---------- | ----------------- | ------------------------------ | ------------------------------ | ------------------------------ |
| ReXNet_1_0 | 224 | 3.
08 | 4.15 | 5.49
|
| ReXNet_1_0 | 224 | 3.
10 | 3.29 | 3.50
|
| ReXNet_1_3 | 224 | 3.
54 | 4.87 | 6.54
|
| ReXNet_1_3 | 224 | 3.
38 | 3.45 | 4.37
|
| ReXNet_1_5 | 224 | 3.
68 | 5.31 | 7.38
|
| ReXNet_1_5 | 224 | 3.
20 | 3.57 | 5.00
|
| ReXNet_2_0 | 224 |
4.30 | 6.54 | 9.19
|
| ReXNet_2_0 | 224 |
3.32 | 4.45 | 6.50
|
| ReXNet_3_0 | 224 |
5.74 | 9.49 | 13.6
2 |
| ReXNet_3_0 | 224 |
3.83 | 6.81 | 10.4
2 |
**备注:**
精度类型为 FP32,推理过程使用 TensorRT。
**备注:**
精度类型为 FP32,推理过程使用 TensorRT。
...
...
docs/zh_CN/models/ImageNet1k/RedNet.md
浏览文件 @
94fe07d0
...
@@ -50,11 +50,11 @@
...
@@ -50,11 +50,11 @@
| Models | Size | Latency(ms)
<br>
bs=1 | Latency(ms)
<br>
bs=4 | Latency(ms)
<br>
bs=8 |
| Models | Size | Latency(ms)
<br>
bs=1 | Latency(ms)
<br>
bs=4 | Latency(ms)
<br>
bs=8 |
| --------- | --------- | ---------------- | ---------------- | ----------------- |
| --------- | --------- | ---------------- | ---------------- | ----------------- |
| RedNet26 | 224 |
4.45 | 15.16 | 29.0
3 |
| RedNet26 | 224 |
5.36 | 17.89 | 31.8
3 |
| RedNet38 | 224 |
6.24 | 21.39 | 41.26
|
| RedNet38 | 224 |
7.42 | 25.11 | 45.99
|
| RedNet50 | 224 |
8.04 | 27.71 | 53.73
|
| RedNet50 | 224 |
9.47 | 31.93 | 61.41
|
| RedNet101 | 224 | 1
3.07 | 44.12 | 83.28
|
| RedNet101 | 224 | 1
4.89 | 51.40 | 98.07
|
| RedNet152 | 224 |
18.66 | 63.27 | 119.48
|
| RedNet152 | 224 |
21.41 | 74.07 | 138.91
|
**备注:**
精度类型为 FP32,推理过程使用 TensorRT。
**备注:**
精度类型为 FP32,推理过程使用 TensorRT。
...
...
docs/zh_CN/models/ImageNet1k/RepVGG.md
浏览文件 @
94fe07d0
...
@@ -49,6 +49,29 @@ RepVGG(Making VGG-style ConvNets Great Again)系列模型是由清华大学(丁
...
@@ -49,6 +49,29 @@ RepVGG(Making VGG-style ConvNets Great Again)系列模型是由清华大学(丁
**备注:**
PaddleClas 所提供的该系列模型的预训练模型权重,均是基于其官方提供的权重转得。
**备注:**
PaddleClas 所提供的该系列模型的预训练模型权重,均是基于其官方提供的权重转得。
### 1.3 Benchmark
<a
name=
'1.3.1'
></a>
#### 1.3.1 基于 V100 GPU 的预测速度
| Models | Size | Latency(ms)
<br>
bs=1 | Latency(ms)
<br>
bs=4 | Latency(ms)
<br>
bs=8 |
| -------- | --------- | ----------------- | ------------------------------ | ------------------------------ | ------------------------------ |
| RepVGG_A0 | 224 | 1.38 | 1.85 | 2.81 |
| RepVGG_A1 | 224 | 1.68 | 2.33 | 3.70 |
| RepVGG_A2 | 224 | 2.31 | 4.46 | 6.53 |
| RepVGG_B0 | 224 | 1.99 | 2.87 | 4.67 |
| RepVGG_B1 | 224 | 3.56 | 7.64 | 13.94 |
| RepVGG_B2 | 224 | 4.45 | 9.79 | 19.13 |
| RepVGG_B1g2 | 224 | 4.18 | 6.93 | 11.99 |
| RepVGG_B1g4 | 224 | 4.73 | 7.23 | 11.14 |
| RepVGG_B2g4 | 224 | 5.47 | 8.94 | 14.73 |
| RepVGG_B3 | 224 | 4.28 | 11.64 | 21.14 |
| RepVGG_B3g4 | 224 | 4.21 | 8.22 | 14.69 |
| RepVGG_D2se | 224 | - | - | - |
**备注:**
精度类型为 FP32,推理过程使用 TensorRT。
<a
name=
"2"
></a>
<a
name=
"2"
></a>
## 2. 模型快速体验
## 2. 模型快速体验
...
...
docs/zh_CN/models/ImageNet1k/Res2Net.md
浏览文件 @
94fe07d0
...
@@ -64,14 +64,14 @@ Res2Net 是 2019 年提出的一种全新的对 ResNet 的改进方案,该方
...
@@ -64,14 +64,14 @@ Res2Net 是 2019 年提出的一种全新的对 ResNet 的改进方案,该方
| Models | Size | Latency(ms)
<br>
bs=1 | Latency(ms)
<br>
bs=4 | Latency(ms)
<br>
bs=8 |
| Models | Size | Latency(ms)
<br>
bs=1 | Latency(ms)
<br>
bs=4 | Latency(ms)
<br>
bs=8 |
|-----------------------|-------------------|-----------------------|-----------------------|-----------------------|
|-----------------------|-------------------|-----------------------|-----------------------|-----------------------|
| Res2Net50_26w_4s | 224 | 3.
52 | 6.23 | 9.30
|
| Res2Net50_26w_4s | 224 | 3.
31 | 5.65 | 8.33
|
| Res2Net50_vd_26w_4s | 224 | 3.
59 | 6.35 | 9.50
|
| Res2Net50_vd_26w_4s | 224 | 3.
35 | 5.79 | 8.63
|
| Res2Net50_14w_8s | 224 | 4.
39 | 7.21 | 10.38
|
| Res2Net50_14w_8s | 224 | 4.
13 | 6.56 | 9.45
|
| Res2Net101_vd_26w_4s | 224 | 6.34 | 11.02 | 16.13 |
| Res2Net101_vd_26w_4s | 224 | 6.34 | 11.02 | 16.13 |
| Res2Net200_vd_26w_4s | 224 | 11.45 | 19.77 | 28.81 |
| Res2Net200_vd_26w_4s | 224 | 11.45 | 19.77 | 28.81 |
| Res2Net50_vd_26w_4s_ssld | 224 | 3.58 | 6.35 | 9.52 |
| Res2Net50_vd_26w_4s_ssld | 224 | 3.58 | 6.35 | 9.52 |
| Res2Net101_vd_26w_4s_ssld | 224 |
6.33 | 11.02 | 16.11
|
| Res2Net101_vd_26w_4s_ssld | 224 |
9.56 | 10.56 | 15.20
|
| Res2Net200_vd_26w_4s_ssld | 224 | 1
1.47 | 19.75 | 28.83
|
| Res2Net200_vd_26w_4s_ssld | 224 | 1
0.80 | 19.48 | 27.95
|
**备注:**
精度类型为 FP32,推理过程使用 TensorRT。
**备注:**
精度类型为 FP32,推理过程使用 TensorRT。
...
...
docs/zh_CN/models/ImageNet1k/ResNeSt.md
浏览文件 @
94fe07d0
...
@@ -49,8 +49,11 @@ ResNeSt 系列模型是在 2020 年提出的,在原有的 resnet 网络结构
...
@@ -49,8 +49,11 @@ ResNeSt 系列模型是在 2020 年提出的,在原有的 resnet 网络结构
| Models | Size | Latency(ms)
<br>
bs=1 | Latency(ms)
<br>
bs=4 | Latency(ms)
<br>
bs=8 |
| Models | Size | Latency(ms)
<br>
bs=1 | Latency(ms)
<br>
bs=4 | Latency(ms)
<br>
bs=8 |
| ---------------------- | ----------------- | ------------------------------ | ------------------------------ | ------------------------------ |
| ---------------------- | ----------------- | ------------------------------ | ------------------------------ | ------------------------------ |
| ResNeSt50_fast_1s1x64d | 224 | 2.73 | 5.33 | 8.24 |
| ResNeSt50_fast_1s1x64d | 224 | 2.43 | 4.34 | 6.96 |
| ResNeSt50 | 224 | 7.36 | 10.23 | 13.84 |
| ResNeSt50 | 224 | 13.08 | 16.38 | 23.18 |
| ResNeSt101 | 256 | 19.16 | 22.62 | 32.59 |
| ResNeSt200 | 224 | - | - | - |
| ResNeSt269 | 224 | - | - | - |
**备注:**
精度类型为 FP32,推理过程使用 TensorRT。
**备注:**
精度类型为 FP32,推理过程使用 TensorRT。
...
...
docs/zh_CN/models/ImageNet1k/ResNeXt.md
浏览文件 @
94fe07d0
...
@@ -72,14 +72,14 @@ ResNeXt 是 ResNet 的典型变种网络之一,ResNeXt 发表于 2017 年的 C
...
@@ -72,14 +72,14 @@ ResNeXt 是 ResNet 的典型变种网络之一,ResNeXt 发表于 2017 年的 C
| ResNeXt50_vd_32x4d | 224 | 5.29 | 8.68 | 12.33 |
| ResNeXt50_vd_32x4d | 224 | 5.29 | 8.68 | 12.33 |
| ResNeXt50_64x4d | 224 | 9.39 | 13.97 | 20.56 |
| ResNeXt50_64x4d | 224 | 9.39 | 13.97 | 20.56 |
| ResNeXt50_vd_64x4d | 224 | 9.75 | 14.14 | 20.84 |
| ResNeXt50_vd_64x4d | 224 | 9.75 | 14.14 | 20.84 |
| ResNeXt101_32x4d | 224 |
11.34 | 16.78 | 22.80
|
| ResNeXt101_32x4d | 224 |
4.81 | 17.60 | 22.98
|
| ResNeXt101_vd_32x4d | 224 |
11.36 | 17.01 | 23.07
|
| ResNeXt101_vd_32x4d | 224 |
4.85 | 17.50 | 23.11
|
| ResNeXt101_64x4d | 224 |
21.57 | 28.08 | 39.4
9 |
| ResNeXt101_64x4d | 224 |
10.88 | 20.17 | 41.7
9 |
| ResNeXt101_vd_64x4d | 224 |
21.57 | 28.22 | 39.70
|
| ResNeXt101_vd_64x4d | 224 |
7.34 | 22.46 | 41.79
|
| ResNeXt152_32x4d | 224 |
17.14 | 25.11 | 33.79
|
| ResNeXt152_32x4d | 224 |
7.09 | 27.16 | 34.32
|
| ResNeXt152_vd_32x4d | 224 |
16.99 | 25.29 | 33.85
|
| ResNeXt152_vd_32x4d | 224 |
4.85 | 26.83 | 34.48
|
| ResNeXt152_64x4d | 224 | 3
3.07 | 42.05 | 59.13
|
| ResNeXt152_64x4d | 224 | 3
.62 | 30.14 | 62.60
|
| ResNeXt152_vd_64x4d | 224 | 3
3.30 | 42.41 | 59.42
|
| ResNeXt152_vd_64x4d | 224 | 3
.68 | 30.30 | 62.94
|
**备注:**
精度类型为 FP32,推理过程使用 TensorRT。
**备注:**
精度类型为 FP32,推理过程使用 TensorRT。
...
...
docs/zh_CN/models/ImageNet1k/ResNeXt101_wsl.md
浏览文件 @
94fe07d0
...
@@ -61,10 +61,10 @@ ResNeXt 是 facebook 于 2016 年提出的一种对 ResNet 的改进版网络。
...
@@ -61,10 +61,10 @@ ResNeXt 是 facebook 于 2016 年提出的一种对 ResNet 的改进版网络。
| Models | Size | Latency(ms)
<br>
bs=1 | Latency(ms)
<br>
bs=4 | Latency(ms)
<br>
bs=8 |
| Models | Size | Latency(ms)
<br>
bs=1 | Latency(ms)
<br>
bs=4 | Latency(ms)
<br>
bs=8 |
|-------------------------------|-------------------|-------------------------------|-------------------------------|-------------------------------|
|-------------------------------|-------------------|-------------------------------|-------------------------------|-------------------------------|
| ResNeXt101_
<br>
32x8d_wsl | 224 | 1
3.55 | 23.39 | 36.18
|
| ResNeXt101_
<br>
32x8d_wsl | 224 | 1
5.85 | 23.61 | 35.60
|
| ResNeXt101_
<br>
32x16d_wsl | 224 | 2
1.96 | 38.35 | 63.29
|
| ResNeXt101_
<br>
32x16d_wsl | 224 | 2
0.58 | 37.38 | 66.45
|
| ResNeXt101_
<br>
32x32d_wsl | 224 |
37.28 | 76.50 | 121.56
|
| ResNeXt101_
<br>
32x32d_wsl | 224 |
49.87 | 86.16 | 120.14
|
| ResNeXt101_
<br>
32x48d_wsl | 224 |
55.07 | 124.39 | 205.01
|
| ResNeXt101_
<br>
32x48d_wsl | 224 |
69.81 | 121.22 | 205.55
|
| Fix_ResNeXt101_
<br>
32x48d_wsl | 320 | 55.01 | 122.63 | 204.66 |
| Fix_ResNeXt101_
<br>
32x48d_wsl | 320 | 55.01 | 122.63 | 204.66 |
**备注:**
精度类型为 FP32,推理过程使用 TensorRT。
**备注:**
精度类型为 FP32,推理过程使用 TensorRT。
...
...
docs/zh_CN/models/ImageNet1k/ResNet.md
浏览文件 @
94fe07d0
...
@@ -83,22 +83,22 @@ PaddleClas 提供的 ResNet 系列的模型包括 ResNet50,ResNet50_vd,ResNe
...
@@ -83,22 +83,22 @@ PaddleClas 提供的 ResNet 系列的模型包括 ResNet50,ResNet50_vd,ResNe
| Models | Size | Latency(ms)
<br>
bs=1 | Latency(ms)
<br>
bs=4 | Latency(ms)
<br>
bs=8 |
| Models | Size | Latency(ms)
<br>
bs=1 | Latency(ms)
<br>
bs=4 | Latency(ms)
<br>
bs=8 |
|:--:|:--:|:--:|:--:|:--:|
|:--:|:--:|:--:|:--:|:--:|
| ResNet18 | 224 | 1.
22 | 2.19 | 3.63
|
| ResNet18 | 224 | 1.
08 | 1.44 | 2.40
|
| ResNet18_vd | 224 | 1.
26 | 2.28 | 3.89
|
| ResNet18_vd | 224 | 1.
11 | 1.52 | 2.60
|
| ResNet34 | 224 | 1.
97 | 3.25 | 5.70
|
| ResNet34 | 224 | 1.
83 | 2.41 | 4.23
|
| ResNet34_vd | 224 |
2.00 | 3.28 | 5.84
|
| ResNet34_vd | 224 |
1.87 | 2.49 | 4.41
|
| ResNet34_vd_ssld | 224 | 2.00 | 3.26 | 5.85 |
| ResNet34_vd_ssld | 224 | 2.00 | 3.26 | 5.85 |
| ResNet50 | 224 | 2.
54 | 4.79 | 7.40
|
| ResNet50 | 224 | 2.
19 | 3.77 | 6.22
|
| ResNet50_vc | 224 | 2.57 | 4.83 | 7.52 |
| ResNet50_vc | 224 | 2.57 | 4.83 | 7.52 |
| ResNet50_vd | 224 | 2.
60 | 4.86 | 7.63
|
| ResNet50_vd | 224 | 2.
32 | 3.92 | 6.46
|
| ResNet101 | 224 | 4.
37 | 8.18 | 12.38
|
| ResNet101 | 224 | 4.
00 | 6.84 | 11.24
|
| ResNet101_vd | 224 | 4.
43 | 8.25 | 12.60
|
| ResNet101_vd | 224 | 4.
04 | 6.84 | 11.44
|
| ResNet152 | 224 |
6.05 | 11.41 | 17.33
|
| ResNet152 | 224 |
5.71 | 9.58 | 16.16
|
| ResNet152_vd | 224 |
6.11 | 11.51 | 17.59
|
| ResNet152_vd | 224 |
5.76 | 9.75 | 16.40
|
| ResNet200_vd | 224 | 7.
70 | 14.57 | 22.16
|
| ResNet200_vd | 224 | 7.
32 | 12.45 | 21.09
|
| SE_ResNet18_vd | 224 | 1.
48 | 2.70 | 4.3
2 |
| SE_ResNet18_vd | 224 | 1.
31 | 1.77 | 2.9
2 |
| SE_ResNet34_vd | 224 | 2.
42 | 3.69 | 6.29
|
| SE_ResNet34_vd | 224 | 2.
20 | 2.99 | 2.92
|
| SE_ResNet50_vd | 224 |
3.11 | 5.99 | 9.34
|
| SE_ResNet50_vd | 224 |
2.72 | 5.07 | 8.12
|
| ResNet50_vd_ssld | 224 | 2.59 | 4.87 | 7.62 |
| ResNet50_vd_ssld | 224 | 2.59 | 4.87 | 7.62 |
| ResNet101_vd_ssld | 224 | 4.43 | 8.25 | 12.58 |
| ResNet101_vd_ssld | 224 | 4.43 | 8.25 | 12.58 |
...
...
docs/zh_CN/models/ImageNet1k/SENet.md
浏览文件 @
94fe07d0
...
@@ -58,9 +58,9 @@ SENet 是 2017 年 ImageNet 分类比赛的冠军方案,其提出了一个全
...
@@ -58,9 +58,9 @@ SENet 是 2017 年 ImageNet 分类比赛的冠军方案,其提出了一个全
| Models | Size | Latency(ms)
<br>
bs=1 | Latency(ms)
<br>
bs=4 | Latency(ms)
<br>
bs=8 |
| Models | Size | Latency(ms)
<br>
bs=1 | Latency(ms)
<br>
bs=4 | Latency(ms)
<br>
bs=8 |
|-----------------------|-------------------|-----------------------|-----------------------|-----------------------|
|-----------------------|-------------------|-----------------------|-----------------------|-----------------------|
| SE_ResNeXt50_32x4d | 224 |
6.39 | 11.01 | 14.94
|
| SE_ResNeXt50_32x4d | 224 |
2.95 | 10.77 | 14.51
|
| SE_ResNeXt50_vd_32x4d | 224 |
7.04 | 11.57 | 16.01
|
| SE_ResNeXt50_vd_32x4d | 224 |
3.06 | 10.91 | 15.53
|
| SE_ResNeXt101_32x4d | 224 |
13.31 | 21.85 | 28.7
7 |
| SE_ResNeXt101_32x4d | 224 |
5.78 | 21.04 | 28.6
7 |
**备注:**
精度类型为 FP32,推理过程使用 TensorRT。
**备注:**
精度类型为 FP32,推理过程使用 TensorRT。
...
...
docs/zh_CN/models/ImageNet1k/Twins.md
浏览文件 @
94fe07d0
...
@@ -49,12 +49,12 @@ Twins 网络包括 Twins-PCPVT 和 Twins-SVT,其重点对空间注意力机制
...
@@ -49,12 +49,12 @@ Twins 网络包括 Twins-PCPVT 和 Twins-SVT,其重点对空间注意力机制
| Models | Size | Latency(ms)
<br>
bs=1 | Latency(ms)
<br>
bs=4 | Latency(ms)
<br>
bs=8 |
| Models | Size | Latency(ms)
<br>
bs=1 | Latency(ms)
<br>
bs=4 | Latency(ms)
<br>
bs=8 |
| ------------- | ----------------- | ------------------------------ | ------------------------------ | ------------------------------ |
| ------------- | ----------------- | ------------------------------ | ------------------------------ | ------------------------------ |
| pcpvt_small | 224 |
7.32
| 10.51 | 15.27 |
| pcpvt_small | 224 |
5.74
| 10.51 | 15.27 |
| pcpvt_base | 224 |
12.20
| 16.22 | 23.16 |
| pcpvt_base | 224 |
8.44
| 16.22 | 23.16 |
| pcpvt_large | 224 | 16.47 | 22.90 | 32.73 |
| pcpvt_large | 224 | 16.47 | 22.90 | 32.73 |
| alt_gvt_small | 224 |
6.94 | 9.01 | 12.27
|
| alt_gvt_small | 224 |
4.93 | 9.01 | 10.02
|
| alt_gvt_base | 224 |
9.37 | 15.02 | 24.54
|
| alt_gvt_base | 224 |
7.48 | 12.60 | 19.93
|
| alt_gvt_large | 224 |
11.76 | 22.08 | 35.12
|
| alt_gvt_large | 224 |
9.28 | 18.72 | 31.18
|
**备注:**
精度类型为 FP32,推理过程使用 TensorRT。
**备注:**
精度类型为 FP32,推理过程使用 TensorRT。
...
...
docs/zh_CN/models/ImageNet1k/UniFormer.md
浏览文件 @
94fe07d0
...
@@ -38,9 +38,24 @@ UniFormer 是一种新的视觉 Transformer 网络,可以用作计算机视觉
...
@@ -38,9 +38,24 @@ UniFormer 是一种新的视觉 Transformer 网络,可以用作计算机视觉
| UniFormer_base | 0.8376 | 0.9672 | 0.839 | - | 7.77 | 49.78 |
| UniFormer_base | 0.8376 | 0.9672 | 0.839 | - | 7.77 | 49.78 |
| UniFormer_base_ls | 0.8398 | 0.9675 | 0.839 | 0.967 | 7.77 | 49.78 |
| UniFormer_base_ls | 0.8398 | 0.9675 | 0.839 | 0.967 | 7.77 | 49.78 |
**备注:**
PaddleClas 所提供的该系列模型的预训练模型权重,均是基于其官方提供的权重转得。
**备注:**
PaddleClas 所提供的该系列模型的预训练模型权重,均是基于其官方提供的权重转得。
### 1.3 Benchmark
<a
name=
'1.3.1'
></a>
#### 1.3.1 基于 V100 GPU 的预测速度
| Models | Size | Latency(ms)
<br>
bs=1 | Latency(ms)
<br>
bs=4 | Latency(ms)
<br>
bs=8 |
| -------- | --------- | ----------------- | ------------------------------ | ------------------------------ | ------------------------------ |
| UniFormer_small | 224 | 3.68 | 5.93 | 9.64 |
| UniFormer_small_plus | 224 | 4.12 | 7.03 | 11.59 |
| UniFormer_small_plus_dim64 | 224 | 3.91 | 6.56 | 10.69 |
| UniFormer_base | 224 | 8.19 | 12.98 | 21.29 |
| UniFormer_base_ls | 224 | 14.79 | - | 22.20 |
**备注:**
精度类型为 FP32,推理过程使用 TensorRT。
<a
name=
"2"
></a>
<a
name=
"2"
></a>
## 2. 模型快速体验
## 2. 模型快速体验
...
...
docs/zh_CN/models/ImageNet1k/VAN.md
浏览文件 @
94fe07d0
...
@@ -45,7 +45,14 @@ VAN(Visual Attention Network)系列模型是在 2022 年提出的 CNN 架构
...
@@ -45,7 +45,14 @@ VAN(Visual Attention Network)系列模型是在 2022 年提出的 CNN 架构
#### 1.3.1 基于 V100 GPU 的预测速度
#### 1.3.1 基于 V100 GPU 的预测速度
敬请期待。
| Models | Size | Latency(ms)
<br>
bs=1 | Latency(ms)
<br>
bs=4 | Latency(ms)
<br>
bs=8 |
|-------------|-----------|-------------------|-------------------|-------------------|-------------------|
| VAN-B0 | 224 | 9.58 | 10.21 | 10.78 |
| VAN-B1 | 224 | 8.24 | 8.74 | 9.85 |
| VAN-B2 | 224 | 17.09 | 18.48 | 19.32 |
| VAN-B3 | 224 | 32.09 | 33.91 | 36.13 |
**备注:**
精度类型为 FP32,推理过程使用 TensorRT。
<a
name=
"2"
></a>
<a
name=
"2"
></a>
...
...
docs/zh_CN/models/ImageNet1k/VGG.md
浏览文件 @
94fe07d0
...
@@ -48,10 +48,10 @@ VGG 由牛津大学计算机视觉组和 DeepMind 公司研究员一起研发的
...
@@ -48,10 +48,10 @@ VGG 由牛津大学计算机视觉组和 DeepMind 公司研究员一起研发的
| Models | Size | Latency(ms)
<br>
bs=1 | Latency(ms)
<br>
bs=4 | Latency(ms)
<br>
bs=8 |
| Models | Size | Latency(ms)
<br>
bs=1 | Latency(ms)
<br>
bs=4 | Latency(ms)
<br>
bs=8 |
|---------------------------|-------------------|-------------------|-------------------|-------------------|
|---------------------------|-------------------|-------------------|-------------------|-------------------|
| VGG11 | 224 | 1.
72 | 4.15 | 7.2
4 |
| VGG11 | 224 | 1.
54 | 3.71 | 6.6
4 |
| VGG13 | 224 |
2.02 | 5.28 | 9.54
|
| VGG13 | 224 |
1.83 | 4.96 | 9.16
|
| VGG16 | 224 | 2.
48 | 6.79 | 12.33
|
| VGG16 | 224 | 2.
28 | 6.56 | 12.25
|
| VGG19 | 224 | 2.
93 | 8.28 | 15.21
|
| VGG19 | 224 | 2.
73 | 8.18 | 15.33
|
**备注:**
精度类型为 FP32,推理过程使用 TensorRT。
**备注:**
精度类型为 FP32,推理过程使用 TensorRT。
...
...
docs/zh_CN/models/ImageNet1k/ViT.md
浏览文件 @
94fe07d0
...
@@ -52,13 +52,13 @@ ViT(Vision Transformer)系列模型是 Google 在 2020 年提出的,该模
...
@@ -52,13 +52,13 @@ ViT(Vision Transformer)系列模型是 Google 在 2020 年提出的,该模
| Models | Size | Latency(ms)
<br>
bs=1 | Latency(ms)
<br>
bs=4 | Latency(ms)
<br>
bs=8 |
| Models | Size | Latency(ms)
<br>
bs=1 | Latency(ms)
<br>
bs=4 | Latency(ms)
<br>
bs=8 |
| -------------------------- | --------- | ----------------- | ------------------------------ | ------------------------------ | ------------------------------ |
| -------------------------- | --------- | ----------------- | ------------------------------ | ------------------------------ | ------------------------------ |
| ViT_small_
<br/>
patch16_224 | 224 | 3.
71 | 9.05 | 16.72
|
| ViT_small_
<br/>
patch16_224 | 224 | 3.
81 | 8.65 | 15.80
|
| ViT_base_
<br/>
patch16_224 | 224 |
6.12 | 14.84 | 28.51
|
| ViT_base_
<br/>
patch16_224 | 224 |
5.93 | 15.46 | 27.14
|
| ViT_base_
<br/>
patch16_384 | 384 | 1
4.15 | 48.38 | 95.06
|
| ViT_base_
<br/>
patch16_384 | 384 | 1
3.78 | 45.59 | 88.65
|
| ViT_base_
<br/>
patch32_384 | 384 |
4.94 | 13.43 | 24.08
|
| ViT_base_
<br/>
patch32_384 | 384 |
5.29 | 12.33 | 22.44
|
| ViT_large_
<br/>
patch16_224 | 224 | 15.5
3 | 49.50 | 94.09
|
| ViT_large_
<br/>
patch16_224 | 224 | 15.5
7 | 49.66 | 91.45
|
| ViT_large_
<br/>
patch16_384 | 384 | 3
9.51 | 152.46 | 304.06
|
| ViT_large_
<br/>
patch16_384 | 384 | 3
8.67 | 142.57 | 282.87
|
| ViT_large_
<br/>
patch32_384 | 384 | 1
1.44 | 36.09 | 70.63
|
| ViT_large_
<br/>
patch32_384 | 384 | 1
2.07 | 34.53 | 65.81
|
**备注:**
精度类型为 FP32,推理过程使用 TensorRT。
**备注:**
精度类型为 FP32,推理过程使用 TensorRT。
...
...
编辑
预览
Markdown
is supported
0%
请重试
或
添加新附件
.
添加附件
取消
You are about to add
0
people
to the discussion. Proceed with caution.
先完成此消息的编辑!
取消
想要评论请
注册
或
登录