Skip to content
体验新版
项目
组织
正在加载...
登录
切换导航
打开侧边栏
PaddlePaddle
PaddleClas
提交
7f292a9d
P
PaddleClas
项目概览
PaddlePaddle
/
PaddleClas
大约 2 年 前同步成功
通知
118
Star
4999
Fork
1114
代码
文件
提交
分支
Tags
贡献者
分支图
Diff
Issue
19
列表
看板
标记
里程碑
合并请求
6
Wiki
0
Wiki
分析
仓库
DevOps
项目成员
Pages
P
PaddleClas
项目概览
项目概览
详情
发布
仓库
仓库
文件
提交
分支
标签
贡献者
分支图
比较
Issue
19
Issue
19
列表
看板
标记
里程碑
合并请求
6
合并请求
6
Pages
分析
分析
仓库分析
DevOps
Wiki
0
Wiki
成员
成员
收起侧边栏
关闭侧边栏
动态
分支图
创建新Issue
提交
Issue看板
提交
7f292a9d
编写于
6月 20, 2022
作者:
G
gaotingquan
提交者:
Tingquan Gao
9月 01, 2022
浏览文件
操作
浏览文件
下载
电子邮件补丁
差异文件
docs: update metrics
上级
3a74e410
变更
5
显示空白变更内容
内联
并排
Showing
5 changed file
with
45 addition
and
53 deletion
+45
-53
docs/zh_CN/models/LeViT.md
docs/zh_CN/models/LeViT.md
+1
-1
docs/zh_CN/models/PVTV2.md
docs/zh_CN/models/PVTV2.md
+7
-7
docs/zh_CN/models/SwinTransformer.md
docs/zh_CN/models/SwinTransformer.md
+23
-26
docs/zh_CN/models/Twins.md
docs/zh_CN/models/Twins.md
+6
-8
docs/zh_CN/models/ViT_and_DeiT.md
docs/zh_CN/models/ViT_and_DeiT.md
+8
-11
未找到文件。
docs/zh_CN/models/LeViT.md
浏览文件 @
7f292a9d
...
...
@@ -18,7 +18,7 @@ LeViT 是一种快速推理的、用于图像分类任务的混合神经网络
| Models | Top1 | Top5 | Reference
<br>
top1 | Reference
<br>
top5 | FLOPS
<br>
(M) | Params
<br>
(M) |
|:--:|:--:|:--:|:--:|:--:|:--:|:--:|
| LeViT-128S | 0.7598 | 0.9269 | 0.766 | 0.929 | 305 | 7.8 |
| LeViT-128 | 0.7810 | 0.937
1
| 0.786 | 0.940 | 406 | 9.2 |
| LeViT-128 | 0.7810 | 0.937
2
| 0.786 | 0.940 | 406 | 9.2 |
| LeViT-192 | 0.7934 | 0.9446 | 0.800 | 0.947 | 658 | 11 |
| LeViT-256 | 0.8085 | 0.9497 | 0.816 | 0.954 | 1120 | 19 |
| LeViT-384 | 0.8191 | 0.9551 | 0.826 | 0.960 | 2353 | 39 |
...
...
docs/zh_CN/models/PVTV2.md
浏览文件 @
7f292a9d
...
...
@@ -18,10 +18,10 @@ PVTV2 是 VisionTransformer 系列模型,该模型基于 PVT(Pyramid Vision
| Models | Top1 | Top5 | Reference
<br>
top1 | Reference
<br>
top5 | FLOPS
<br>
(G) | Params
<br>
(M) |
|:--:|:--:|:--:|:--:|:--:|:--:|:--:|
| PVT_V2_B0 | 0.705
| 0.902
| 0.705 | - | 0.53 | 3.7 |
| PVT_V2_B1 | 0.78
7 | 0.945
| 0.787 | - | 2.0 | 14.0 |
| PVT_V2_B2 | 0.82
1 | 0.960
| 0.820 | - | 3.9 | 25.4 |
| PVT_V2_B3 | 0.831
| 0.965
| 0.831 | - | 6.7 | 45.2 |
| PVT_V2_B4 | 0.836
| 0.967
| 0.836 | - | 9.8 | 62.6 |
| PVT_V2_B5 | 0.837
| 0.966
| 0.838 | - | 11.4 | 82.0 |
| PVT_V2_B2_Linear | 0.82
1 | 0.961 | 0.821
| - | 3.8 | 22.6 |
| PVT_V2_B0 | 0.705
2 | 0.9016
| 0.705 | - | 0.53 | 3.7 |
| PVT_V2_B1 | 0.78
69 | 0.9450
| 0.787 | - | 2.0 | 14.0 |
| PVT_V2_B2 | 0.82
06 | 0.9599
| 0.820 | - | 3.9 | 25.4 |
| PVT_V2_B3 | 0.831
0 | 0.9648
| 0.831 | - | 6.7 | 45.2 |
| PVT_V2_B4 | 0.836
1 | 0.9666
| 0.836 | - | 9.8 | 62.6 |
| PVT_V2_B5 | 0.837
4 | 0.9662
| 0.838 | - | 11.4 | 82.0 |
| PVT_V2_B2_Linear | 0.82
05 | 0.9605 | 0.820
| - | 3.8 | 22.6 |
docs/zh_CN/models/SwinTransformer.md
浏览文件 @
7f292a9d
...
...
@@ -33,19 +33,17 @@ Swin Transformer 是一种新的视觉 Transformer 网络,可以用作计算
| Models | Top1 | Top5 | Reference
<br>
top1 | Reference
<br>
top5 | FLOPs
<br>
(G) | Params
<br>
(M) |
|:--:|:--:|:--:|:--:|:--:|:--:|:--:|
| SwinTransformer_tiny_patch4_window7_224 | 0.8
069 | 0.9534
| 0.812 | 0.955 | 4.5 | 28 |
| SwinTransformer_small_patch4_window7_224 | 0.8
275 | 0.9613
| 0.832 | 0.962 | 8.7 | 50 |
| SwinTransformer_base_patch4_window7_224 | 0.83
00 | 0.9626
| 0.835 | 0.965 | 15.4 | 88 |
| SwinTransformer_base_patch4_window12_384 | 0.84
39 | 0.9693
| 0.845 | 0.970 | 47.1 | 88 |
| SwinTransformer_base_patch4_window7_224
<sup>
[1]
</sup>
| 0.8
487 | 0.9746
| 0.852 | 0.975 | 15.4 | 88 |
| SwinTransformer_base_patch4_window12_384
<sup>
[1]
</sup>
| 0.86
42 | 0.9807
| 0.864 | 0.980 | 47.1 | 88 |
| SwinTransformer_large_patch4_window7_224
<sup>
[1]
</sup>
| 0.8
596 | 0.9783
| 0.863 | 0.979 | 34.5 | 197 |
| SwinTransformer_large_patch4_window12_384
<sup>
[1]
</sup>
| 0.87
19 | 0.9823
| 0.873 | 0.982 | 103.9 | 197 |
| SwinTransformer_tiny_patch4_window7_224 | 0.8
110 | 0.9549
| 0.812 | 0.955 | 4.5 | 28 |
| SwinTransformer_small_patch4_window7_224 | 0.8
321 | 0.9622
| 0.832 | 0.962 | 8.7 | 50 |
| SwinTransformer_base_patch4_window7_224 | 0.83
37 | 0.9643
| 0.835 | 0.965 | 15.4 | 88 |
| SwinTransformer_base_patch4_window12_384 | 0.84
17 | 0.9674
| 0.845 | 0.970 | 47.1 | 88 |
| SwinTransformer_base_patch4_window7_224
<sup>
[1]
</sup>
| 0.8
516 | 0.9748
| 0.852 | 0.975 | 15.4 | 88 |
| SwinTransformer_base_patch4_window12_384
<sup>
[1]
</sup>
| 0.86
34 | 0.9798
| 0.864 | 0.980 | 47.1 | 88 |
| SwinTransformer_large_patch4_window7_224
<sup>
[1]
</sup>
| 0.8
619 | 0.9788
| 0.863 | 0.979 | 34.5 | 197 |
| SwinTransformer_large_patch4_window12_384
<sup>
[1]
</sup>
| 0.87
06 | 0.9814
| 0.873 | 0.982 | 103.9 | 197 |
[1]:基于 ImageNet22k 数据集预训练,然后在 ImageNet1k 数据集迁移学习得到。
**注**
:与 Reference 的精度差异源于数据预处理不同。
<a
name=
'3'
></a>
### 1.3 Benchmark
...
...
@@ -131,4 +129,3 @@ PaddleClas 提供了基于 Paddle Lite 来完成模型端侧部署的示例,
Paddle2ONNX 支持将 PaddlePaddle 模型格式转化到 ONNX 模型格式。通过 ONNX 可以完成将 Paddle 模型到多种推理引擎的部署,包括TensorRT/OpenVINO/MNN/TNN/NCNN,以及其它对 ONNX 开源格式进行支持的推理引擎或硬件。更多关于 Paddle2ONNX 的介绍,可以参考
[
Paddle2ONNX 代码仓库
](
https://github.com/PaddlePaddle/Paddle2ONNX
)
。
PaddleClas 提供了基于 Paddle2ONNX 来完成 inference 模型转换 ONNX 模型并作推理预测的示例,您可以参考
[
Paddle2ONNX 模型转换与预测
](
@shuilong
)
来完成相应的部署工作。
docs/zh_CN/models/Twins.md
浏览文件 @
7f292a9d
...
...
@@ -17,14 +17,12 @@ Twins 网络包括 Twins-PCPVT 和 Twins-SVT,其重点对空间注意力机制
| Models | Top1 | Top5 | Reference
<br>
top1 | Reference
<br>
top5 | FLOPs
<br>
(G) | Params
<br>
(M) |
|:--:|:--:|:--:|:--:|:--:|:--:|:--:|
| pcpvt_small | 0.8082 | 0.9552 | 0.812 | - | 3.7 | 24.1 |
| pcpvt_base | 0.8242 | 0.9619 | 0.827 | - | 6.4 | 43.8 |
| pcpvt_large | 0.8273 | 0.9650 | 0.831 | - | 9.5 | 60.9 |
| alt_gvt_small | 0.8140 | 0.9546 | 0.817 | - | 2.8 | 24 |
| alt_gvt_base | 0.8294 | 0.9621 | 0.832 | - | 8.3 | 56 |
| alt_gvt_large | 0.8331 | 0.9642 | 0.837 | - | 14.8 | 99.2 |
**注**
:与 Reference 的精度差异源于数据预处理不同。
| pcpvt_small | 0.8115 | 0.9567 | 0.812 | - | 3.7 | 24.1 |
| pcpvt_base | 0.8268 | 0.9627 | 0.827 | - | 6.4 | 43.8 |
| pcpvt_large | 0.8306 | 0.9659 | 0.831 | - | 9.5 | 60.9 |
| alt_gvt_small | 0.8177 | 0.9557 | 0.817 | - | 2.8 | 24 |
| alt_gvt_base | 0.8315 | 0.9629 | 0.832 | - | 8.3 | 56 |
| alt_gvt_large | 0.8364 | 0.9651 | 0.837 | - | 14.8 | 99.2 |
<a
name=
'3'
></a>
...
...
docs/zh_CN/models/ViT_and_DeiT.md
浏览文件 @
7f292a9d
...
...
@@ -32,16 +32,14 @@ DeiT(Data-efficient Image Transformers)系列模型是由 FaceBook 在 2020
| Models | Top1 | Top5 | Reference
<br>
top1 | Reference
<br>
top5 | FLOPS
<br>
(G) | Params
<br>
(M) |
|:--:|:--:|:--:|:--:|:--:|:--:|:--:|
| DeiT_tiny_patch16_224 | 0.718 | 0.910 | 0.722 | 0.911 | 1.07 | 5.68 |
| DeiT_small_patch16_224 | 0.796 | 0.949 | 0.799 | 0.950 | 4.24 | 21.97 |
| DeiT_base_patch16_224 | 0.817 | 0.957 | 0.818 | 0.956 | 16.85 | 86.42 |
| DeiT_base_patch16_384 | 0.830 | 0.962 | 0.829 | 0.972 | 49.35 | 86.42 |
| DeiT_tiny_distilled_patch16_224 | 0.741 | 0.918 | 0.745 | 0.919 | 1.08 | 5.87 |
| DeiT_small_distilled_patch16_224 | 0.809 | 0.953 | 0.812 | 0.954 | 4.26 | 22.36 |
| DeiT_base_distilled_patch16_224 | 0.831 | 0.964 | 0.834 | 0.965 | 16.93 | 87.18 |
| DeiT_base_distilled_patch16_384 | 0.851 | 0.973 | 0.852 | 0.972 | 49.43 | 87.18 |
关于 Params、FLOPs、Inference speed 等信息,敬请期待。
| DeiT_tiny_patch16_224 | 0.7208 | 0.9112 | 0.722 | 0.911 | 1.07 | 5.68 |
| DeiT_small_patch16_224 | 0.7982 | 0.9495 | 0.799 | 0.950 | 4.24 | 21.97 |
| DeiT_base_patch16_224 | 0.8180 | 0.9558 | 0.818 | 0.956 | 16.85 | 86.42 |
| DeiT_base_patch16_384 | 0.8289 | 0.9624 | 0.829 | 0.972 | 49.35 | 86.42 |
| DeiT_tiny_distilled_patch16_224 | 0.7449 | 0.9192 | 0.745 | 0.919 | 1.08 | 5.87 |
| DeiT_small_distilled_patch16_224 | 0.8117 | 0.9538 | 0.812 | 0.954 | 4.26 | 22.36 |
| DeiT_base_distilled_patch16_224 | 0.8330 | 0.9647 | 0.834 | 0.965 | 16.93 | 87.18 |
| DeiT_base_distilled_patch16_384 | 0.8520 | 0.9720 | 0.852 | 0.972 | 49.43 | 87.18 |
<a
name=
'3'
></a>
...
...
@@ -67,4 +65,3 @@ DeiT(Data-efficient Image Transformers)系列模型是由 FaceBook 在 2020
| DeiT_small_
<br>
distilled_patch16_224 | 256 | 224 | 3.70 | 6.20 | 10.53 |
| DeiT_base_
<br>
distilled_patch16_224 | 256 | 224 | 6.17 | 14.94 | 28.58 |
| DeiT_base_
<br>
distilled_patch16_384 | 384 | 384 | 14.12 | 48.76 | 97.09 |
编辑
预览
Markdown
is supported
0%
请重试
或
添加新附件
.
添加附件
取消
You are about to add
0
people
to the discussion. Proceed with caution.
先完成此消息的编辑!
取消
想要评论请
注册
或
登录