diff --git a/README_ch.md b/README_ch.md index 85c286e6f3d6e6c01476c18fc448b8a718101f81..69af3fee572eb1aac2718f0bd6ee3bc6862e03c6 100644 --- a/README_ch.md +++ b/README_ch.md @@ -7,7 +7,7 @@ 飞桨图像识别套件PaddleClas是飞桨为工业界和学术界所准备的一个图像识别任务的工具集,助力使用者训练出更好的视觉模型和应用落地。 **近期更新** -- 2021.09.17 增加PaddleClas自研PP-LCNet系列模型, 这些模型在Intel CPU上有较强的竞争力。PP-LCNet的介绍可以参考[论文](https://arxiv.org/pdf/2109.15099.pdf)或者[模型介绍](docs/zh_CN/models/PPLCNet.md),相关指标和预训练权重可以从 [这里](docs/zh_CN/ImageNet_models_zh.md)下载。 +- 2021.09.17 增加PaddleClas自研PP-LCNet系列模型, 这些模型在Intel CPU上有较强的竞争力。PP-LCNet的介绍可以参考[论文](https://arxiv.org/pdf/2109.15099.pdf)或者[模型介绍](docs/zh_CN/models/PPLCNet.md),相关指标和预训练权重可以从 [这里](docs/zh_CN/ImageNet_models_cn.md)下载。 - 2021.08.11 更新7个[FAQ](docs/zh_CN/faq_series/faq_2021_s2.md)。 - 2021.06.29 添加Swin-transformer系列模型,ImageNet1k数据集上Top1 acc最高精度可达87.2%;支持训练预测评估与whl包部署,预训练模型可以从[这里](docs/zh_CN/models/models_intro.md)下载。 - 2021.06.22,23,24 PaddleClas官方研发团队带来技术深入解读三日直播课。课程回放:[https://aistudio.baidu.com/aistudio/course/introduce/24519](https://aistudio.baidu.com/aistudio/course/introduce/24519) diff --git a/docs/images/PP-LCNet/PP-LCNet-Acc.png b/docs/images/PP-LCNet/PP-LCNet-Acc.png new file mode 100644 index 0000000000000000000000000000000000000000..57c6da662043c32c91e502703e49dc9e307e727a Binary files /dev/null and b/docs/images/PP-LCNet/PP-LCNet-Acc.png differ diff --git a/docs/images/PP-LCNet/PP-LCNet.png b/docs/images/PP-LCNet/PP-LCNet.png new file mode 100644 index 0000000000000000000000000000000000000000..df35aa7987e1b6430a37adf79e0d7d2be69eeb02 Binary files /dev/null and b/docs/images/PP-LCNet/PP-LCNet.png differ diff --git a/docs/zh_CN/models/PPLCNet.md b/docs/zh_CN/models/PPLCNet.md index 7d7eea3d34aac2d678ba1dc908c87d84d4f71a6e..22f6a3ab1ec13f7a4cc78440209c1a89eefa1fe8 100644 --- a/docs/zh_CN/models/PPLCNet.md +++ b/docs/zh_CN/models/PPLCNet.md @@ -7,10 +7,15 @@ ## 介绍 近年来,有很多轻量级的骨干网络问世,尤其最近两年,各种NAS搜索出的网络层出不穷,这些网络要么主打FLOPs或者Params上的优势,要么主打ARM设备上的推理速度的优势,很少有网络专门针对Intel CPU做特定的优化,导致这些网络在Intel CPU端的推理速度并不是很完美。基于此,我们针对Intel CPU设备以及其加速库MKLDNN设计了特定的骨干网络PP-LCNet,比起其他的轻量级的SOTA模型,该骨干网络可以在不增加推理时间的情况下,进一步提升模型的性能,最终大幅度超越现有的SOTA模型。与其他模型的对比图如下。 +![](../../images/PP-LCNet/PP-LCNet-Acc.png) ## 方法 -网络结构整体如上图所示,我们经过大量的实验发现,在基于Intel CPU设备上,尤其当启用MKLDNN加速库后,很多看似不太耗时的操作反而会增加延时,比如elementwise-add操作、split-concat结构等。所以最终我们选用了结构尽可能精简、速度尽可能快的block组成我们的BaseNet(类似MobileNetV1)。基于BaseNet,我们通过实验,总结了四条几乎不增加延时但是可以提升模型精度的方法,融合这四条策略,我们组合成了PP-LCNet。下面对这四条策略一一介绍: +网络结构整体如下图所示。 +![](../../images/PP-LCNet/PP-LCNet.png) + +我们经过大量的实验发现,在基于Intel CPU设备上,尤其当启用MKLDNN加速库后,很多看似不太耗时的操作反而会增加延时,比如elementwise-add操作、split-concat结构等。所以最终我们选用了结构尽可能精简、速度尽可能快的block组成我们的BaseNet(类似MobileNetV1)。基于BaseNet,我们通过实验,总结了四条几乎不增加延时但是可以提升模型精度的方法,融合这四条策略,我们组合成了PP-LCNet。下面对这四条策略一一介绍: + ### 更好的激活函数