未验证 提交 aeda8744 编写于 作者: T Teng Xi 提交者: GitHub

Add slim x readme (#455)

上级 6464b878
# SlimX系列小模型
PaddleSlim模型压缩工具在人脸识别,OCR,通用任务分类任务,检测任务等多个任务上都发布了SlimX系列小模型:
- `SlimMobileNet系列`
- `SlimFaceNet系列`
## SlimMobileNet系列指标
SlimMobileNet基于百度自研的[GP-NAS论文](https://openaccess.thecvf.com/content_CVPR_2020/papers/Li_GP-NAS_Gaussian_Process_Based_Neural_Architecture_Search_CVPR_2020_paper.pdf)(CVPR2020)AutoDL技术以及自研的蒸馏技术得到。
相比于MobileNetV3, SlimMobileNet_V1在精度提升1.7个点的情况下Flops可以压缩138%。
由于精度比MobileNetV3高出了1.7个点,SlimMobileNet_V1量化后精度仍然高于MobileNetV3。量化后SlimMobileNet_V1可以在精度高于MobileNetV3的情况下Flops压缩552%。SlimMobileNet_V4_x1_1为业界首次发布的Flops 300M以下,ImagenetNet精度超过80%的分类小模型。
|Method|Flops(M)|Top1 Acc|
|------|-----|-----|
|MobileNetV3_large_x1_0|225|75.2|
|MobileNetV3_large_x1_25|357|76.6|
|GhostNet_x1_3|220|75.7|
|SlimMobileNet_V1|163|76.9|
|SlimMobileNet_V4_x1_1|296|80.1|
|SlimMobileNet_V5|390|80.4|
## [SlimFaceNet](https://github.com/PaddlePaddle/PaddleSlim/tree/develop/demo/slimfacenet/README.md)系列指标
SlimFaceNet同样是基于百度自研的GP-NAS AutoDL技术以及百度自研的自监督超网络训练算法得到。相比于MobileNetV2,SlimFaceNet_A_x0_60 flops压缩216%,在RK3288上加速428%。基于PaddleSlim的离线量化功能还可以进一步压缩模型,相比于MobileNetV2,SlimFaceNet_A_x0_60_quant flops可以压缩865%,在RK3288硬件上可以加速643%。为了对齐论文,LFW指标为112x96输入下的结果;结合业务场景,Flops和speed为112x112输入下的结果,延时为RK3288上的延时。
|Method|LFW|Flops|speed|
|------|-----|-----|-----|
|MobileNetV2|98.58%|277M|270ms|
|MobileFaceNet|99.18%|224M|102ms|
|SlimFaceNet_A_x0_60|99.21%|128M|63ms|
|SlimFaceNet_B_x0_75|99.22%|151M|70ms|
|SlimFaceNet_A_x0_60_quant|99.17%|32M|42ms|
|SlimFaceNet_B_x0_75_quant|99.21%|38M|45ms|
## 业界领先的AutoDL技术
GP-NAS从贝叶斯角度来建模NAS,并为不同的搜索空间设计了定制化的高斯过程均值函数和核函数。 具体来说,基于GP-NAS的超参数,我们有能力高效率的预测搜索空间中任意模型结构的性能。 从而,模型结构自动搜索问题就被转
换为GP-NAS高斯过程的超参数估计问题。接下来,通过互信息最大化采样算法,我们可以有效地对模型结构进行采样。 因此,根据采样网络的性能,我们可以有效的逐步更新GP-NAS超参数的后验分布。基于估计出的GP-NAS超参数,
我们可以预测出满足特定延时约束的最优的模型结构,更详细的技术细节请参考GP-NAS论文。
Markdown is supported
0% .
You are about to add 0 people to the discussion. Proceed with caution.
先完成此消息的编辑!
想要评论请 注册