diff --git a/README.md b/README.md index b472d3165a8fdd57dc89cd6c6f8d43f6bea8423c..68b203b9da5bbcd35eb54b595900bef9a683a859 100644 --- a/README.md +++ b/README.md @@ -44,7 +44,7 @@ PaddleSlim会从底层能力、技术咨询合作和业务场景等角度支持 AMC Pruner: He, Yihui , et al. "AMC: AutoML for Model Compression and Acceleration on Mobile Devices." (2018).
  • - FFPGM Pruner: He Y , Liu P , Wang Z , et al. Filter Pruning via Geometric Median for Deep Convolutional Neural Networks Acceleration[C]// IEEE/CVF Conference on Computer Vision & Pattern Recognition. IEEE, 2019. + FPGM Pruner: He Y , Liu P , Wang Z , et al. Filter Pruning via Geometric Median for Deep Convolutional Neural Networks Acceleration[C]// IEEE/CVF Conference on Computer Vision & Pattern Recognition. IEEE, 2019.
  • Slim Pruner: Liu Z , Li J , Shen Z , et al. Learning Efficient Convolutional Networks through Network Slimming[J]. 2017. diff --git a/demo/ocr/README.md b/demo/ocr/README.md index 32a3e1ac056bf61494954833a041606c1cd76bbe..959c066fd02699e00bba729773c4b62c14208f23 100755 --- a/demo/ocr/README.md +++ b/demo/ocr/README.md @@ -177,7 +177,7 @@ MobileNetV3_CRNN模型包含一个LSTM组件,因为暂时不支持对LSTM进 在对OCR文字检测模型进行裁剪敏感度分析时,分析对象为除depthwise convolution外的所有普通卷积层,裁剪的criterion被设置为'geometry_median',pruned_ratios推荐设置为[0.1, 0.2, 0.3, 0.4, 0.5, 0.6, 0.7, 0.8]。 ### 裁剪与finetune - 裁剪时通过之前的敏感度分析文件决定每个网络层的裁剪比例。在具体实现时,为了尽可能多的保留从图像中提取的低阶特征,我们跳过了backbone中靠近输入的4个卷积层。同样,为了减少由于裁剪导致的模型性能损失,我们通过之间敏感度分析所获得敏感度表,挑选出了一些冗余较少,对裁剪较为敏感[网络层](https://github.com/PaddlePaddle/PaddleOCR/blob/develop/deploy/slim/prune/pruning_and_finetune.py#L41),并在之后的裁剪过程中选择避开这些网络层。裁剪过后finetune的过程沿用OCR检测模型原始的训练策略。 + 裁剪时通过之前的敏感度分析文件决定每个网络层的裁剪比例。在具体实现时,为了尽可能多的保留从图像中提取的低阶特征,我们跳过了backbone中靠近输入的4个卷积层。同样,为了减少由于裁剪导致的模型性能损失,我们通过之前敏感度分析所获得敏感度表,挑选出了一些冗余较少,对裁剪较为敏感[网络层](https://github.com/PaddlePaddle/PaddleOCR/blob/develop/deploy/slim/prune/pruning_and_finetune.py#L41),并在之后的裁剪过程中选择避开这些网络层。裁剪过后finetune的过程沿用OCR检测模型原始的训练策略。 更多OCR剪裁教程请参考[OCR模剪裁压缩教程](https://github.com/PaddlePaddle/PaddleOCR/blob/develop/deploy/slim/prune/README.md)