From ecb1660b90ff7f3328dcdbec78c4499a79592875 Mon Sep 17 00:00:00 2001 From: littletomatodonkey Date: Sat, 21 May 2022 15:56:47 +0800 Subject: [PATCH] Update general_lite_model_optimization.md --- tutorials/pp-series/general_lite_model_optimization.md | 4 ++-- 1 file changed, 2 insertions(+), 2 deletions(-) diff --git a/tutorials/pp-series/general_lite_model_optimization.md b/tutorials/pp-series/general_lite_model_optimization.md index d100837c..78e13194 100644 --- a/tutorials/pp-series/general_lite_model_optimization.md +++ b/tutorials/pp-series/general_lite_model_optimization.md @@ -175,7 +175,7 @@ Paddle 量化训练(Quant-aware Training, QAT)是指在训练过程中对模 添加模型PACT训练代码与训练脚本,并且提供训练日志、模型与精度对比。 -**注意:**量化模型在导出为用于端侧部署的Lite模型时,才会以int8的形式保存模型,这里保存的预训练模型仍然以FP32的形式保存,因此不会小于使用fp32训练得到的模型。 +**注意:** 量化模型在导出为用于端侧部署的Lite模型时,才会以int8的形式保存模型,这里保存的预训练模型仍然以FP32的形式保存,因此不会小于使用fp32训练得到的模型。 #### 2.3.3 操作步骤 @@ -260,7 +260,7 @@ def build_slim_model(cfg, mode='train'): ### 3.1 通用问题 -* 关于模型大小的定义如下: +* 关于模型大小的定义如下: * 对于非量化模型,可以将训练得到的动态图模型使用`paddle.jit.save`接口,保存为静态图模型,得到模型参数文件`*.pdiparams`和结构文件`*.pdmodel`,二者的存储大小之和。 * 对于量化后模型,可以将动转静之后的inference模型,使用paddlelite工具转化ARM端部署模型,得到的`nb`文件模型大小即为该量化模型的大小,具体转换方式请参考本文的`2.3.3`章节。 * 关于模型速度的定义如下: -- GitLab