未验证 提交 ecb1660b 编写于 作者: littletomatodonkey's avatar littletomatodonkey 提交者: GitHub

Update general_lite_model_optimization.md

上级 5d86f7b6
...@@ -175,7 +175,7 @@ Paddle 量化训练(Quant-aware Training, QAT)是指在训练过程中对模 ...@@ -175,7 +175,7 @@ Paddle 量化训练(Quant-aware Training, QAT)是指在训练过程中对模
添加模型PACT训练代码与训练脚本,并且提供训练日志、模型与精度对比。 添加模型PACT训练代码与训练脚本,并且提供训练日志、模型与精度对比。
**注意:**量化模型在导出为用于端侧部署的Lite模型时,才会以int8的形式保存模型,这里保存的预训练模型仍然以FP32的形式保存,因此不会小于使用fp32训练得到的模型。 **注意:** 量化模型在导出为用于端侧部署的Lite模型时,才会以int8的形式保存模型,这里保存的预训练模型仍然以FP32的形式保存,因此不会小于使用fp32训练得到的模型。
#### 2.3.3 操作步骤 #### 2.3.3 操作步骤
...@@ -260,7 +260,7 @@ def build_slim_model(cfg, mode='train'): ...@@ -260,7 +260,7 @@ def build_slim_model(cfg, mode='train'):
### 3.1 通用问题 ### 3.1 通用问题
* 关于模型大小的定义如下: * 关于模型大小的定义如下:
* 对于非量化模型,可以将训练得到的动态图模型使用`paddle.jit.save`接口,保存为静态图模型,得到模型参数文件`*.pdiparams`和结构文件`*.pdmodel`,二者的存储大小之和。 * 对于非量化模型,可以将训练得到的动态图模型使用`paddle.jit.save`接口,保存为静态图模型,得到模型参数文件`*.pdiparams`和结构文件`*.pdmodel`,二者的存储大小之和。
* 对于量化后模型,可以将动转静之后的inference模型,使用paddlelite工具转化ARM端部署模型,得到的`nb`文件模型大小即为该量化模型的大小,具体转换方式请参考本文的`2.3.3`章节。 * 对于量化后模型,可以将动转静之后的inference模型,使用paddlelite工具转化ARM端部署模型,得到的`nb`文件模型大小即为该量化模型的大小,具体转换方式请参考本文的`2.3.3`章节。
* 关于模型速度的定义如下: * 关于模型速度的定义如下:
......
Markdown is supported
0% .
You are about to add 0 people to the discussion. Proceed with caution.
先完成此消息的编辑!
想要评论请 注册