From 41196b0563c6787ae908908ef94a74c38b4d6bf8 Mon Sep 17 00:00:00 2001
From: xutianchun <xutianchun@huawei.com>
Date: Fri, 28 Aug 2020 10:48:41 +0800
Subject: [PATCH] fix quant doc

---
 .../source_zh_cn/use/post_training_quantization.md          | 6 +++---
 1 file changed, 3 insertions(+), 3 deletions(-)

diff --git a/lite/tutorials/source_zh_cn/use/post_training_quantization.md b/lite/tutorials/source_zh_cn/use/post_training_quantization.md
index 6bc018c6..93ba0889 100644
--- a/lite/tutorials/source_zh_cn/use/post_training_quantization.md
+++ b/lite/tutorials/source_zh_cn/use/post_training_quantization.md
@@ -47,11 +47,11 @@
     thread_num=1
     ```
    校准数据集可以选择测试数据集的子集,要求`/dir/images`目录下存放的每个文件均是预处理好的输入数据,每个文件都可以直接用于推理的输入。
-3. 以TensorFlow Lite模型mnist.tflite为例,执行带训练后量化的模型转换命令:
+3. 以MindSpore模型为例,执行带训练后量化的模型转换命令:
     ```
-    ./converter_lite --fmk=TFLITE --modelFile=mnist.tflite --outputFile=mnist_quant --quantType=PostTraining --config_file=config.cfg
+    ./converter_lite --fmk=MS --modelFile=lenet.ms --outputFile=lenet_quant --quantType=PostTraining --config_file=config.cfg
     ```
-4. 上述命令执行成功后,便可得到量化后的模型mnist_quant.ms,通常量化后的模型大小会下降到FP32模型的1/4。
+4. 上述命令执行成功后,便可得到量化后的模型lenet_quant.ms,通常量化后的模型大小会下降到FP32模型的1/4。
 
 ## 部分模型精度结果
 
-- 
GitLab