未验证 提交 1fc60512 编写于 作者: J juncaipeng 提交者: GitHub

fix index.md bug and add toc (#2105)


* fix bug and add toc
上级 651bee4a
...@@ -4,7 +4,8 @@ title: C++ API文档 ...@@ -4,7 +4,8 @@ title: C++ API文档
--- ---
* TOC
{:toc}
# CreatePaddlePredictor # CreatePaddlePredictor
......
...@@ -4,6 +4,9 @@ title: Java API文档 ...@@ -4,6 +4,9 @@ title: Java API文档
--- ---
* TOC
{:toc}
# MobileConfig # MobileConfig
```java ```java
......
...@@ -246,7 +246,7 @@ adb shell /data/local/tmp/model_optimize_tool \ ...@@ -246,7 +246,7 @@ adb shell /data/local/tmp/model_optimize_tool \
``` ```
model\_optimize\_tool的详细使用方法请猛戳[此处](https://github.com/PaddlePaddle/Paddle-Lite/wiki/model_optimize_tool#%E4%BD%BF%E7%94%A8%E6%96%B9%E6%B3%95) model\_optimize\_tool的详细使用方法请猛戳[此处](https://github.com/PaddlePaddle/Paddle-Lite/wiki/model_optimize_tool#%E4%BD%BF%E7%94%A8%E6%96%B9%E6%B3%95)
> 备注:如前所述,Paddle-Lite所使用的float目录下量化模型参数范围为int8范围但参数数据类型仍为float32类型,仅这样确实没有起到模型参数压缩的效果。但是,经过model\_optimize\_tool工具优化后对应的量化参数均会以int8类型重新存储达到参数压缩的效果,且模型结构也被优化(如进行了各种operator fuse操作)。 > 备注:如前所述,量化训练后,float目录下的模型参数范围为int8,但参数数据类型仍为float32类型,仅这样确实没有起到模型参数压缩的效果。但是,经过model\_optimize\_tool工具优化后对应的量化参数均会以int8类型重新存储达到参数压缩的效果,且模型结构也被优化(如进行了各种operator fuse操作)。
#### 3. 使用mobilenetv1\_light\_api运行优化后的量化模型 #### 3. 使用mobilenetv1\_light\_api运行优化后的量化模型
......
...@@ -31,7 +31,7 @@ Paddle-Lite 框架是 PaddleMobile 新一代架构,重点支持移动端推理 ...@@ -31,7 +31,7 @@ Paddle-Lite 框架是 PaddleMobile 新一代架构,重点支持移动端推理
## 进阶 ## 进阶
- [通过 X2Paddle 支持 Caffe, TensorFlow , ONNX 模型]({{ site.baseurl }}/x2paddle) - [通过 X2Paddle 支持 Caffe, TensorFlow , ONNX 模型]({{ site.baseurl }}/developx/2paddle)
- [X2Paddle 支持模型列表]({{ site.baseurl }}/develop/x2paddle_models_doc) - [X2Paddle 支持模型列表]({{ site.baseurl }}/develop/x2paddle_models_doc)
- [模型量化]({{ site.baseurl }}/develop/model_quantization) - [模型量化]({{ site.baseurl }}/develop/model_quantization)
- [支持Op列表]({{ site.baseurl }}/develop/support_operation_list) - [支持Op列表]({{ site.baseurl }}/develop/support_operation_list)
......
Markdown is supported
0% .
You are about to add 0 people to the discussion. Proceed with caution.
先完成此消息的编辑!
想要评论请 注册