diff --git a/_all_pages/develop/cxx_api_doc.md b/_all_pages/develop/cxx_api_doc.md index 1291343ba4b2bb9e5b17778ee8ff7ba6ad75ddf4..df3a36610d4d80315bcc4e9f04e65d47f39f6a99 100644 --- a/_all_pages/develop/cxx_api_doc.md +++ b/_all_pages/develop/cxx_api_doc.md @@ -4,7 +4,8 @@ title: C++ API文档 --- - +* TOC +{:toc} # CreatePaddlePredictor diff --git a/_all_pages/develop/java_api_doc.md b/_all_pages/develop/java_api_doc.md index 4668a7bdbfc2f8d6f0bb9ec1a3becab09d88cb83..f378f7d6a257cc8fccdc7211cb2588e69a341870 100644 --- a/_all_pages/develop/java_api_doc.md +++ b/_all_pages/develop/java_api_doc.md @@ -4,6 +4,9 @@ title: Java API文档 --- +* TOC +{:toc} + # MobileConfig ```java diff --git a/_all_pages/develop/model_quantization.md b/_all_pages/develop/model_quantization.md index 91b318ce83cb67a7ed8db72b5f7898de7109b6d7..0ffc0a207518d14827a9b302ba67841b6da1d7b8 100644 --- a/_all_pages/develop/model_quantization.md +++ b/_all_pages/develop/model_quantization.md @@ -246,7 +246,7 @@ adb shell /data/local/tmp/model_optimize_tool \ ``` model\_optimize\_tool的详细使用方法请猛戳[此处](https://github.com/PaddlePaddle/Paddle-Lite/wiki/model_optimize_tool#%E4%BD%BF%E7%94%A8%E6%96%B9%E6%B3%95)。 -> 备注:如前所述,Paddle-Lite所使用的float目录下量化模型参数范围为int8范围但参数数据类型仍为float32类型,仅这样确实没有起到模型参数压缩的效果。但是,经过model\_optimize\_tool工具优化后对应的量化参数均会以int8类型重新存储达到参数压缩的效果,且模型结构也被优化(如进行了各种operator fuse操作)。 +> 备注:如前所述,量化训练后,float目录下的模型参数范围为int8,但参数数据类型仍为float32类型,仅这样确实没有起到模型参数压缩的效果。但是,经过model\_optimize\_tool工具优化后对应的量化参数均会以int8类型重新存储达到参数压缩的效果,且模型结构也被优化(如进行了各种operator fuse操作)。 #### 3. 使用mobilenetv1\_light\_api运行优化后的量化模型 diff --git a/index.md b/index.md index b634242648514b5f5088607be5b4367f72218e44..77eaf250da95ddc29751ba7fa3ca492f55c82165 100644 --- a/index.md +++ b/index.md @@ -31,7 +31,7 @@ Paddle-Lite 框架是 PaddleMobile 新一代架构,重点支持移动端推理 ## 进阶 -- [通过 X2Paddle 支持 Caffe, TensorFlow , ONNX 模型]({{ site.baseurl }}/x2paddle) +- [通过 X2Paddle 支持 Caffe, TensorFlow , ONNX 模型]({{ site.baseurl }}/developx/2paddle) - [X2Paddle 支持模型列表]({{ site.baseurl }}/develop/x2paddle_models_doc) - [模型量化]({{ site.baseurl }}/develop/model_quantization) - [支持Op列表]({{ site.baseurl }}/develop/support_operation_list)