diff --git a/docs/deploy/images/paddlex_android_sdk_framework.jpg b/docs/deploy/images/paddlex_android_sdk_framework.jpg index 40152c43f5a8c849ebb71b9fa676ee8db782943b..2e2be7f5d2cd7cf115fd6cdd71371760850d612e 100644 Binary files a/docs/deploy/images/paddlex_android_sdk_framework.jpg and b/docs/deploy/images/paddlex_android_sdk_framework.jpg differ diff --git a/docs/deploy/paddlelite/android.md b/docs/deploy/paddlelite/android.md index 0b3be8961fd38dfba2d783d105c4d04888fe09bc..ab37ce957f69c27ae33a7dca4fc00577b396b1d5 100644 --- a/docs/deploy/paddlelite/android.md +++ b/docs/deploy/paddlelite/android.md @@ -12,7 +12,7 @@ PaddleX的安卓端部署由PaddleLite实现,部署的流程如下,首先将 ## step 1. 将PaddleX模型导出为inference模型 参考[导出inference模型](../export_model.html)将模型导出为inference格式模型。 -**注意:由于PaddleX代码的持续更新,版本低于1.0.0的模型暂时无法直接用于预测部署,参考[模型版本升级](./upgrade_version.md)对模型版本进行升级。** +**注意:由于PaddleX代码的持续更新,版本低于1.0.0的模型暂时无法直接用于预测部署,参考[模型版本升级](../upgrade_version.md)对模型版本进行升级。** ## step 2. 将inference模型优化为PaddleLite模型 @@ -79,7 +79,7 @@ PaddleX Android SDK是PaddleX基于Paddle-Lite开发的安卓端AI推理工具 - Paddle-Lite接口层,以Java接口封装了底层c++推理库。 - PaddleX业务层,封装了PaddleX导出模型的预处理,推理和后处理,以及可视化,支持PaddleX导出的检测、分割、分类模型。 - +![架构](../images/paddlex_android_sdk_framework.jpg) #### 3.3.1 SDK安装 diff --git a/docs/deploy/paddlelite/slim/index.rst b/docs/deploy/paddlelite/slim/index.rst index c43bbf3a1650b24a6b4091105a0eacce34ed9c76..ccc8d5080d84c90c2590306c3bb58022d6bbe97b 100755 --- a/docs/deploy/paddlelite/slim/index.rst +++ b/docs/deploy/paddlelite/slim/index.rst @@ -8,3 +8,4 @@ quant.md prune.md + tutorials/index diff --git a/docs/deploy/paddlelite/slim/prune.md b/docs/deploy/paddlelite/slim/prune.md index f5c924ad2e4bc631ffdebb0f3c64162544146a1a..17d3c90e16eca13a404d569e8bf8664cdad6597f 100644 --- a/docs/deploy/paddlelite/slim/prune.md +++ b/docs/deploy/paddlelite/slim/prune.md @@ -25,10 +25,10 @@ PaddleX提供了两种方式: > 注:各模型内置的裁剪方案分别依据的数据集为: 图像分类——ImageNet数据集、目标检测——PascalVOC数据集、语义分割——CityScape数据集 ## 裁剪实验 -基于上述两种方案,我们在PaddleX上使用样例数据进行了实验,在Tesla P40上实验指标如下所示,使用方法见[使用教程-模型压缩](../../../../tutorials/compress/README.html) +基于上述两种方案,我们在PaddleX上使用样例数据进行了实验,在Tesla P40上实验指标如下所示: ### 图像分类 -实验背景:使用MobileNetV2模型,数据集为蔬菜分类示例数据 +实验背景:使用MobileNetV2模型,数据集为蔬菜分类示例数据,使用方法见[使用教程-模型压缩-图像分类](./tutorials/classification.html) | 模型 | 裁剪情况 | 模型大小 | Top1准确率(%) |GPU预测速度 | CPU预测速度 | | :-----| :--------| :-------- | :---------- |:---------- |:----------| @@ -37,7 +37,7 @@ PaddleX提供了两种方式: |MobileNetV2 | 方案二(eval_metric_loss=0.10) | 6.0M | 99.58 |5.42ms |29.06ms | ### 目标检测 -实验背景:使用YOLOv3-MobileNetV1模型,数据集为昆虫检测示例数据 +实验背景:使用YOLOv3-MobileNetV1模型,数据集为昆虫检测示例数据,使用方法见[使用教程-模型压缩-目标检测](./tutorials/detection.html) | 模型 | 裁剪情况 | 模型大小 | MAP(%) |GPU预测速度 | CPU预测速度 | | :-----| :--------| :-------- | :---------- |:---------- | :---------| @@ -46,7 +46,7 @@ PaddleX提供了两种方式: |YOLOv3-MobileNetV1 | 方案二(eval_metric_loss=0.05) | 29M | 50.27| 9.43ms |360.46ms | ### 语义分割 -实验背景:使用UNet模型,数据集为视盘分割示例数据 +实验背景:使用UNet模型,数据集为视盘分割示例数据,使用方法见[使用教程-模型压缩-语义分割](./tutorials/segmentation.html) | 模型 | 裁剪情况 | 模型大小 | mIOU(%) |GPU预测速度 | CPU预测速度 | | :-----| :--------| :-------- | :---------- |:---------- | :---------| diff --git a/docs/deploy/paddlelite/slim/quant.md b/docs/deploy/paddlelite/slim/quant.md index 4af328cd0544f5b82be2a2342c6cb5e092baabc9..bbb16713e510eccde6332dd18c432ce3ec586d9b 100644 --- a/docs/deploy/paddlelite/slim/quant.md +++ b/docs/deploy/paddlelite/slim/quant.md @@ -6,7 +6,7 @@ 定点量化使用更少的比特数(如8-bit、3-bit、2-bit等)表示神经网络的权重和激活值,从而加速模型推理速度。PaddleX提供了训练后量化技术,其原理可参见[训练后量化原理](https://paddlepaddle.github.io/PaddleSlim/algo/algo.html#id14),该量化使用KL散度确定量化比例因子,将FP32模型转成INT8模型,且不需要重新训练,可以快速得到量化模型。 ## 使用PaddleX量化模型 -PaddleX提供了`export_quant_model`接口,让用户以接口的形式完成模型以post_quantization方式量化并导出。点击查看[量化接口使用文档](../../apis/slim.html)。 +PaddleX提供了`export_quant_model`接口,让用户以接口的形式完成模型以post_quantization方式量化并导出。点击查看[量化接口使用文档](../../../apis/slim.html)。 ## 量化性能对比 模型量化后的性能对比指标请查阅[PaddleSlim模型库](https://paddlepaddle.github.io/PaddleSlim/model_zoo.html)