提交 3e5d21cb 编写于 作者: J juncaipeng

up

上级 899eadb0
无法预览此类型文件
...@@ -71,7 +71,7 @@ wget -c https://paddle-inference-dist.bj.bcebos.com/PaddleLite/benchmark_bin_v8 ...@@ -71,7 +71,7 @@ wget -c https://paddle-inference-dist.bj.bcebos.com/PaddleLite/benchmark_bin_v8
#### 方式二:由源码编译benchmark_bin文件 #### 方式二:由源码编译benchmark_bin文件
根据[源码编译](/source_compile)准备编译环境,拉取PaddleLite最新release发布版代码,并在仓库根目录下,执行: 根据[源码编译]({{ site.baseurl }}/source_compile)准备编译环境,拉取PaddleLite最新release发布版代码,并在仓库根目录下,执行:
```shell ```shell
########################################### ###########################################
...@@ -120,7 +120,7 @@ tar zxvf benchmark_models.tar.gz ...@@ -120,7 +120,7 @@ tar zxvf benchmark_models.tar.gz
> 注:若要使用测试脚本,**对单个模型测试**,请把单个模型放入 `benchmark_models` 文件夹,并确保测试脚本、`benchmark_models`文件夹在同一级的目录。 > 注:若要使用测试脚本,**对单个模型测试**,请把单个模型放入 `benchmark_models` 文件夹,并确保测试脚本、`benchmark_models`文件夹在同一级的目录。
注:上述模型都已经使用`model_optimize_tool`进行转化,而且Lite移动端只支持加载转化后的模型。如果需要测试其他模型,请先参考[模型转化方法](/model_optimize_tool) 注:上述模型都已经使用`model_optimize_tool`进行转化,而且Lite移动端只支持加载转化后的模型。如果需要测试其他模型,请先参考[模型转化方法]({{ site.baseurl }}/model_optimize_tool)。
### 3. benchmark.sh脚本 ### 3. benchmark.sh脚本
......
...@@ -5,7 +5,7 @@ title: C++ API接口使用指南 ...@@ -5,7 +5,7 @@ title: C++ API接口使用指南
# C++ API接口使用指南 # C++ API接口使用指南
请参考[源码编译](/source_compile)确保 Lite 可以正确编译,下面用Lite的c++接口加载并执行 MobileNetV1 模型为例,详细说明使用方法。 请参考[源码编译]({{ site.baseurl }}/source_compile)确保 Lite 可以正确编译,下面用Lite的c++接口加载并执行 MobileNetV1 模型为例,详细说明使用方法。
## 准备模型 ## 准备模型
...@@ -13,11 +13,11 @@ Lite支持PaddlePaddle训练好的模型,MobileNetV1模型可以由以下三 ...@@ -13,11 +13,11 @@ Lite支持PaddlePaddle训练好的模型,MobileNetV1模型可以由以下三
- 直接下载训练好的[MobileNetV1模型](https://paddle-inference-dist.bj.bcebos.com/mobilenet_v1.tar.gz) - 直接下载训练好的[MobileNetV1模型](https://paddle-inference-dist.bj.bcebos.com/mobilenet_v1.tar.gz)
- 使用[PaddlePaddle](https://paddlepaddle.org.cn/)构建MobileNetV1网络并训练 - 使用[PaddlePaddle](https://paddlepaddle.org.cn/)构建MobileNetV1网络并训练
- 使用[X2Paddle](/x2paddle)对caffe或者tensorflow的MobileNetV1模型进行转换得到 - 使用[X2Paddle]({{ site.baseurl }}/x2paddle)对caffe或者tensorflow的MobileNetV1模型进行转换得到
## 模型优化 ## 模型优化
使用Model Optimize Tool优化模型,使得模型预测过程表现出优异的性能。Model Optimize Tool的具体使用方法请参考[文档](/model_optimize_tool) 使用Model Optimize Tool优化模型,使得模型预测过程表现出优异的性能。Model Optimize Tool的具体使用方法请参考[文档]({{ site.baseurl }}/model_optimize_tool)。
- 准备model_optimize_tool - 准备model_optimize_tool
- 使用model_optimize_tool优化模型 - 使用model_optimize_tool优化模型
......
...@@ -24,7 +24,7 @@ CMAKE编译选项: ...@@ -24,7 +24,7 @@ CMAKE编译选项:
- 设置`LITE_WITH_FPGA=ON``LITE_WITH_ARM=ON` - 设置`LITE_WITH_FPGA=ON``LITE_WITH_ARM=ON`
其他编译选项与ARM编译相同,可以参考[“Paddle Lite在Docker下的ARM编译”](/source_compile) 其他编译选项与ARM编译相同,可以参考[“Paddle Lite在Docker下的ARM编译”]({{ site.baseurl }}/source_compile)。
示例如下: 示例如下:
```shell ```shell
cmake .. \ cmake .. \
......
...@@ -26,7 +26,7 @@ title: Java Android Demo ...@@ -26,7 +26,7 @@ title: Java Android Demo
## 编译 ## 编译
首先在PaddleLite的开发 [Docker镜像](/source_compile) 中,拉取最新PaddleLite代码,编译对应你手机架构的预测库, 首先在PaddleLite的开发 [Docker镜像]({{ site.baseurl }}/source_compile) 中,拉取最新PaddleLite代码,编译对应你手机架构的预测库,
下面我们以arm8 架构举例。进入paddlelite 目录,运行以下命令: 下面我们以arm8 架构举例。进入paddlelite 目录,运行以下命令:
```shell ```shell
......
...@@ -18,7 +18,7 @@ chmod 777 model_optimize_tool ...@@ -18,7 +18,7 @@ chmod 777 model_optimize_tool
### 编译model_optimize_tool ### 编译model_optimize_tool
1、参照 [编译安装](/source_compile) 进行环境配置和编译 1、参照 [编译安装]({{ site.baseurl }}/source_compile) 进行环境配置和编译
2、进入docker中PaddleLite根目录,```git checkout develop```切换到develop分支 2、进入docker中PaddleLite根目录,```git checkout develop```切换到develop分支
......
...@@ -26,7 +26,7 @@ CMAKE编译选项: ...@@ -26,7 +26,7 @@ CMAKE编译选项:
- 设置`LITE_WITH_NPU=ON``LITE_WITH_ARM=ON` - 设置`LITE_WITH_NPU=ON``LITE_WITH_ARM=ON`
- 设置DDK根目录路径 `NPU_DDK_ROOT` - 设置DDK根目录路径 `NPU_DDK_ROOT`
其他编译选项与ARM编译相同,可以参考[“Paddle Lite在Docker下的ARM编译”](/source_compile) 其他编译选项与ARM编译相同,可以参考[“Paddle Lite在Docker下的ARM编译”]({{ site.baseurl }}/source_compile)。
示例如下: 示例如下:
```shell ```shell
......
...@@ -12,9 +12,9 @@ Lite框架目前支持的模型结构为[PaddlePaddle](https://github.com/Paddle ...@@ -12,9 +12,9 @@ Lite框架目前支持的模型结构为[PaddlePaddle](https://github.com/Paddle
# 二. 模型优化 # 二. 模型优化
Lite框架拥有强大的加速、优化策略及实现,其中包含诸如量化、子图融合、Kernel优选等等优化手段,为了方便您使用这些优化策略,我们提供了[Model Optimize Tool](/model_optimize_tool)帮助您轻松进行模型优化。优化后的模型更轻量级,耗费资源更少,并且执行速度也更快。 Lite框架拥有强大的加速、优化策略及实现,其中包含诸如量化、子图融合、Kernel优选等等优化手段,为了方便您使用这些优化策略,我们提供了[Model Optimize Tool]({{ site.baseurl }}/model_optimize_tool)帮助您轻松进行模型优化。优化后的模型更轻量级,耗费资源更少,并且执行速度也更快。
Model Optimize Tool的详细介绍,请您参考 [模型优化方法](/model_optimize_tool) Model Optimize Tool的详细介绍,请您参考 [模型优化方法]({{ site.baseurl }}/model_optimize_tool) 。
使用Model Optimize Tool,您只需执行以下代码: 使用Model Optimize Tool,您只需执行以下代码:
## 1. Android ## 1. Android
...@@ -72,8 +72,8 @@ $ adb shell ...@@ -72,8 +72,8 @@ $ adb shell
# 四. Lite API # 四. Lite API
为了方便您的使用,我们提供了C++与Java两种API,并且提供了相应的api使用的[完整示例](/demos),您可以参考示例中的说明快速了解C++/Java的API使用方法,并集成到您自己的项目中去。需要说明的是,为了减少第三方库的依赖、提高Lite预测框架的通用性,在移动端使用Lite API您需要准备Naive Buffer存储格式的模型,具体方法可参考第2节`模型优化` 为了方便您的使用,我们提供了C++与Java两种API,并且提供了相应的api使用的[完整示例]({{ site.baseurl }}/demos),您可以参考示例中的说明快速了解C++/Java的API使用方法,并集成到您自己的项目中去。需要说明的是,为了减少第三方库的依赖、提高Lite预测框架的通用性,在移动端使用Lite API您需要准备Naive Buffer存储格式的模型,具体方法可参考第2节`模型优化`
# 五. 测试工具 # 五. 测试工具
为了使您更好的了解并使用Lite框架,我们向有进一步使用需求的用户开放了 [Lite Model Debug Tool](/debug_tools)[Profile Monitor Tool](/debug_tools)。Lite Model Debug Tool可以用来查找Lite框架与PaddlePaddle框架在执行预测时模型中的对应变量值是否有差异,进一步快速定位问题Op,方便复现与排查问题。Profile Monitor Tool可以帮助您了解每个Op的执行时间消耗,其会自动统计Op执行的次数,最长、最短、平均执行时间等等信息,为性能调优做一个基础参考。您可以通过 [相关专题](/debug_tools) 了解更多内容。 为了使您更好的了解并使用Lite框架,我们向有进一步使用需求的用户开放了 [Lite Model Debug Tool]({{ site.baseurl }}/debug_tools) 和 [Profile Monitor Tool]({{ site.baseurl }}/debug_tools)。Lite Model Debug Tool可以用来查找Lite框架与PaddlePaddle框架在执行预测时模型中的对应变量值是否有差异,进一步快速定位问题Op,方便复现与排查问题。Profile Monitor Tool可以帮助您了解每个Op的执行时间消耗,其会自动统计Op执行的次数,最长、最短、平均执行时间等等信息,为性能调优做一个基础参考。您可以通过 [相关专题]({{ site.baseurl }}/debug_tools) 了解更多内容。
--- ---
layout: post layout: post
title: Paddle-Lite 文档 title: Paddle-Lite文档
--- ---
## 总体概述
Paddle-Lite 框架是 PaddleMobile 新一代架构,重点支持移动端推理预测,特点**高性能、多硬件、轻量级** 。支持PaddleFluid/TensorFlow/Caffe/ONNX模型的推理部署,目前已经支持 ARM CPU, Mali GPU, Adreno GPU, Huawei NPU 等>多种硬件,正在逐步增加 X86 CPU, Nvidia GPU 等多款硬件,相关硬件性能业内领先。 Paddle-Lite 框架是 PaddleMobile 新一代架构,重点支持移动端推理预测,特点**高性能、多硬件、轻量级** 。支持PaddleFluid/TensorFlow/Caffe/ONNX模型的推理部署,目前已经支持 ARM CPU, Mali GPU, Adreno GPU, Huawei NPU 等>多种硬件,正在逐步增加 X86 CPU, Nvidia GPU 等多款硬件,相关硬件性能业内领先。
......
Markdown is supported
0% .
You are about to add 0 people to the discussion. Proceed with caution.
先完成此消息的编辑!
想要评论请 注册