Skip to content
体验新版
项目
组织
正在加载...
登录
切换导航
打开侧边栏
PaddlePaddle
Paddle-Lite
提交
3e5d21cb
P
Paddle-Lite
项目概览
PaddlePaddle
/
Paddle-Lite
通知
331
Star
4
Fork
1
代码
文件
提交
分支
Tags
贡献者
分支图
Diff
Issue
271
列表
看板
标记
里程碑
合并请求
78
Wiki
0
Wiki
分析
仓库
DevOps
项目成员
Pages
P
Paddle-Lite
项目概览
项目概览
详情
发布
仓库
仓库
文件
提交
分支
标签
贡献者
分支图
比较
Issue
271
Issue
271
列表
看板
标记
里程碑
合并请求
78
合并请求
78
Pages
分析
分析
仓库分析
DevOps
Wiki
0
Wiki
成员
成员
收起侧边栏
关闭侧边栏
动态
分支图
创建新Issue
提交
Issue看板
提交
3e5d21cb
编写于
9月 17, 2019
作者:
J
juncaipeng
浏览文件
操作
浏览文件
下载
电子邮件补丁
差异文件
up
上级
899eadb0
变更
9
显示空白变更内容
内联
并排
Showing
9 changed file
with
14 addition
and
16 deletion
+14
-16
.DS_Store
.DS_Store
+0
-0
_posts/2019-09-16-benchmark_tools.md
_posts/2019-09-16-benchmark_tools.md
+2
-2
_posts/2019-09-16-cxx_api.md
_posts/2019-09-16-cxx_api.md
+3
-3
_posts/2019-09-16-fpga.md
_posts/2019-09-16-fpga.md
+1
-1
_posts/2019-09-16-java_demo.md
_posts/2019-09-16-java_demo.md
+1
-1
_posts/2019-09-16-model_optimize_tool.md
_posts/2019-09-16-model_optimize_tool.md
+1
-1
_posts/2019-09-16-npu.md
_posts/2019-09-16-npu.md
+1
-1
_posts/2019-09-16-tutorial.md
_posts/2019-09-16-tutorial.md
+4
-4
index.md
index.md
+1
-3
未找到文件。
.DS_Store
浏览文件 @
3e5d21cb
无法预览此类型文件
_posts/2019-09-16-benchmark_tools.md
浏览文件 @
3e5d21cb
...
@@ -71,7 +71,7 @@ wget -c https://paddle-inference-dist.bj.bcebos.com/PaddleLite/benchmark_bin_v8
...
@@ -71,7 +71,7 @@ wget -c https://paddle-inference-dist.bj.bcebos.com/PaddleLite/benchmark_bin_v8
#### 方式二:由源码编译benchmark_bin文件
#### 方式二:由源码编译benchmark_bin文件
根据
[
源码编译
](
/source_compile
)
准备编译环境,拉取PaddleLite最新release发布版代码,并在仓库根目录下,执行:
根据
[
源码编译
](
{{
site.baseurl }}
/source_compile)准备编译环境,拉取PaddleLite最新release发布版代码,并在仓库根目录下,执行:
```
shell
```
shell
###########################################
###########################################
...
@@ -120,7 +120,7 @@ tar zxvf benchmark_models.tar.gz
...
@@ -120,7 +120,7 @@ tar zxvf benchmark_models.tar.gz
> 注:若要使用测试脚本,**对单个模型测试**,请把单个模型放入 `benchmark_models` 文件夹,并确保测试脚本、`benchmark_models`文件夹在同一级的目录。
> 注:若要使用测试脚本,**对单个模型测试**,请把单个模型放入 `benchmark_models` 文件夹,并确保测试脚本、`benchmark_models`文件夹在同一级的目录。
注:上述模型都已经使用
`model_optimize_tool`
进行转化,而且Lite移动端只支持加载转化后的模型。如果需要测试其他模型,请先参考
[
模型转化方法
](
/model_optimize_tool
)
。
注:上述模型都已经使用
`model_optimize_tool`
进行转化,而且Lite移动端只支持加载转化后的模型。如果需要测试其他模型,请先参考
[
模型转化方法
](
{{
site.baseurl }}
/model_optimize_tool)。
### 3. benchmark.sh脚本
### 3. benchmark.sh脚本
...
...
_posts/2019-09-16-cxx_api.md
浏览文件 @
3e5d21cb
...
@@ -5,7 +5,7 @@ title: C++ API接口使用指南
...
@@ -5,7 +5,7 @@ title: C++ API接口使用指南
# C++ API接口使用指南
# C++ API接口使用指南
请参考
[
源码编译
](
/source_compile
)
确保 Lite 可以正确编译,下面用Lite的c++接口加载并执行 MobileNetV1 模型为例,详细说明使用方法。
请参考
[
源码编译
](
{{
site.baseurl }}
/source_compile)确保 Lite 可以正确编译,下面用Lite的c++接口加载并执行 MobileNetV1 模型为例,详细说明使用方法。
## 准备模型
## 准备模型
...
@@ -13,11 +13,11 @@ Lite支持PaddlePaddle训练好的模型,MobileNetV1模型可以由以下三
...
@@ -13,11 +13,11 @@ Lite支持PaddlePaddle训练好的模型,MobileNetV1模型可以由以下三
-
直接下载训练好的
[
MobileNetV1模型
](
https://paddle-inference-dist.bj.bcebos.com/mobilenet_v1.tar.gz
)
-
直接下载训练好的
[
MobileNetV1模型
](
https://paddle-inference-dist.bj.bcebos.com/mobilenet_v1.tar.gz
)
-
使用
[
PaddlePaddle
](
https://paddlepaddle.org.cn/
)
构建MobileNetV1网络并训练
-
使用
[
PaddlePaddle
](
https://paddlepaddle.org.cn/
)
构建MobileNetV1网络并训练
-
使用
[
X2Paddle
](
/x2paddle
)
对caffe或者tensorflow的MobileNetV1模型进行转换得到
-
使用
[
X2Paddle
](
{{
site.baseurl }}
/x2paddle)对caffe或者tensorflow的MobileNetV1模型进行转换得到
## 模型优化
## 模型优化
使用Model Optimize Tool优化模型,使得模型预测过程表现出优异的性能。Model Optimize Tool的具体使用方法请参考
[
文档
](
/model_optimize_tool
)
。
使用Model Optimize Tool优化模型,使得模型预测过程表现出优异的性能。Model Optimize Tool的具体使用方法请参考
[
文档
](
{{
site.baseurl }}
/model_optimize_tool)。
-
准备model_optimize_tool
-
准备model_optimize_tool
-
使用model_optimize_tool优化模型
-
使用model_optimize_tool优化模型
...
...
_posts/2019-09-16-fpga.md
浏览文件 @
3e5d21cb
...
@@ -24,7 +24,7 @@ CMAKE编译选项:
...
@@ -24,7 +24,7 @@ CMAKE编译选项:
-
设置
`LITE_WITH_FPGA=ON`
和
`LITE_WITH_ARM=ON`
-
设置
`LITE_WITH_FPGA=ON`
和
`LITE_WITH_ARM=ON`
其他编译选项与ARM编译相同,可以参考
[
“Paddle Lite在Docker下的ARM编译”
](
/source_compile
)
。
其他编译选项与ARM编译相同,可以参考
[
“Paddle Lite在Docker下的ARM编译”
](
{{
site.baseurl }}
/source_compile)。
示例如下:
示例如下:
```
shell
```
shell
cmake ..
\
cmake ..
\
...
...
_posts/2019-09-16-java_demo.md
浏览文件 @
3e5d21cb
...
@@ -26,7 +26,7 @@ title: Java Android Demo
...
@@ -26,7 +26,7 @@ title: Java Android Demo
## 编译
## 编译
首先在PaddleLite的开发
[
Docker镜像
](
/source_compile
)
中,拉取最新PaddleLite代码,编译对应你手机架构的预测库,
首先在PaddleLite的开发
[
Docker镜像
](
{{
site.baseurl }}
/source_compile) 中,拉取最新PaddleLite代码,编译对应你手机架构的预测库,
下面我们以arm8 架构举例。进入paddlelite 目录,运行以下命令:
下面我们以arm8 架构举例。进入paddlelite 目录,运行以下命令:
```
shell
```
shell
...
...
_posts/2019-09-16-model_optimize_tool.md
浏览文件 @
3e5d21cb
...
@@ -18,7 +18,7 @@ chmod 777 model_optimize_tool
...
@@ -18,7 +18,7 @@ chmod 777 model_optimize_tool
### 编译model_optimize_tool
### 编译model_optimize_tool
1、参照
[
编译安装
](
/source_compile
)
进行环境配置和编译
1、参照
[
编译安装
](
{{
site.baseurl }}
/source_compile) 进行环境配置和编译
2、进入docker中PaddleLite根目录,
```git checkout develop```
切换到develop分支
2、进入docker中PaddleLite根目录,
```git checkout develop```
切换到develop分支
...
...
_posts/2019-09-16-npu.md
浏览文件 @
3e5d21cb
...
@@ -26,7 +26,7 @@ CMAKE编译选项:
...
@@ -26,7 +26,7 @@ CMAKE编译选项:
-
设置
`LITE_WITH_NPU=ON`
和
`LITE_WITH_ARM=ON`
-
设置
`LITE_WITH_NPU=ON`
和
`LITE_WITH_ARM=ON`
-
设置DDK根目录路径
`NPU_DDK_ROOT`
-
设置DDK根目录路径
`NPU_DDK_ROOT`
其他编译选项与ARM编译相同,可以参考
[
“Paddle Lite在Docker下的ARM编译”
](
/source_compile
)
。
其他编译选项与ARM编译相同,可以参考
[
“Paddle Lite在Docker下的ARM编译”
](
{{
site.baseurl }}
/source_compile)。
示例如下:
示例如下:
```
shell
```
shell
...
...
_posts/2019-09-16-tutorial.md
浏览文件 @
3e5d21cb
...
@@ -12,9 +12,9 @@ Lite框架目前支持的模型结构为[PaddlePaddle](https://github.com/Paddle
...
@@ -12,9 +12,9 @@ Lite框架目前支持的模型结构为[PaddlePaddle](https://github.com/Paddle
# 二. 模型优化
# 二. 模型优化
Lite框架拥有强大的加速、优化策略及实现,其中包含诸如量化、子图融合、Kernel优选等等优化手段,为了方便您使用这些优化策略,我们提供了
[
Model Optimize Tool
](
/model_optimize_tool
)
帮助您轻松进行模型优化。优化后的模型更轻量级,耗费资源更少,并且执行速度也更快。
Lite框架拥有强大的加速、优化策略及实现,其中包含诸如量化、子图融合、Kernel优选等等优化手段,为了方便您使用这些优化策略,我们提供了
[
Model Optimize Tool
](
{{
site.baseurl }}
/model_optimize_tool)帮助您轻松进行模型优化。优化后的模型更轻量级,耗费资源更少,并且执行速度也更快。
Model Optimize Tool的详细介绍,请您参考
[
模型优化方法
](
/model_optimize_tool
)
。
Model Optimize Tool的详细介绍,请您参考
[
模型优化方法
](
{{
site.baseurl }}
/model_optimize_tool) 。
使用Model Optimize Tool,您只需执行以下代码:
使用Model Optimize Tool,您只需执行以下代码:
## 1. Android
## 1. Android
...
@@ -72,8 +72,8 @@ $ adb shell
...
@@ -72,8 +72,8 @@ $ adb shell
# 四. Lite API
# 四. Lite API
为了方便您的使用,我们提供了C++与Java两种API,并且提供了相应的api使用的
[
完整示例
](
/demos
)
,您可以参考示例中的说明快速了解C++/Java的API使用方法,并集成到您自己的项目中去。需要说明的是,为了减少第三方库的依赖、提高Lite预测框架的通用性,在移动端使用Lite API您需要准备Naive Buffer存储格式的模型,具体方法可参考第2节
`模型优化`
。
为了方便您的使用,我们提供了C++与Java两种API,并且提供了相应的api使用的
[
完整示例
](
{{
site.baseurl }}
/demos),您可以参考示例中的说明快速了解C++/Java的API使用方法,并集成到您自己的项目中去。需要说明的是,为了减少第三方库的依赖、提高Lite预测框架的通用性,在移动端使用Lite API您需要准备Naive Buffer存储格式的模型,具体方法可参考第2节
`模型优化`
。
# 五. 测试工具
# 五. 测试工具
为了使您更好的了解并使用Lite框架,我们向有进一步使用需求的用户开放了
[
Lite Model Debug Tool
](
/debug_tools
)
和
[
Profile Monitor Tool
](
/debug_tools
)
。Lite Model Debug Tool可以用来查找Lite框架与PaddlePaddle框架在执行预测时模型中的对应变量值是否有差异,进一步快速定位问题Op,方便复现与排查问题。Profile Monitor Tool可以帮助您了解每个Op的执行时间消耗,其会自动统计Op执行的次数,最长、最短、平均执行时间等等信息,为性能调优做一个基础参考。您可以通过
[
相关专题
](
/debug_tools
)
了解更多内容。
为了使您更好的了解并使用Lite框架,我们向有进一步使用需求的用户开放了
[
Lite Model Debug Tool
](
{{
site.baseurl }}/debug_tools) 和
[
Profile Monitor Tool
](
{{
site.baseurl }}/debug_tools)。Lite Model Debug Tool可以用来查找Lite框架与PaddlePaddle框架在执行预测时模型中的对应变量值是否有差异,进一步快速定位问题Op,方便复现与排查问题。Profile Monitor Tool可以帮助您了解每个Op的执行时间消耗,其会自动统计Op执行的次数,最长、最短、平均执行时间等等信息,为性能调优做一个基础参考。您可以通过
[
相关专题
](
{{
site.baseurl }}
/debug_tools) 了解更多内容。
index.md
浏览文件 @
3e5d21cb
---
---
layout
:
post
layout
:
post
title
:
Paddle-Lite
文档
title
:
Paddle-Lite文档
---
---
## 总体概述
Paddle-Lite 框架是 PaddleMobile 新一代架构,重点支持移动端推理预测,特点
**高性能、多硬件、轻量级**
。支持PaddleFluid/TensorFlow/Caffe/ONNX模型的推理部署,目前已经支持 ARM CPU, Mali GPU, Adreno GPU, Huawei NPU 等>多种硬件,正在逐步增加 X86 CPU, Nvidia GPU 等多款硬件,相关硬件性能业内领先。
Paddle-Lite 框架是 PaddleMobile 新一代架构,重点支持移动端推理预测,特点
**高性能、多硬件、轻量级**
。支持PaddleFluid/TensorFlow/Caffe/ONNX模型的推理部署,目前已经支持 ARM CPU, Mali GPU, Adreno GPU, Huawei NPU 等>多种硬件,正在逐步增加 X86 CPU, Nvidia GPU 等多款硬件,相关硬件性能业内领先。
...
...
编辑
预览
Markdown
is supported
0%
请重试
或
添加新附件
.
添加附件
取消
You are about to add
0
people
to the discussion. Proceed with caution.
先完成此消息的编辑!
取消
想要评论请
注册
或
登录