Skip to content
体验新版
项目
组织
正在加载...
登录
切换导航
打开侧边栏
PaddlePaddle
Paddle-Lite
提交
5108630f
P
Paddle-Lite
项目概览
PaddlePaddle
/
Paddle-Lite
通知
338
Star
4
Fork
1
代码
文件
提交
分支
Tags
贡献者
分支图
Diff
Issue
271
列表
看板
标记
里程碑
合并请求
78
Wiki
0
Wiki
分析
仓库
DevOps
项目成员
Pages
P
Paddle-Lite
项目概览
项目概览
详情
发布
仓库
仓库
文件
提交
分支
标签
贡献者
分支图
比较
Issue
271
Issue
271
列表
看板
标记
里程碑
合并请求
78
合并请求
78
Pages
分析
分析
仓库分析
DevOps
Wiki
0
Wiki
成员
成员
收起侧边栏
关闭侧边栏
动态
分支图
创建新Issue
提交
Issue看板
提交
5108630f
编写于
9月 17, 2019
作者:
J
juncaipeng
浏览文件
操作
浏览文件
下载
电子邮件补丁
差异文件
up
上级
ec2450a7
变更
3
隐藏空白更改
内联
并排
Showing
3 changed file
with
5 addition
and
63 deletion
+5
-63
_posts/2019-09-16-README.markdown
_posts/2019-09-16-README.markdown
+0
-58
_posts/2019-09-16-benchmark_tools.md
_posts/2019-09-16-benchmark_tools.md
+1
-1
_posts/2019-09-16-tutorial.md
_posts/2019-09-16-tutorial.md
+4
-4
未找到文件。
_posts/2019-09-16-README.markdown
已删除
100644 → 0
浏览文件 @
ec2450a7
---
layout
:
post
title
:
Paddle-Lite 文档
---
## 总体概述
Paddle-Lite 框架是 PaddleMobile 新一代架构,重点支持移动端推理预测,特点
**高性能、多硬件、轻量级**
。支持PaddleFluid/TensorFlow/Caffe/ONNX模型的推理部署,目前已经支持 ARM CPU, Mali GPU, Adreno GPU, Huawei NPU 等多种硬件,正在逐步增加 X86 CPU, Nvidia GPU 等多款硬件,相关硬件性能业内领先。
## 简介
-
[
技术特点
](
./tech_highlights
)
-
[
架构设计
](
./architecture
)
-
[
Road Map
](
./roadmap
)
## Benchmark
-
[
最新性能
](
./benchmark
)
-
[
测试方法
](
./benchmark_tools
)
## 安装
-
[
源码编译
](
./source_compile
)
## 使用
-
[
使用流程
](
./tutorial
)
-
[
C++实例
](
./cpp_demo
)
-
[
Java实例
](
./java_demo
)
-
[
Android/IOS APP demo
](
https://github.com/PaddlePaddle/Paddle-Lite-Demo
)
-
[
模型转化方法
](
./model_optimize_tool
)
## 进阶
-
[
通过 X2Paddle 支持 Caffe, TensorFlow 模型
](
x2paddle
)
-
[
模型量化
](
./model_quantization
)
-
[
支持Op列表
](
./support_operation_list
)
-
[
新增Op方法
](
./add_new_operation
)
-
[
测试工具
](
./debug_tools
)
-
[
调试方法
](
./debug_tools
)
-
[
使用华为NPU
](
./npu
)
-
[
使用Android GPU
](
./opencl
)
-
[
使用FPGA
](
./fpga
)
## 开发者文档
-
[
开发基础须知
](
./for-developer
)
-
[
架构详解
](
./architecture-intro
)
## FAQ
-
问题或建议可以
[
发Issue
](
https://github.com/PaddlePaddle/Paddle-Lite/issues
)
,为加快问题解决效率,可先检索是否有类似问题,我们也会及时解答!
-
欢迎加入Paddle-Lite百度官方QQ群:696965088
## paddle-mobile
-
[
paddle-mobile 编译
](
./mobile
)
_posts/2019-09-16-benchmark_tools.md
浏览文件 @
5108630f
...
@@ -120,7 +120,7 @@ tar zxvf benchmark_models.tar.gz
...
@@ -120,7 +120,7 @@ tar zxvf benchmark_models.tar.gz
> 注:若要使用测试脚本,**对单个模型测试**,请把单个模型放入 `benchmark_models` 文件夹,并确保测试脚本、`benchmark_models`文件夹在同一级的目录。
> 注:若要使用测试脚本,**对单个模型测试**,请把单个模型放入 `benchmark_models` 文件夹,并确保测试脚本、`benchmark_models`文件夹在同一级的目录。
注:上述模型都已经使用
`model_optimize_tool`
进行转化,而且Lite移动端只支持加载转化后的模型。如果需要测试其他模型,请先参考
[
模型转化方法
](
./model_optimize_too
l
)
。
注:上述模型都已经使用
`model_optimize_tool`
进行转化,而且Lite移动端只支持加载转化后的模型。如果需要测试其他模型,请先参考
[
模型转化方法
](
model_optimize_tool.htm
l
)
。
### 3. benchmark.sh脚本
### 3. benchmark.sh脚本
...
...
_posts/2019-09-16-tutorial.md
浏览文件 @
5108630f
...
@@ -12,9 +12,9 @@ Lite框架目前支持的模型结构为[PaddlePaddle](https://github.com/Paddle
...
@@ -12,9 +12,9 @@ Lite框架目前支持的模型结构为[PaddlePaddle](https://github.com/Paddle
# 二. 模型优化
# 二. 模型优化
Lite框架拥有强大的加速、优化策略及实现,其中包含诸如量化、子图融合、Kernel优选等等优化手段,为了方便您使用这些优化策略,我们提供了
[
Model Optimize Tool
](
./model_optimize_too
l
)
帮助您轻松进行模型优化。优化后的模型更轻量级,耗费资源更少,并且执行速度也更快。
Lite框架拥有强大的加速、优化策略及实现,其中包含诸如量化、子图融合、Kernel优选等等优化手段,为了方便您使用这些优化策略,我们提供了
[
Model Optimize Tool
](
model_optimize_tool.htm
l
)
帮助您轻松进行模型优化。优化后的模型更轻量级,耗费资源更少,并且执行速度也更快。
Model Optimize Tool的详细介绍,请您参考
[
模型优化方法
](
./model_optimize_too
l
)
。
Model Optimize Tool的详细介绍,请您参考
[
模型优化方法
](
model_optimize_tool.htm
l
)
。
使用Model Optimize Tool,您只需执行以下代码:
使用Model Optimize Tool,您只需执行以下代码:
## 1. Android
## 1. Android
...
@@ -72,8 +72,8 @@ $ adb shell
...
@@ -72,8 +72,8 @@ $ adb shell
# 四. Lite API
# 四. Lite API
为了方便您的使用,我们提供了C++与Java两种API,并且提供了相应的api使用的
[
完整示例
](
./demos
)
,您可以参考示例中的说明快速了解C++/Java的API使用方法,并集成到您自己的项目中去。需要说明的是,为了减少第三方库的依赖、提高Lite预测框架的通用性,在移动端使用Lite API您需要准备Naive Buffer存储格式的模型,具体方法可参考第2节
`模型优化`
。
为了方便您的使用,我们提供了C++与Java两种API,并且提供了相应的api使用的
[
完整示例
](
demos.html
)
,您可以参考示例中的说明快速了解C++/Java的API使用方法,并集成到您自己的项目中去。需要说明的是,为了减少第三方库的依赖、提高Lite预测框架的通用性,在移动端使用Lite API您需要准备Naive Buffer存储格式的模型,具体方法可参考第2节
`模型优化`
。
# 五. 测试工具
# 五. 测试工具
为了使您更好的了解并使用Lite框架,我们向有进一步使用需求的用户开放了
[
Lite Model Debug Tool
](
./debug_tools
)
和
[
Profile Monitor Tool
](
./debug_tools
)
。Lite Model Debug Tool可以用来查找Lite框架与PaddlePaddle框架在执行预测时模型中的对应变量值是否有差异,进一步快速定位问题Op,方便复现与排查问题。Profile Monitor Tool可以帮助您了解每个Op的执行时间消耗,其会自动统计Op执行的次数,最长、最短、平均执行时间等等信息,为性能调优做一个基础参考。您可以通过
[
相关专题
](
./debug_tools
)
了解更多内容。
为了使您更好的了解并使用Lite框架,我们向有进一步使用需求的用户开放了
[
Lite Model Debug Tool
](
debug_tools.html
)
和
[
Profile Monitor Tool
](
debug_tools.html
)
。Lite Model Debug Tool可以用来查找Lite框架与PaddlePaddle框架在执行预测时模型中的对应变量值是否有差异,进一步快速定位问题Op,方便复现与排查问题。Profile Monitor Tool可以帮助您了解每个Op的执行时间消耗,其会自动统计Op执行的次数,最长、最短、平均执行时间等等信息,为性能调优做一个基础参考。您可以通过
[
相关专题
](
debug_tools.html
)
了解更多内容。
编辑
预览
Markdown
is supported
0%
请重试
或
添加新附件
.
添加附件
取消
You are about to add
0
people
to the discussion. Proceed with caution.
先完成此消息的编辑!
取消
想要评论请
注册
或
登录