提交 5108630f 编写于 作者: J juncaipeng

up

上级 ec2450a7
---
layout: post
title: Paddle-Lite 文档
---
## 总体概述
Paddle-Lite 框架是 PaddleMobile 新一代架构,重点支持移动端推理预测,特点**高性能、多硬件、轻量级** 。支持PaddleFluid/TensorFlow/Caffe/ONNX模型的推理部署,目前已经支持 ARM CPU, Mali GPU, Adreno GPU, Huawei NPU 等多种硬件,正在逐步增加 X86 CPU, Nvidia GPU 等多款硬件,相关硬件性能业内领先。
## 简介
- [技术特点](./tech_highlights)
- [架构设计](./architecture)
- [Road Map](./roadmap)
## Benchmark
- [最新性能](./benchmark)
- [测试方法](./benchmark_tools)
## 安装
- [源码编译](./source_compile)
## 使用
- [使用流程](./tutorial)
- [C++实例](./cpp_demo)
- [Java实例](./java_demo)
- [Android/IOS APP demo](https://github.com/PaddlePaddle/Paddle-Lite-Demo)
- [模型转化方法](./model_optimize_tool)
## 进阶
- [通过 X2Paddle 支持 Caffe, TensorFlow 模型](x2paddle)
- [模型量化](./model_quantization)
- [支持Op列表](./support_operation_list)
- [新增Op方法](./add_new_operation)
- [测试工具](./debug_tools)
- [调试方法](./debug_tools)
- [使用华为NPU](./npu)
- [使用Android GPU](./opencl)
- [使用FPGA](./fpga)
## 开发者文档
- [开发基础须知](./for-developer)
- [架构详解](./architecture-intro)
## FAQ
- 问题或建议可以[发Issue](https://github.com/PaddlePaddle/Paddle-Lite/issues),为加快问题解决效率,可先检索是否有类似问题,我们也会及时解答!
- 欢迎加入Paddle-Lite百度官方QQ群:696965088
## paddle-mobile
- [paddle-mobile 编译](./mobile)
......@@ -120,7 +120,7 @@ tar zxvf benchmark_models.tar.gz
> 注:若要使用测试脚本,**对单个模型测试**,请把单个模型放入 `benchmark_models` 文件夹,并确保测试脚本、`benchmark_models`文件夹在同一级的目录。
注:上述模型都已经使用`model_optimize_tool`进行转化,而且Lite移动端只支持加载转化后的模型。如果需要测试其他模型,请先参考[模型转化方法](./model_optimize_tool)
注:上述模型都已经使用`model_optimize_tool`进行转化,而且Lite移动端只支持加载转化后的模型。如果需要测试其他模型,请先参考[模型转化方法](model_optimize_tool.html)
### 3. benchmark.sh脚本
......
......@@ -12,9 +12,9 @@ Lite框架目前支持的模型结构为[PaddlePaddle](https://github.com/Paddle
# 二. 模型优化
Lite框架拥有强大的加速、优化策略及实现,其中包含诸如量化、子图融合、Kernel优选等等优化手段,为了方便您使用这些优化策略,我们提供了[Model Optimize Tool](./model_optimize_tool)帮助您轻松进行模型优化。优化后的模型更轻量级,耗费资源更少,并且执行速度也更快。
Lite框架拥有强大的加速、优化策略及实现,其中包含诸如量化、子图融合、Kernel优选等等优化手段,为了方便您使用这些优化策略,我们提供了[Model Optimize Tool](model_optimize_tool.html)帮助您轻松进行模型优化。优化后的模型更轻量级,耗费资源更少,并且执行速度也更快。
Model Optimize Tool的详细介绍,请您参考 [模型优化方法](./model_optimize_tool)
Model Optimize Tool的详细介绍,请您参考 [模型优化方法](model_optimize_tool.html)
使用Model Optimize Tool,您只需执行以下代码:
## 1. Android
......@@ -72,8 +72,8 @@ $ adb shell
# 四. Lite API
为了方便您的使用,我们提供了C++与Java两种API,并且提供了相应的api使用的[完整示例](./demos),您可以参考示例中的说明快速了解C++/Java的API使用方法,并集成到您自己的项目中去。需要说明的是,为了减少第三方库的依赖、提高Lite预测框架的通用性,在移动端使用Lite API您需要准备Naive Buffer存储格式的模型,具体方法可参考第2节`模型优化`
为了方便您的使用,我们提供了C++与Java两种API,并且提供了相应的api使用的[完整示例](demos.html),您可以参考示例中的说明快速了解C++/Java的API使用方法,并集成到您自己的项目中去。需要说明的是,为了减少第三方库的依赖、提高Lite预测框架的通用性,在移动端使用Lite API您需要准备Naive Buffer存储格式的模型,具体方法可参考第2节`模型优化`
# 五. 测试工具
为了使您更好的了解并使用Lite框架,我们向有进一步使用需求的用户开放了 [Lite Model Debug Tool](./debug_tools)[Profile Monitor Tool](./debug_tools)。Lite Model Debug Tool可以用来查找Lite框架与PaddlePaddle框架在执行预测时模型中的对应变量值是否有差异,进一步快速定位问题Op,方便复现与排查问题。Profile Monitor Tool可以帮助您了解每个Op的执行时间消耗,其会自动统计Op执行的次数,最长、最短、平均执行时间等等信息,为性能调优做一个基础参考。您可以通过 [相关专题](./debug_tools) 了解更多内容。
为了使您更好的了解并使用Lite框架,我们向有进一步使用需求的用户开放了 [Lite Model Debug Tool](debug_tools.html)[Profile Monitor Tool](debug_tools.html)。Lite Model Debug Tool可以用来查找Lite框架与PaddlePaddle框架在执行预测时模型中的对应变量值是否有差异,进一步快速定位问题Op,方便复现与排查问题。Profile Monitor Tool可以帮助您了解每个Op的执行时间消耗,其会自动统计Op执行的次数,最长、最短、平均执行时间等等信息,为性能调优做一个基础参考。您可以通过 [相关专题](debug_tools.html) 了解更多内容。
Markdown is supported
0% .
You are about to add 0 people to the discussion. Proceed with caution.
先完成此消息的编辑!
想要评论请 注册