Skip to content
体验新版
项目
组织
正在加载...
登录
切换导航
打开侧边栏
s920243400
PaddleDetection
提交
a6acb959
P
PaddleDetection
项目概览
s920243400
/
PaddleDetection
与 Fork 源项目一致
Fork自
PaddlePaddle / PaddleDetection
通知
2
Star
0
Fork
0
代码
文件
提交
分支
Tags
贡献者
分支图
Diff
Issue
0
列表
看板
标记
里程碑
合并请求
0
Wiki
0
Wiki
分析
仓库
DevOps
项目成员
Pages
P
PaddleDetection
项目概览
项目概览
详情
发布
仓库
仓库
文件
提交
分支
标签
贡献者
分支图
比较
Issue
0
Issue
0
列表
看板
标记
里程碑
合并请求
0
合并请求
0
Pages
分析
分析
仓库分析
DevOps
Wiki
0
Wiki
成员
成员
收起侧边栏
关闭侧边栏
动态
分支图
创建新Issue
提交
Issue看板
未验证
提交
a6acb959
编写于
4月 19, 2022
作者:
G
Guanghua Yu
提交者:
GitHub
4月 19, 2022
浏览文件
操作
浏览文件
下载
电子邮件补丁
差异文件
fix deploy docs (#5749)
上级
81c98411
变更
3
隐藏空白更改
内联
并排
Showing
3 changed file
with
4 addition
and
3 deletion
+4
-3
deploy/TENSOR_RT.md
deploy/TENSOR_RT.md
+1
-1
deploy/cpp/docs/linux_build.md
deploy/cpp/docs/linux_build.md
+1
-1
deploy/lite/README.md
deploy/lite/README.md
+2
-1
未找到文件。
deploy/TENSOR_RT.md
浏览文件 @
a6acb959
...
...
@@ -2,7 +2,7 @@
TensorRT是NVIDIA提出的用于统一模型部署的加速库,可以应用于V100、JETSON Xavier等硬件,它可以极大提高预测速度。Paddle TensorRT教程请参考文档
[
使用Paddle-TensorRT库预测
](
https://paddle-inference.readthedocs.io/en/latest/optimize/paddle_trt.html#
)
## 1. 安装PaddleInference预测库
-
Python安装包,请从
[
这里
](
https://
www.paddlepaddle.org.cn/documentation/docs/zh/install/Tables.html#whl-release
)
下载带有tensorrt的安装包进行安装
-
Python安装包,请从
[
这里
](
https://
paddleinference.paddlepaddle.org.cn/user_guides/download_lib.html#python
)
下载带有tensorrt的安装包进行安装
-
CPP预测库,请从
[
这里
](
https://www.paddlepaddle.org.cn/documentation/docs/zh/guides/05_inference_deployment/inference/build_and_install_lib_cn.html
)
下载带有TensorRT编译的预测库
...
...
deploy/cpp/docs/linux_build.md
浏览文件 @
a6acb959
# Linux平台编译指南
## 说明
本文档在
`Linux`
平台使用
`GCC 8.2`
测试过,如果需要使用其他G++版本编译使用,则需要重新编译Paddle预测库,请参考:
[
从源码编译Paddle预测库
](
https://paddleinference.paddlepaddle.org.cn/user_guides/source_compile.html
)
。本文档使用的预置的opencv库是在ubuntu 16.04上用gcc
4.8编译的,如果需要在ubuntu 16.04以外的系统
环境编译,那么需自行编译opencv库。
本文档在
`Linux`
平台使用
`GCC 8.2`
测试过,如果需要使用其他G++版本编译使用,则需要重新编译Paddle预测库,请参考:
[
从源码编译Paddle预测库
](
https://paddleinference.paddlepaddle.org.cn/user_guides/source_compile.html
)
。本文档使用的预置的opencv库是在ubuntu 16.04上用gcc
8.2编译的,如果需要在gcc8.2以外的
环境编译,那么需自行编译opencv库。
## 前置条件
*
G++ 8.2
...
...
deploy/lite/README.md
浏览文件 @
a6acb959
...
...
@@ -33,7 +33,8 @@ export NDK_ROOT=[YOUR_NDK_PATH]/android-ndk-r17c
| Android | arm8 |
[
inference_lite_lib
](
https://github.com/PaddlePaddle/Paddle-Lite/releases/download/v2.10-rc/inference_lite_lib.android.armv8.clang.c++_static.with_extra.with_cv.tar.gz
)
|
| Android | arm8(FP16) |
[
inference_lite_lib
](
https://github.com/PaddlePaddle/Paddle-Lite/releases/download/v2.10-rc/inference_lite_lib.android.armv8_clang_c++_static_with_extra_with_cv_with_fp16.tiny_publish_427e46.zip
)
|
**注意**
:1. 如果是从 Paddle-Lite
[
官方文档
](
https://paddle-lite.readthedocs.io/zh/latest/quick_start/release_lib.html#android-toolchain-gcc
)
下载的预测库,注意选择
`with_extra=ON,with_cv=ON`
的下载链接。2. 目前只提供Android端demo,IOS端demo可以参考
[
Paddle-Lite IOS demo
](
https://github.com/PaddlePaddle/Paddle-Lite-Demo/tree/master/PaddleLite-ios-demo
)
**注意**
:(1) 如果是从 Paddle-Lite
[
官方文档
](
https://paddle-lite.readthedocs.io/zh/latest/quick_start/release_lib.html#android-toolchain-gcc
)
下载的预测库,注意选择
`with_extra=ON,with_cv=ON`
的下载链接。2. 目前只提供Android端demo,IOS端demo可以参考
[
Paddle-Lite IOS demo
](
https://github.com/PaddlePaddle/Paddle-Lite-Demo/tree/master/PaddleLite-ios-demo
)
(2)PP-PicoDet部署需要Paddle Lite 2.11以上版本,建议选择从源码编译的方式。
2.
编译Paddle-Lite得到预测库,Paddle-Lite的编译方式如下(Lite库在不断更新,如若下列命令无效,请以Lite官方repo为主):
...
...
编辑
预览
Markdown
is supported
0%
请重试
或
添加新附件
.
添加附件
取消
You are about to add
0
people
to the discussion. Proceed with caution.
先完成此消息的编辑!
取消
想要评论请
注册
或
登录