Skip to content
体验新版
项目
组织
正在加载...
登录
切换导航
打开侧边栏
s920243400
PaddleDetection
提交
18c2099a
P
PaddleDetection
项目概览
s920243400
/
PaddleDetection
与 Fork 源项目一致
Fork自
PaddlePaddle / PaddleDetection
通知
2
Star
0
Fork
0
代码
文件
提交
分支
Tags
贡献者
分支图
Diff
Issue
0
列表
看板
标记
里程碑
合并请求
0
Wiki
0
Wiki
分析
仓库
DevOps
项目成员
Pages
P
PaddleDetection
项目概览
项目概览
详情
发布
仓库
仓库
文件
提交
分支
标签
贡献者
分支图
比较
Issue
0
Issue
0
列表
看板
标记
里程碑
合并请求
0
合并请求
0
Pages
分析
分析
仓库分析
DevOps
Wiki
0
Wiki
成员
成员
收起侧边栏
关闭侧边栏
动态
分支图
创建新Issue
提交
Issue看板
未验证
提交
18c2099a
编写于
6月 07, 2022
作者:
S
shangliang Xu
提交者:
GitHub
6月 07, 2022
浏览文件
操作
浏览文件
下载
电子邮件补丁
差异文件
[TIPC] fix cpp infer bug, test=document_fix (#6149)
上级
8416465e
变更
2
隐藏空白更改
内联
并排
Showing
2 changed file
with
27 addition
and
13 deletion
+27
-13
test_tipc/docs/test_inference_cpp.md
test_tipc/docs/test_inference_cpp.md
+8
-3
test_tipc/test_inference_cpp.sh
test_tipc/test_inference_cpp.sh
+19
-10
未找到文件。
test_tipc/docs/test_inference_cpp.md
浏览文件 @
18c2099a
...
...
@@ -17,7 +17,10 @@ C++预测功能测试的主程序为`test_inference_cpp.sh`,可以测试基于
运行环境配置请参考
[
文档
](
./install.md
)
的内容配置TIPC的运行环境。
```
# 请设置paddle_inference环境变量,如:
export PADDLE_DIR=/path/paddle_inference
export PADDLE_INFER_DIR=/path/to/paddle_inference
# 若不设置paddle_inference环境变量,也可通过指定参数的方式使脚本自动下载paddle_inference.tgz,如:
bash test_tipc/test_inference_cpp.sh test_tipc/configs/yolov3/yolov3_darknet53_270e_coco_model_linux_gpu_normal_normal_infer_cpp_linux_gpu_cpu.txt 'https://paddle-inference-lib.bj.bcebos.com/2.3.0/cxx_c/Linux/GPU/x86-64_gcc8.2_avx_mkl_cuda10.1_cudnn7.6.5_trt6.0.1.5/paddle_inference.tgz'
# 若未使用docker镜像: paddlepaddle/paddle:latest-gpu-cuda10.1-cudnn7-gcc82-dev
# 请设置TensorRT环境变量,如:
export TENSORRT_ROOT=/usr/local/TensorRT6-cuda10.1-cudnn7
...
...
@@ -30,8 +33,10 @@ export TENSORRT_ROOT=/usr/local/TensorRT6-cuda10.1-cudnn7
bash test_tipc/prepare.sh ./test_tipc/configs/yolov3/yolov3_darknet53_270e_coco_model_linux_gpu_normal_normal_infer_cpp_linux_gpu_cpu.txt
"cpp_infer"
# 用法1:
bash test_tipc/test_inference_cpp.sh test_tipc/configs/yolov3/yolov3_darknet53_270e_coco_model_linux_gpu_normal_normal_infer_cpp_linux_gpu_cpu.txt
# 用法2: 指定GPU卡预测,第三个传入参数为GPU卡号
bash test_tipc/test_inference_cpp.sh test_tipc/configs/yolov3/yolov3_darknet53_270e_coco_model_linux_gpu_normal_normal_infer_cpp_linux_gpu_cpu.txt
'1'
# 用法2: 指定下载paddle_inference.tgz链接,第二个传入参数为下载链接
bash test_tipc/test_inference_cpp.sh test_tipc/configs/yolov3/yolov3_darknet53_270e_coco_model_linux_gpu_normal_normal_infer_cpp_linux_gpu_cpu.txt
'https://paddle-inference-lib.bj.bcebos.com/2.3.0/cxx_c/Linux/GPU/x86-64_gcc8.2_avx_mkl_cuda10.1_cudnn7.6.5_trt6.0.1.5/paddle_inference.tgz'
# 用法3: 同时指定下载paddle_inference.tgz链接和指定GPU卡预测,第三个传入参数为GPU卡号
bash test_tipc/test_inference_cpp.sh test_tipc/configs/yolov3/yolov3_darknet53_270e_coco_model_linux_gpu_normal_normal_infer_cpp_linux_gpu_cpu.txt
'https://paddle-inference-lib.bj.bcebos.com/2.3.0/cxx_c/Linux/GPU/x86-64_gcc8.2_avx_mkl_cuda10.1_cudnn7.6.5_trt6.0.1.5/paddle_inference.tgz'
'1'
```
运行预测指令后,在
`test_tipc/output`
文件夹下自动会保存运行日志,包括以下文件:
...
...
test_tipc/test_inference_cpp.sh
浏览文件 @
18c2099a
...
...
@@ -129,11 +129,21 @@ else
fi
# build program
# TODO: set PADDLE_DIR and TENSORRT_ROOT
if
[
-z
$PADDLE_DIR
]
;
then
wget
-nc
https://paddle-inference-lib.bj.bcebos.com/2.2.2/cxx_c/Linux/GPU/x86-64_gcc8.2_avx_mkl_cuda11.1_cudnn8.1.1_trt7.2.3.4/paddle_inference.tgz
--no-check-certificate
tar
zxf paddle_inference.tgz
PADDLE_DIR
=
$(
pwd
)
/paddle_inference
# TODO: set PADDLE_INFER_DIR and TENSORRT_ROOT
if
[
-z
$PADDLE_INFER_DIR
]
;
then
Paddle_Infer_Link
=
$2
if
[
""
=
"
$Paddle_Infer_Link
"
]
;
then
wget
-nc
https://paddle-inference-lib.bj.bcebos.com/2.2.2/cxx_c/Linux/GPU/x86-64_gcc8.2_avx_mkl_cuda10.1_cudnn7.6.5_trt6.0.1.5/paddle_inference.tgz
--no-check-certificate
tar
zxf paddle_inference.tgz
PADDLE_INFER_DIR
=
$(
pwd
)
/paddle_inference
else
wget
-nc
$Paddle_Infer_Link
--no-check-certificate
tar
zxf paddle_inference.tgz
PADDLE_INFER_DIR
=
$(
pwd
)
/paddle_inference
if
[
!
-d
"paddle_inference"
]
;
then
PADDLE_INFER_DIR
=
$(
pwd
)
/paddle_inference_install_dir
fi
fi
fi
if
[
-z
$TENSORRT_ROOT
]
;
then
TENSORRT_ROOT
=
/usr/local/TensorRT6-cuda10.1-cudnn7
...
...
@@ -148,10 +158,10 @@ mkdir -p build
cd
./build
cmake ..
\
-DWITH_GPU
=
ON
\
-DWITH_MKL
=
O
FF
\
-DWITH_MKL
=
O
N
\
-DWITH_TENSORRT
=
OFF
\
-DPADDLE_LIB_NAME
=
libpaddle_inference
\
-DPADDLE_DIR
=
${
PADDLE_DIR
}
\
-DPADDLE_DIR
=
${
PADDLE_
INFER_
DIR
}
\
-DCUDA_LIB
=
${
CUDA_LIB
}
\
-DCUDNN_LIB
=
${
CUDNN_LIB
}
\
-DTENSORRT_LIB_DIR
=
${
TENSORRT_LIB_DIR
}
\
...
...
@@ -160,13 +170,13 @@ cmake .. \
-DWITH_KEYPOINT
=
ON
\
-DWITH_MOT
=
ON
make
-j
4
make
-j
8
cd
../../../
echo
"################### build finished! ###################"
# set cuda device
GPUID
=
$
2
GPUID
=
$
3
if
[
${#
GPUID
}
-le
0
]
;
then
env
=
" "
else
...
...
@@ -178,7 +188,6 @@ Count=0
IFS
=
"|"
infer_quant_flag
=(
${
cpp_infer_is_quant_list
}
)
for
infer_mode
in
${
cpp_infer_mode_list
[*]
}
;
do
# run export
case
${
infer_mode
}
in
norm
)
run_export
=
${
norm_export
}
;;
...
...
编辑
预览
Markdown
is supported
0%
请重试
或
添加新附件
.
添加附件
取消
You are about to add
0
people
to the discussion. Proceed with caution.
先完成此消息的编辑!
取消
想要评论请
注册
或
登录