Skip to content
体验新版
项目
组织
正在加载...
登录
切换导航
打开侧边栏
BaiXuePrincess
Paddle
提交
f82baed8
P
Paddle
项目概览
BaiXuePrincess
/
Paddle
与 Fork 源项目一致
Fork自
PaddlePaddle / Paddle
通知
1
Star
1
Fork
0
代码
文件
提交
分支
Tags
贡献者
分支图
Diff
Issue
0
列表
看板
标记
里程碑
合并请求
0
Wiki
0
Wiki
分析
仓库
DevOps
项目成员
Pages
P
Paddle
项目概览
项目概览
详情
发布
仓库
仓库
文件
提交
分支
标签
贡献者
分支图
比较
Issue
0
Issue
0
列表
看板
标记
里程碑
合并请求
0
合并请求
0
Pages
分析
分析
仓库分析
DevOps
Wiki
0
Wiki
成员
成员
收起侧边栏
关闭侧边栏
动态
分支图
创建新Issue
提交
Issue看板
未验证
提交
f82baed8
编写于
7月 28, 2020
作者:
P
Pei Yang
提交者:
GitHub
7月 28, 2020
浏览文件
操作
浏览文件
下载
电子邮件补丁
差异文件
fix trt instance norm plugin on gcc8. test=develop (#25730)
上级
920d998f
变更
2
显示空白变更内容
内联
并排
Showing
2 changed file
with
4 addition
and
4 deletion
+4
-4
paddle/fluid/inference/tensorrt/plugin/instance_norm_op_plugin.cu
...luid/inference/tensorrt/plugin/instance_norm_op_plugin.cu
+1
-0
paddle/fluid/inference/tests/api/CMakeLists.txt
paddle/fluid/inference/tests/api/CMakeLists.txt
+3
-4
未找到文件。
paddle/fluid/inference/tensorrt/plugin/instance_norm_op_plugin.cu
浏览文件 @
f82baed8
...
@@ -111,6 +111,7 @@ int InstanceNormPlugin::enqueue(int batch_size, const void *const *inputs,
...
@@ -111,6 +111,7 @@ int InstanceNormPlugin::enqueue(int batch_size, const void *const *inputs,
handle_
,
CUDNN_BATCHNORM_SPATIAL_PERSISTENT
,
&
alpha
,
&
beta
,
x_desc_
,
handle_
,
CUDNN_BATCHNORM_SPATIAL_PERSISTENT
,
&
alpha
,
&
beta
,
x_desc_
,
x_ptr
,
y_desc_
,
y_ptr
,
b_desc_
,
scale_d
,
bias_d
,
1.
,
nullptr
,
nullptr
,
x_ptr
,
y_desc_
,
y_ptr
,
b_desc_
,
scale_d
,
bias_d
,
1.
,
nullptr
,
nullptr
,
eps_
,
nullptr
,
nullptr
);
eps_
,
nullptr
,
nullptr
);
return
cudaGetLastError
()
!=
cudaSuccess
;
}
}
}
// namespace plugin
}
// namespace plugin
...
...
paddle/fluid/inference/tests/api/CMakeLists.txt
浏览文件 @
f82baed8
...
@@ -389,10 +389,9 @@ if(WITH_GPU AND TENSORRT_FOUND)
...
@@ -389,10 +389,9 @@ if(WITH_GPU AND TENSORRT_FOUND)
inference_analysis_test
(
trt_split_converter_test SRCS trt_split_converter_test.cc
inference_analysis_test
(
trt_split_converter_test SRCS trt_split_converter_test.cc
EXTRA_DEPS
${
INFERENCE_EXTRA_DEPS
}
EXTRA_DEPS
${
INFERENCE_EXTRA_DEPS
}
ARGS --infer_model=
${
TEST_SPLIT_CONVERTER_MODEL
}
/
)
ARGS --infer_model=
${
TEST_SPLIT_CONVERTER_MODEL
}
/
)
#TODO(peiyang): Fix this unitest failed on GCC8.
inference_analysis_test
(
trt_instance_norm_test SRCS trt_instance_norm_converter_test.cc
#inference_analysis_test(trt_instance_norm_test SRCS trt_instance_norm_converter_test.cc
EXTRA_DEPS
${
INFERENCE_EXTRA_DEPS
}
# EXTRA_DEPS ${INFERENCE_EXTRA_DEPS}
ARGS --infer_model=
${
TEST_INSTANCE_NORM_MODEL
}
/
)
# ARGS --infer_model=${TEST_INSTANCE_NORM_MODEL}/)
inference_analysis_test
(
test_analyzer_capi_gpu SRCS analyzer_capi_gpu_tester.cc
inference_analysis_test
(
test_analyzer_capi_gpu SRCS analyzer_capi_gpu_tester.cc
EXTRA_DEPS
${
INFERENCE_EXTRA_DEPS
}
paddle_fluid_c
EXTRA_DEPS
${
INFERENCE_EXTRA_DEPS
}
paddle_fluid_c
ARGS --infer_model=
${
TRT_MODEL_INSTALL_DIR
}
/trt_inference_test_models
)
ARGS --infer_model=
${
TRT_MODEL_INSTALL_DIR
}
/trt_inference_test_models
)
...
...
编辑
预览
Markdown
is supported
0%
请重试
或
添加新附件
.
添加附件
取消
You are about to add
0
people
to the discussion. Proceed with caution.
先完成此消息的编辑!
取消
想要评论请
注册
或
登录