Skip to content
体验新版
项目
组织
正在加载...
登录
切换导航
打开侧边栏
机器未来
Paddle
提交
6e3255a1
P
Paddle
项目概览
机器未来
/
Paddle
与 Fork 源项目一致
Fork自
PaddlePaddle / Paddle
通知
1
Star
1
Fork
0
代码
文件
提交
分支
Tags
贡献者
分支图
Diff
Issue
1
列表
看板
标记
里程碑
合并请求
0
Wiki
0
Wiki
分析
仓库
DevOps
项目成员
Pages
P
Paddle
项目概览
项目概览
详情
发布
仓库
仓库
文件
提交
分支
标签
贡献者
分支图
比较
Issue
1
Issue
1
列表
看板
标记
里程碑
合并请求
0
合并请求
0
Pages
分析
分析
仓库分析
DevOps
Wiki
0
Wiki
成员
成员
收起侧边栏
关闭侧边栏
动态
分支图
创建新Issue
提交
Issue看板
提交
6e3255a1
编写于
8月 04, 2020
作者:
Z
zlsh80826
浏览文件
操作
浏览文件
下载
电子邮件补丁
差异文件
add stack plugin serialize
上级
bb17cc75
变更
2
隐藏空白更改
内联
并排
Showing
2 changed file
with
32 addition
and
15 deletion
+32
-15
paddle/fluid/inference/tensorrt/plugin/stack_op_plugin.cu
paddle/fluid/inference/tensorrt/plugin/stack_op_plugin.cu
+2
-7
paddle/fluid/inference/tensorrt/plugin/stack_op_plugin.h
paddle/fluid/inference/tensorrt/plugin/stack_op_plugin.h
+30
-8
未找到文件。
paddle/fluid/inference/tensorrt/plugin/stack_op_plugin.cu
浏览文件 @
6e3255a1
...
...
@@ -23,12 +23,7 @@ namespace inference {
namespace
tensorrt
{
namespace
plugin
{
// Dynamic Plugin below.
#if IS_TRT_VERSION_GE(6000)
size_t
StackPluginDynamic
::
getSerializationSize
()
const
{
return
0
;
}
void
StackPluginDynamic
::
serialize
(
void
*
buffer
)
const
{}
nvinfer1
::
DimsExprs
StackPluginDynamic
::
getOutputDimensions
(
int
output_index
,
const
nvinfer1
::
DimsExprs
*
inputs
,
int
nb_inputs
,
nvinfer1
::
IExprBuilder
&
expr_builder
)
{
...
...
@@ -119,9 +114,9 @@ int StackPluginDynamic::enqueue(const nvinfer1::PluginTensorDesc* input_desc,
sizeof
(
void
*
)
*
out_dims
.
d
[
axis_
],
cudaMemcpyHostToDevice
,
stream
);
int
num_stacks
=
out_dims
.
d
[
axis_
];
const
int
num_stacks
=
out_dims
.
d
[
axis_
];
dim3
num_blocks
(
num_stacks
,
lead_unit
);
int
num_threads
=
256
;
const
int
num_threads
=
256
;
auto
infer_type
=
input_desc
[
0
].
type
;
if
(
infer_type
==
nvinfer1
::
DataType
::
kFLOAT
)
{
...
...
paddle/fluid/inference/tensorrt/plugin/stack_op_plugin.h
浏览文件 @
6e3255a1
...
...
@@ -30,25 +30,47 @@ class StackPluginDynamic : public DynamicPluginTensorRT {
public:
StackPluginDynamic
(
int
axis
,
int
num_stack
)
:
axis_
(
axis
),
num_stack_
(
num_stack
)
{
int
device_id
;
cudaGetDevice
(
&
device_id
);
in_ptr_tensor_
.
Resize
({
num_stack
});
in_ptr_gpu_
=
in_ptr_tensor_
.
mutable_data
<
int64_t
>
(
platform
::
CUDAPlace
(
device_id
));
init
();
}
StackPluginDynamic
(
void
const
*
serialData
,
size_t
serialLength
)
{
DeserializeValue
(
&
serialData
,
&
serialLength
,
&
axis_
);
DeserializeValue
(
&
serialData
,
&
serialLength
,
&
num_stack_
);
init
();
}
StackPluginDynamic
(
void
const
*
serialData
,
size_t
serialLength
)
{}
~
StackPluginDynamic
()
{}
nvinfer1
::
IPluginV2DynamicExt
*
clone
()
const
override
{
return
new
StackPluginDynamic
(
axis_
,
num_stack_
);
}
void
init
()
{
int
device_id
;
cudaGetDevice
(
&
device_id
);
in_ptr_tensor_
.
Resize
({
num_stack_
});
in_ptr_gpu_
=
in_ptr_tensor_
.
mutable_data
<
int64_t
>
(
platform
::
CUDAPlace
(
device_id
));
}
const
char
*
getPluginType
()
const
override
{
return
"stack_plugin"
;
}
int
getNbOutputs
()
const
override
{
return
1
;
}
int
initialize
()
override
{
return
0
;
}
size_t
getSerializationSize
()
const
override
;
void
serialize
(
void
*
buffer
)
const
override
;
size_t
getSerializationSize
()
const
override
{
size_t
serialize_size
=
0
;
serialize_size
+=
SerializedSize
(
axis_
);
serialize_size
+=
SerializedSize
(
num_stack_
);
// serialize_size += num_stack_ * sizeof(int64_t);
return
serialize_size
;
}
void
serialize
(
void
*
buffer
)
const
override
{
SerializeValue
(
&
buffer
,
axis_
);
SerializeValue
(
&
buffer
,
num_stack_
);
// SerializeCudaPointer(&buffer, in_ptr_gpu_, num_stack_);
}
nvinfer1
::
DimsExprs
getOutputDimensions
(
int
outputIndex
,
const
nvinfer1
::
DimsExprs
*
inputs
,
int
nbInputs
,
...
...
编辑
预览
Markdown
is supported
0%
请重试
或
添加新附件
.
添加附件
取消
You are about to add
0
people
to the discussion. Proceed with caution.
先完成此消息的编辑!
取消
想要评论请
注册
或
登录