Skip to content
体验新版
项目
组织
正在加载...
登录
切换导航
打开侧边栏
PaddlePaddle
PaddleX
提交
746e0328
P
PaddleX
项目概览
PaddlePaddle
/
PaddleX
通知
138
Star
4
Fork
0
代码
文件
提交
分支
Tags
贡献者
分支图
Diff
Issue
43
列表
看板
标记
里程碑
合并请求
5
Wiki
0
Wiki
分析
仓库
DevOps
项目成员
Pages
P
PaddleX
项目概览
项目概览
详情
发布
仓库
仓库
文件
提交
分支
标签
贡献者
分支图
比较
Issue
43
Issue
43
列表
看板
标记
里程碑
合并请求
5
合并请求
5
Pages
分析
分析
仓库分析
DevOps
Wiki
0
Wiki
成员
成员
收起侧边栏
关闭侧边栏
动态
分支图
创建新Issue
提交
Issue看板
提交
746e0328
编写于
6月 17, 2020
作者:
J
jack
浏览文件
操作
浏览文件
下载
电子邮件补丁
差异文件
inputs_batch_.size() -> batch_size
上级
7f4a75f1
变更
1
隐藏空白更改
内联
并排
Showing
1 changed file
with
8 addition
and
8 deletion
+8
-8
deploy/cpp/src/paddlex.cpp
deploy/cpp/src/paddlex.cpp
+8
-8
未找到文件。
deploy/cpp/src/paddlex.cpp
浏览文件 @
746e0328
...
...
@@ -191,7 +191,7 @@ bool Model::predict(const std::vector<cv::Mat> &im_batch, std::vector<ClsResult>
int
w
=
inputs_batch_
[
0
].
new_im_size_
[
1
];
in_tensor
->
Reshape
({
batch_size
,
3
,
h
,
w
});
std
::
vector
<
float
>
inputs_data
(
batch_size
*
3
*
h
*
w
);
for
(
int
i
=
0
;
i
<
inputs_batch_
.
size
()
;
++
i
)
{
for
(
int
i
=
0
;
i
<
batch_size
;
++
i
)
{
std
::
copy
(
inputs_batch_
[
i
].
im_data_
.
begin
(),
inputs_batch_
[
i
].
im_data_
.
end
(),
inputs_data
.
begin
()
+
i
*
3
*
h
*
w
);
}
in_tensor
->
copy_from_cpu
(
inputs_data
.
data
());
...
...
@@ -350,7 +350,7 @@ bool Model::predict(const std::vector<cv::Mat> &im_batch, std::vector<DetResult>
if
(
name
==
"FasterRCNN"
||
name
==
"MaskRCNN"
)
{
int
max_h
=
-
1
;
int
max_w
=
-
1
;
for
(
int
i
=
0
;
i
<
inputs_batch_
.
size
()
;
++
i
)
{
for
(
int
i
=
0
;
i
<
batch_size
;
++
i
)
{
max_h
=
std
::
max
(
max_h
,
inputs_batch_
[
i
].
new_im_size_
[
0
]);
max_w
=
std
::
max
(
max_w
,
inputs_batch_
[
i
].
new_im_size_
[
1
]);
std
::
cout
<<
"("
<<
inputs_batch_
[
i
].
new_im_size_
[
0
]
...
...
@@ -358,7 +358,7 @@ bool Model::predict(const std::vector<cv::Mat> &im_batch, std::vector<DetResult>
<<
")"
<<
std
::
endl
;
}
#pragma omp parallel for num_threads(batch_size)
for
(
int
i
=
0
;
i
<
inputs_batch_
.
size
()
;
++
i
)
{
for
(
int
i
=
0
;
i
<
batch_size
;
++
i
)
{
int
h
=
inputs_batch_
[
i
].
new_im_size_
[
0
];
int
w
=
inputs_batch_
[
i
].
new_im_size_
[
1
];
int
c
=
im_batch
[
i
].
channels
();
...
...
@@ -385,7 +385,7 @@ bool Model::predict(const std::vector<cv::Mat> &im_batch, std::vector<DetResult>
auto
im_tensor
=
predictor_
->
GetInputTensor
(
"image"
);
im_tensor
->
Reshape
({
batch_size
,
3
,
h
,
w
});
std
::
vector
<
float
>
inputs_data
(
batch_size
*
3
*
h
*
w
);
for
(
int
i
=
0
;
i
<
inputs_batch_
.
size
()
;
++
i
)
{
for
(
int
i
=
0
;
i
<
batch_size
;
++
i
)
{
std
::
copy
(
inputs_batch_
[
i
].
im_data_
.
begin
(),
inputs_batch_
[
i
].
im_data_
.
end
(),
inputs_data
.
begin
()
+
i
*
3
*
h
*
w
);
}
im_tensor
->
copy_from_cpu
(
inputs_data
.
data
());
...
...
@@ -393,7 +393,7 @@ bool Model::predict(const std::vector<cv::Mat> &im_batch, std::vector<DetResult>
auto
im_size_tensor
=
predictor_
->
GetInputTensor
(
"im_size"
);
im_size_tensor
->
Reshape
({
batch_size
,
2
});
std
::
vector
<
int
>
inputs_data_size
(
batch_size
*
2
);
for
(
int
i
=
0
;
i
<
inputs_batch_
.
size
()
;
++
i
){
for
(
int
i
=
0
;
i
<
batch_size
;
++
i
){
std
::
copy
(
inputs_batch_
[
i
].
ori_im_size_
.
begin
(),
inputs_batch_
[
i
].
ori_im_size_
.
end
(),
inputs_data_size
.
begin
()
+
2
*
i
);
}
im_size_tensor
->
copy_from_cpu
(
inputs_data_size
.
data
());
...
...
@@ -405,7 +405,7 @@ bool Model::predict(const std::vector<cv::Mat> &im_batch, std::vector<DetResult>
std
::
vector
<
float
>
im_info
(
3
*
batch_size
);
std
::
vector
<
float
>
im_shape
(
3
*
batch_size
);
for
(
int
i
=
0
;
i
<
inputs_batch_
.
size
()
;
++
i
)
{
for
(
int
i
=
0
;
i
<
batch_size
;
++
i
)
{
float
ori_h
=
static_cast
<
float
>
(
inputs_batch_
[
i
].
ori_im_size_
[
0
]);
float
ori_w
=
static_cast
<
float
>
(
inputs_batch_
[
i
].
ori_im_size_
[
1
]);
float
new_h
=
static_cast
<
float
>
(
inputs_batch_
[
i
].
new_im_size_
[
0
]);
...
...
@@ -485,7 +485,7 @@ bool Model::predict(const std::vector<cv::Mat> &im_batch, std::vector<DetResult>
}
}
}
return
true
;
return
true
;
}
bool
Model
::
predict
(
const
cv
::
Mat
&
im
,
SegResult
*
result
)
{
...
...
@@ -627,7 +627,7 @@ bool Model::predict(const std::vector<cv::Mat> &im_batch, std::vector<SegResult>
auto
im_tensor
=
predictor_
->
GetInputTensor
(
"image"
);
im_tensor
->
Reshape
({
batch_size
,
3
,
h
,
w
});
std
::
vector
<
float
>
inputs_data
(
batch_size
*
3
*
h
*
w
);
for
(
int
i
=
0
;
i
<
inputs_batch_
.
size
()
;
++
i
)
{
for
(
int
i
=
0
;
i
<
batch_size
;
++
i
)
{
std
::
copy
(
inputs_batch_
[
i
].
im_data_
.
begin
(),
inputs_batch_
[
i
].
im_data_
.
end
(),
inputs_data
.
begin
()
+
i
*
3
*
h
*
w
);
}
im_tensor
->
copy_from_cpu
(
inputs_data
.
data
());
...
...
编辑
预览
Markdown
is supported
0%
请重试
或
添加新附件
.
添加附件
取消
You are about to add
0
people
to the discussion. Proceed with caution.
先完成此消息的编辑!
取消
想要评论请
注册
或
登录