Skip to content
体验新版
项目
组织
正在加载...
登录
切换导航
打开侧边栏
BaiXuePrincess
Paddle
提交
01bd8dd2
P
Paddle
项目概览
BaiXuePrincess
/
Paddle
与 Fork 源项目一致
Fork自
PaddlePaddle / Paddle
通知
1
Star
1
Fork
0
代码
文件
提交
分支
Tags
贡献者
分支图
Diff
Issue
0
列表
看板
标记
里程碑
合并请求
0
Wiki
0
Wiki
分析
仓库
DevOps
项目成员
Pages
P
Paddle
项目概览
项目概览
详情
发布
仓库
仓库
文件
提交
分支
标签
贡献者
分支图
比较
Issue
0
Issue
0
列表
看板
标记
里程碑
合并请求
0
合并请求
0
Pages
分析
分析
仓库分析
DevOps
Wiki
0
Wiki
成员
成员
收起侧边栏
关闭侧边栏
动态
分支图
创建新Issue
提交
Issue看板
提交
01bd8dd2
编写于
6月 12, 2019
作者:
H
Hong Ming
提交者:
Tensor Tang
6月 12, 2019
浏览文件
操作
浏览文件
下载
电子邮件补丁
差异文件
enable conv_winograd, fix conv_gemmlike bug, and update the unit tests of conv op
test=develop
上级
656e27e8
变更
2
显示空白变更内容
内联
并排
Showing
2 changed file
with
22 addition
and
13 deletion
+22
-13
paddle/fluid/lite/kernels/arm/conv_compute.h
paddle/fluid/lite/kernels/arm/conv_compute.h
+7
-2
paddle/fluid/lite/kernels/arm/conv_compute_test.cc
paddle/fluid/lite/kernels/arm/conv_compute_test.cc
+15
-11
未找到文件。
paddle/fluid/lite/kernels/arm/conv_compute.h
浏览文件 @
01bd8dd2
...
@@ -30,10 +30,15 @@ class ConvCompute : public KernelLite<TARGET(kARM), PRECISION(kFloat)> {
...
@@ -30,10 +30,15 @@ class ConvCompute : public KernelLite<TARGET(kARM), PRECISION(kFloat)> {
void
Run
()
override
;
void
Run
()
override
;
virtual
~
ConvCompute
()
=
default
;
~
ConvCompute
()
{
if
(
impl_
!=
nullptr
)
{
delete
impl_
;
}
}
private:
private:
lite
::
arm
::
math
::
ImplBase
<
TARGET
(
kARM
),
PRECISION
(
kFloat
),
param_t
>*
impl_
;
lite
::
arm
::
math
::
ImplBase
<
TARGET
(
kARM
),
PRECISION
(
kFloat
),
param_t
>*
impl_
{
nullptr
};
};
};
}
// namespace arm
}
// namespace arm
...
...
paddle/fluid/lite/kernels/arm/conv_compute_test.cc
浏览文件 @
01bd8dd2
...
@@ -123,11 +123,6 @@ TEST(conv_arm, init) {
...
@@ -123,11 +123,6 @@ TEST(conv_arm, init) {
}
}
TEST
(
conv_arm
,
compute
)
{
TEST
(
conv_arm
,
compute
)
{
lite
::
Tensor
input
;
lite
::
Tensor
filter
;
lite
::
Tensor
bias
;
lite
::
Tensor
output
;
lite
::
Tensor
output_ref
;
DeviceInfo
::
Init
();
DeviceInfo
::
Init
();
for
(
auto
n
:
{
1
,
2
})
{
for
(
auto
n
:
{
1
,
2
})
{
for
(
auto
ic
:
{
6
,
32
/*, 128*/
})
{
for
(
auto
ic
:
{
6
,
32
/*, 128*/
})
{
...
@@ -149,17 +144,26 @@ TEST(conv_arm, compute) {
...
@@ -149,17 +144,26 @@ TEST(conv_arm, compute) {
std
::
vector
<
int64_t
>
input_shape
=
{
n
,
ic
,
ih
,
iw
};
std
::
vector
<
int64_t
>
input_shape
=
{
n
,
ic
,
ih
,
iw
};
std
::
vector
<
int64_t
>
filter_shape
=
{
oc
,
ic
/
group
,
std
::
vector
<
int64_t
>
filter_shape
=
{
oc
,
ic
/
group
,
ks
,
ks
};
ks
,
ks
};
std
::
vector
<
int64_t
>
output_shape
({
n
,
oc
});
const
int
dks
=
dilation
*
(
ks
-
1
)
+
1
;
const
int
dkernel
=
dilation
*
(
ks
-
1
)
+
1
;
int
oh
=
(
ih
+
2
*
padding
-
dks
)
/
stride
+
1
;
output_shape
.
push_back
(
int
ow
=
(
iw
+
2
*
padding
-
dks
)
/
stride
+
1
;
(
ih
+
2
*
padding
-
dkernel
)
/
stride
+
1
);
std
::
vector
<
int64_t
>
output_shape
({
n
,
oc
,
oh
,
ow
});
output_shape
.
push_back
(
(
iw
+
2
*
padding
-
dkernel
)
/
stride
+
1
);
// resize input, filter and output
// resize input, filter and output
Tensor
input
;
Tensor
filter
;
Tensor
bias
;
Tensor
output
;
Tensor
output_ref
;
input
.
Resize
(
input_shape
);
input
.
Resize
(
input_shape
);
filter
.
Resize
(
filter_shape
);
filter
.
Resize
(
filter_shape
);
output
.
Resize
(
output_shape
);
output
.
Resize
(
output_shape
);
output_ref
.
Resize
(
output_shape
);
output_ref
.
Resize
(
output_shape
);
LOG
(
INFO
)
<<
"input: "
<<
input
.
dims
();
LOG
(
INFO
)
<<
"filter: "
<<
filter
.
dims
()
<<
" padding:"
<<
padding
<<
" stride:"
<<
stride
<<
" dilation:"
<<
dilation
;
LOG
(
INFO
)
<<
"output: "
<<
output
.
dims
();
auto
*
input_data
=
input
.
mutable_data
<
float
>
();
auto
*
input_data
=
input
.
mutable_data
<
float
>
();
auto
*
filter_data
=
filter
.
mutable_data
<
float
>
();
auto
*
filter_data
=
filter
.
mutable_data
<
float
>
();
auto
*
output_data
=
output
.
mutable_data
<
float
>
();
auto
*
output_data
=
output
.
mutable_data
<
float
>
();
...
...
编辑
预览
Markdown
is supported
0%
请重试
或
添加新附件
.
添加附件
取消
You are about to add
0
people
to the discussion. Proceed with caution.
先完成此消息的编辑!
取消
想要评论请
注册
或
登录