Skip to content
体验新版
项目
组织
正在加载...
登录
切换导航
打开侧边栏
BaiXuePrincess
Paddle
提交
17ec1620
P
Paddle
项目概览
BaiXuePrincess
/
Paddle
与 Fork 源项目一致
Fork自
PaddlePaddle / Paddle
通知
1
Star
1
Fork
0
代码
文件
提交
分支
Tags
贡献者
分支图
Diff
Issue
0
列表
看板
标记
里程碑
合并请求
0
Wiki
0
Wiki
分析
仓库
DevOps
项目成员
Pages
P
Paddle
项目概览
项目概览
详情
发布
仓库
仓库
文件
提交
分支
标签
贡献者
分支图
比较
Issue
0
Issue
0
列表
看板
标记
里程碑
合并请求
0
合并请求
0
Pages
分析
分析
仓库分析
DevOps
Wiki
0
Wiki
成员
成员
收起侧边栏
关闭侧边栏
动态
分支图
创建新Issue
提交
Issue看板
未验证
提交
17ec1620
编写于
12月 27, 2022
作者:
X
xiongkun
提交者:
GitHub
12月 27, 2022
浏览文件
操作
浏览文件
下载
电子邮件补丁
差异文件
Revert "make bilinear interpolate stable. (#48644)" (#49307)
This reverts commit
e1e8bf72
.
上级
a9533953
变更
1
隐藏空白更改
内联
并排
Showing
1 changed file
with
14 addition
and
28 deletion
+14
-28
paddle/phi/kernels/gpu/interpolate_grad_kernel.cu
paddle/phi/kernels/gpu/interpolate_grad_kernel.cu
+14
-28
未找到文件。
paddle/phi/kernels/gpu/interpolate_grad_kernel.cu
浏览文件 @
17ec1620
...
...
@@ -25,8 +25,6 @@
#include "paddle/phi/kernels/funcs/math_function.h"
#include "paddle/phi/kernels/primitive/datamover_primitives.h"
DECLARE_bool
(
cudnn_deterministic
);
namespace
phi
{
template
<
typename
T
>
...
...
@@ -1039,12 +1037,6 @@ static void Interpolate2DCUDABwd(
#endif
if
(
optimize_flag
&
is_nchw
)
{
if
(
FLAGS_cudnn_deterministic
)
{
VLOG
(
2
)
<<
"Run grad kernel of bilinear interpolate 2d with single thread."
;
config
.
block_per_grid
=
1
;
config
.
thread_per_block
=
1
;
}
KeBilinearInterpBwShareMemory
<
T
><<<
config
.
block_per_grid
,
config
.
thread_per_block
,
0
,
...
...
@@ -1063,27 +1055,21 @@ static void Interpolate2DCUDABwd(
}
else
if
(
!
optimize_flag
&
is_nchw
)
{
const
int
num_kernels
=
n
*
c
*
out_h
*
out_w
;
const
int
num_threads
=
std
::
min
(
dev_ctx
.
GetMaxThreadsPerBlock
(),
1024
);
int
block_per_grid
=
backends
::
gpu
::
DivUp
(
num_kernels
,
num_threads
);
int
thread_per_block
=
num_threads
;
if
(
FLAGS_cudnn_deterministic
)
{
VLOG
(
2
)
<<
"Run grad kernel of bilinear interpolate 2d with single thread."
;
block_per_grid
=
1
;
thread_per_block
=
1
;
}
KeBilinearInterpNCHWBw
<
T
>
<<<
block_per_grid
,
thread_per_block
,
0
,
dev_ctx
.
stream
()
>>>
(
input_grad_data
,
in_h
,
in_w
,
out_h
,
out_w
,
n
,
c
,
ratio_h
,
ratio_w
,
output_grad_data
,
align_type_value
);
<<<
backends
::
gpu
::
DivUp
(
num_kernels
,
num_threads
),
num_threads
,
0
,
dev_ctx
.
stream
()
>>>
(
input_grad_data
,
in_h
,
in_w
,
out_h
,
out_w
,
n
,
c
,
ratio_h
,
ratio_w
,
output_grad_data
,
align_type_value
);
}
else
{
int64_t
cw
=
c
*
out_w
;
auto
interp_divmods
=
funcs
::
FastDivModForInterpolate
(
c
,
out_chw
,
cw
);
...
...
编辑
预览
Markdown
is supported
0%
请重试
或
添加新附件
.
添加附件
取消
You are about to add
0
people
to the discussion. Proceed with caution.
先完成此消息的编辑!
取消
想要评论请
注册
或
登录