Skip to content
体验新版
项目
组织
正在加载...
登录
切换导航
打开侧边栏
BaiXuePrincess
Paddle
提交
7875accb
P
Paddle
项目概览
BaiXuePrincess
/
Paddle
与 Fork 源项目一致
Fork自
PaddlePaddle / Paddle
通知
1
Star
1
Fork
0
代码
文件
提交
分支
Tags
贡献者
分支图
Diff
Issue
0
列表
看板
标记
里程碑
合并请求
0
Wiki
0
Wiki
分析
仓库
DevOps
项目成员
Pages
P
Paddle
项目概览
项目概览
详情
发布
仓库
仓库
文件
提交
分支
标签
贡献者
分支图
比较
Issue
0
Issue
0
列表
看板
标记
里程碑
合并请求
0
合并请求
0
Pages
分析
分析
仓库分析
DevOps
Wiki
0
Wiki
成员
成员
收起侧边栏
关闭侧边栏
动态
分支图
创建新Issue
提交
Issue看板
未验证
提交
7875accb
编写于
1月 04, 2023
作者:
R
Roc
提交者:
GitHub
1月 04, 2023
浏览文件
操作
浏览文件
下载
电子邮件补丁
差异文件
support mp on xpu (#49531)
上级
5592f8ad
变更
1
隐藏空白更改
内联
并排
Showing
1 changed file
with
16 addition
and
12 deletion
+16
-12
python/paddle/distributed/fleet/utils/hybrid_parallel_util.py
...on/paddle/distributed/fleet/utils/hybrid_parallel_util.py
+16
-12
未找到文件。
python/paddle/distributed/fleet/utils/hybrid_parallel_util.py
浏览文件 @
7875accb
...
...
@@ -138,15 +138,23 @@ def _broadcast_data_help(data, shape, dtype, hcg):
def
broadcast_input_data
(
hcg
,
*
inputs
,
**
kwargs
):
cur_device
=
paddle
.
get_device
()
dev
=
cur_device
.
split
(
":"
)[
0
]
assert
dev
in
[
"xpu"
,
"gpu"
,
"npu"
,
],
f
"Only support xpu, gpu and npu now, but this is
{
dev
}
"
dev_idx
=
int
(
cur_device
.
split
(
':'
)[
1
])
if
dev
==
"gpu"
:
place
=
paddle
.
CUDAPlace
(
dev_idx
)
else
:
place
=
eval
(
f
"paddle.
{
dev
.
upper
()
}
Place"
)(
dev_idx
)
for
v
in
inputs
:
if
isinstance
(
v
,
(
core
.
VarBase
,
core
.
eager
.
Tensor
)):
with
framework
.
no_grad
():
if
(
"gpu"
in
cur_device
and
in_dygraph_mode
()
and
not
v
.
place
.
is_gpu_place
()
):
v_gpu
=
v
.
cuda
(
int
(
cur_device
.
split
(
":"
)[
1
]))
if
in_dygraph_mode
()
and
not
eval
(
f
"v.place.is_
{
dev
}
_place"
)():
v_gpu
=
v
.
_copy_to
(
place
,
True
)
v
.
_clear_data
()
v_gpu
.
_share_buffer_to
(
v
)
_broadcast_data_help
(
v
,
v
.
shape
,
v
.
dtype
,
hcg
)
...
...
@@ -156,12 +164,8 @@ def broadcast_input_data(hcg, *inputs, **kwargs):
for
k
,
v
in
kwargs
.
items
():
if
isinstance
(
v
,
(
core
.
VarBase
,
core
.
eager
.
Tensor
)):
with
framework
.
no_grad
():
if
(
"gpu"
in
cur_device
and
in_dygraph_mode
()
and
not
v
.
place
.
is_gpu_place
()
):
v_gpu
=
v
.
cuda
(
int
(
cur_device
.
split
(
":"
)[
1
]))
if
in_dygraph_mode
()
and
not
eval
(
f
"v.place.is_
{
dev
}
_place"
)():
v_gpu
=
v
.
_copy_to
(
place
,
True
)
v
.
_clear_data
()
v_gpu
.
_share_buffer_to
(
v
)
_broadcast_data_help
(
v
,
v
.
shape
,
v
.
dtype
,
hcg
)
...
...
编辑
预览
Markdown
is supported
0%
请重试
或
添加新附件
.
添加附件
取消
You are about to add
0
people
to the discussion. Proceed with caution.
先完成此消息的编辑!
取消
想要评论请
注册
或
登录